Корреляты в психологии это – КОРРЕЛЯТ это что такое КОРРЕЛЯТ: определение — Психология.НЭС

Содержание

корреляты — это… Что такое корреляты?

  • корреляты — (< ср. лат. correlativus) 1) Соотносительные элементы языка, различающиеся по одному из признаков: фонемы по звонкости и глухости ( < б> < п>), по твердости и мягкости ( мел мель ), граммемы, входящие в одну категорию (мужской род… …   Словарь лингвистических терминов Т.В. Жеребило

  • корреляты — ов; мн. (ед. коррелят, а; м.). 1. Книжн. Соотносительные друг с другом элементы чего л. К. рыночной экономики. Социальные к. 2. Лингв. Элементы языковой системы, различающиеся каким л. одним признаком. К. по глухости звонкости …   Энциклопедический словарь

  • корреляты — ов; мн. (ед. корреля/т, а; м.) 1) книжн. Соотносительные друг с другом элементы чего л. Корреля/ты рыночной экономики. Социальные корреля/ты. 2) лингв. Элементы языковой системы, различающиеся каким л. одним признаком. Корреля/ты по глухости… …   Словарь многих выражений

  • Спивак, Дмитрий Леонидович — Дмитрий Леонидович Спивак Страна …   Википедия

  • Грамматический союз — Союз  служебная часть речи, оформляющая связь между частями сложного предложения, между отдельными предложениями в тексте, а также между словоформами в составе простого предложения. При помощи большинства союзов разграничиваются сочинительные или …   Википедия

  • Лексика эсперанто — Базовый набор слов эсперанто был определён в Первой книге, опубликованной Заменгофом в 1887 году. В ней содержалось около 900 корней, однако, правила языка позволяли говорящим заимствовать слова по мере необходимости. Рекомендовалось заимствовать …   Википедия

  • Фактор общего интеллекта — Эту статью следует викифицировать. Пожалуйста, оформите её согласно правилам оформления статей. Фактор общего интеллекта (англ. general factor, g factor) является широко используемым, но противоречивым конструктом, используемым в психологии (см.… …   Википедия

  • Антонимы — (греч. αντί «против» + όνομα «имя»)  это слова одной части речи, различные по звучанию и написанию, имеющие прямо противоположные лексические значения: правда  ложь, добрый  злой, говорить  молчать. Антонимы по типу выражаемых …   Википедия

  • Оссовский Станислав — Станислав Оссовски (польск. Stanisław Ossowski; 22 мая 1897, Липно недалеко от Вроцлавка) польский социолог; занимает главное место в том поколении социологов, которое после поколения выдающихся инициаторов – Людвика Кшивицкого, Флориана… …   Википедия

  • ТРАНСЦЕНДЕНТАЛЬНАЯ ФЕНОМЕНОЛОГИЯ — неклассическое направление трансцендентально критической философии, основоположником которого является Гуссерль. Данный вид трансцендентального анализа Гуссерль оценивает как неокартезианство, подразумевая предпринятый Декартом поворот от… …   История Философии: Энциклопедия

  • dic.academic.ru

    Корреляция — это… Что такое Корреляция?

    Корреля́ция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.[1] Математической мерой корреляции двух случайных величин служит корреляционное отношение [2], либо коэффициент корреляции (или )[1]. В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической[3].

    Впервые в научный оборот термин «корреляция» ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.[4]

    Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными. В первом случае предполагается, что мы можем определить только наличие или отсутствие связи, а во втором — также и ее направление. Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой. При этом коэффициент корреляции будет отрицательным. Положительная корреляция в таких условиях — это такая связь, при которой увеличение одной переменной связано с увеличением другой переменной. Возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин.

    Корреляция и взаимосвязь величин

    Значительная корреляция между двумя случайными величинами всегда является свидетельством существования некоторой статистической связи в данной выборке, но эта связь не обязательно должна наблюдаться для другой выборки и иметь причинно-следственный характер. Часто заманчивая простота корреляционного исследования подталкивает исследователя делать ложные интуитивные выводы о наличии причинно-следственной связи между парами признаков, в то время как коэффициенты корреляции устанавливают лишь статистические взаимосвязи. Например, рассматривая пожары в конкретном городе, можно выявить весьма высокую корреляцию между ущербом, который нанес пожар, и количеством пожарных, участвовавших в ликвидации пожара, причём эта корреляция будет положительной. Из этого, однако, не следует вывод «бо́льшее количество пожарных приводит к бо́льшему ущербу», и тем более не имеет смысла попытка минимизировать ущерб от пожаров путем ликвидации пожарных бригад.

    [5]В то же время, отсутствие корреляции между двумя величинами ещё не значит, что между ними нет никакой связи.

    Показатели корреляции

    Параметрические показатели корреляции

    Ковариация

    Важной характеристикой совместного распределения двух случайных величин является ковариация (или корреляционный момент). Ковариация являетcя совместным центральным моментом второго порядка.[6] Ковариация определяется как математическое ожидание произведения отклонений случайных величин[7]:

    ,

    где  — математическое ожидание.

    Свойства ковариации:

    • Ковариация двух независимых случайных величин и равна нулю[8].

    Доказательство  

    • Абсолютная величина ковариации двух случайных величин и не превышает среднего геометрического их дисперсий: [9].

    Доказательство  

    Введём в рассмотрение случайную величину (где — среднеквадратическое отклонение) и найдём её дисперсию . Выполнив выкладки получим:

    Любая дисперсия неотрицательна, поэтому

    Отсюда

    Введя случайную величину , аналогично

    Объединив полученные неравенства имеем

    Или

    Итак,

    • Ковариация имеет размерность, равную произведению размерности случайных величин, то есть величина ковариации зависит от единиц измерения независимых величин. Данная особенность ковариации затрудняет её использование в целях корреляционного анализа[8].
    Линейный коэффициент корреляции

    Для устранения недостатка ковариации был введён линейный коэффициент корреляции (или коэффициент корреляции Пирсона), который разработали Карл Пирсон, Фрэнсис Эджуорт и Рафаэль Уэлдон (англ.)русск. в 90-х годах XIX века. Коэффициент корреляции рассчитывается по формуле[10][8]:

    где ,  — среднее значение выборок.

    Коэффициент корреляции изменяется в пределах от минус единицы до плюс единицы[11].

    Доказательство  

    Разделив обе части двойного неравенства на получим

    Линейный коэффициент корреляции связан с коэффициентом регрессии в виде следующей зависимости: где — коэффициент регрессии, — среднеквадратическое отклонение соответствующего факторного признака[12].

    Для графического представления подобной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определенного символа. Такой график называется «диаграммой рассеяния».

    Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные. Так, для измерения переменных с интервальной и количественной шкалами необходимо использовать коэффициент корреляции Пирсона (корреляция моментов произведений). Если по меньшей мере одна из двух переменных имеет порядковую шкалу, либо не является нормально распределённой, необходимо использовать ранговую корреляцию Спирмена или (тау) Кендалла. В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими: четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, когда связь между ними линейна (однонаправлена).

    Непараметрические показатели корреляции

    Коэффициент ранговой корреляции Кендалла

    Применяется для выявления взаимосвязи между количественными или качественными показателями, если их можно ранжировать. Значения показателя X выставляют в порядке возрастания и присваивают им ранги. Ранжируют значения показателя Y и рассчитывают коэффициент корреляции Кендалла:

    ,

    где .

     — суммарное число наблюдений, следующих за текущими наблюдениями с большим значением рангов Y.

     — суммарное число наблюдений, следующих за текущими наблюдениями с

    меньшим значением рангов Y. (равные ранги не учитываются!)

    Если исследуемые данные повторяются (имеют одинаковые ранги), то в расчетах используется скорректированный коэффициент корреляции Кендалла:

     — число связанных рангов в ряду X и Y соответственно.

    Коэффициент ранговой корреляции Спирмена

    Каждому показателю X и Y присваивается ранг. На основе полученных рангов рассчитываются их разности и вычисляется коэффициент корреляции Спирмена:

    Коэффициент корреляции знаков Фехнера

    Подсчитывается количество совпадений и несовпадений знаков отклонений значений показателей от их среднего значения.

    C — число пар, у которых знаки отклонений значений от их средних совпадают.

    H — число пар, у которых знаки отклонений значений от их средних не совпадают.

    Коэффициент множественной ранговой корреляции (конкордации)

     — число групп, которые ранжируются.

     — число переменных.

     — ранг -фактора у -единицы.

    Значимость:

    , то гипотеза об отсутствии связи отвергается.

    В случае наличия связанных рангов:

    Свойства коэффициента корреляции

    если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна , и следствием неравенства Коши — Буняковского будет:
    .
    • Коэффициент корреляции равен тогда и только тогда, когда и линейно зависимы (исключая события нулевой вероятности, когда несколько точек «выбиваются» из прямой, отражающей линейную зависимость случайных величин):
    ,
    где . Более того в этом случае знаки и совпадают:
    .

    Доказательство  

    Рассмотрим случайные величины X и Y c нулевыми средними, и дисперсиями, равными, соответственно, и . Подсчитаем дисперсию случайной величины :

    Если предположить, что коэффициент корреляции

    то предыдущее выражение перепишется в виде

    Поскольку всегда можно выбрать числа a и b так, чтобы (например, если , то берём произвольное a и ), то при этих a и b дисперсия , и значит почти наверное. Но это и означает линейную зависимость между X и Y. Доказательство очевидным образом обобщается на случай величин X и Y с ненулевыми средними, только в вышеприведённых выкладках надо будет X заменить на , и Y — на .

    • Если независимые случайные величины, то . Обратное в общем случае неверно.

    Корреляционный анализ

    Корреляционный анализ — метод обработки статистических данных, с помощью которого измеряется теснота связи между двумя или более переменными. Корреляционный анализ тесно связан с регрессионным анализом (также часто встречается термин «корреляционно-регрессионный анализ», который является более общим статистическим понятием), с его помощью определяют необходимость включения тех или иных факторов в уравнение множественной регрессии, а также оценивают полученное уравнение регрессии на соответствие выявленным связям (используя коэффициент детерминации).[1][2]

    Ограничения корреляционного анализа

    Множество корреляционных полей. Распределения значений (xy) с соответствующими коэффициентами корреляций для каждого из них. Коэффициент корреляции отражает «зашумлённость» линейной зависимости (верхняя строка), но не описывает наклон линейной зависимости (средняя строка), и совсем не подходит для описания сложных, нелинейных зависимостей (нижняя строка). Для распределения, показанного в центре рисунка, коэффициент корреляции не определен, так как дисперсия y равна нулю.
    1. Применение возможно при наличии достаточного количества наблюдений для изучения. На практике считается, что число наблюдений должно быть не менее, чем в 5-6 раз превышать число факторов (также встречается рекомендация использовать пропорцию не менее, чем в 10 раз превышающую количество факторов). В случае, если число наблюдений превышает количество факторов в десятки раз, в действие вступает закон больших чисел, который обеспечивает взаимопогашение случайных колебаний.[13]
    2. Необходимо, чтобы совокупность значений всех факторных и результативного признаков подчинялась многомерному нормальному распределению. В случае, если объём совокупности недостаточен для проведения формального тестирования на нормальность распределения, то закон распределения определяется визуально на основе корреляционного поля. Если в расположении точек на этом поле наблюдается линейная тенденция, то можно предположить, что совокупность исходных данных подчиняется нормальному закону распределения.[14].
    3. Исходная совокупность значений должна быть качественно однородной.[13]
    4. Сам по себе факт корреляционной зависимости не даёт основания утверждать, что одна из переменных предшествует или является причиной изменений, или то, что переменные вообще причинно связаны между собой, а не наблюдается действие третьего фактора.[5]

    Область применения

    Данный метод обработки статистических данных весьма популярен в экономике и социальных науках (в частности в психологии и социологии), хотя сфера применения коэффициентов корреляции обширна: контроль качества промышленной продукции, металловедение, агрохимия, гидробиология, биометрия и прочие. В различных прикладных отраслях приняты разные границы интервалов для оценки тесноты и значимости связи.

    Популярность метода обусловлена двумя моментами: коэффициенты корреляции относительно просты в подсчете, их применение не требует специальной математической подготовки. В сочетании с простотой интерпретации, простота применения коэффициента привела к его широкому распространению в сфере анализа статистических данных.

    Корреляция — взаимосвязь признаков (может быть положительной или отрицательной). Обусловлена сцеплением генов или плейотропией[15]

    См. также

    Примечания

    1. 1 2 3 Шмойлова, 2002, с. 272
    2. 1 2 Елисеева, Юзбашев, 2002, с. 232
    3. Елисеева, Юзбашев, 2002, с. 228
    4. Елисеева, Юзбашев, 2002, с. 228-229
    5. 1 2 Елисеева, Юзбашев, 2002, с. 229
    6. Суслов, Ибрагимов, Талышева, Цыплаков, 2005, с. 141
    7. Гмурман, 2004, с. 176-177
    8. 1 2 3 Гмурман, 2004, с. 177
    9. Гмурман, 2004, с. 178-179
    10. Шмойлова, 2002, с. 300
    11. Гмурман, 2004, с. 179
    12. Шмойлова, 2002, с. 301
    13. 1 2 Елисеева, Юзбашев, 2002, с. 230
    14. Шмойлова, 2002, с. 275
    15. Самигуллина Н. С. Практикум по селекции и сортоведению плодовых и ягодных культур: Учебное издание. — Мичуринск: Мичуринский государственный аграрный университет, 2006. — 197 с.

    Литература

    • Гмурман В.Е. Теория вероятностей и математическая статистика: Учебное пособие для вузов. — 10-е издание, стереотипное. — Москва: Высшая школа, 2004. — 479 с. — ISBN 5-06-004214-6
    • Елисеева И.И., Юзбашев М.М. Общая теория статистики: Учебник / Под ред. И.И. Елисеевой. — 4-е издание, переработанное и дополненное. — Москва: Финансы и Статистика, 2002. — 480 с. — ISBN 5-279-01956-9
    • Общая теория статистики: Учебник / Под ред. Р.А. Шмойловой. — 3-е издание, переработанное. — Москва: Финансы и Статистика, 2002. — 560 с. — ISBN 5-279-01951-8
    • Суслов В.И., Ибрагимов Н.М., Талышева Л.П., Цыплаков А.А. Эконометрия. — Новосибирск: СО РАН, 2005. — 744 с. — ISBN 5-7692-0755-8

    Ссылки

    dic.academic.ru

    Корреляция — это… Что такое Корреляция?

    Корреля́ция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.[1] Математической мерой корреляции двух случайных величин служит корреляционное отношение [2], либо коэффициент корреляции (или )[1]. В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической[3].

    Впервые в научный оборот термин «корреляция» ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.[4]

    Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными. В первом случае предполагается, что мы можем определить только наличие или отсутствие связи, а во втором — также и ее направление. Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой. При этом коэффициент корреляции будет отрицательным. Положительная корреляция в таких условиях — это такая связь, при которой увеличение одной переменной связано с увеличением другой переменной. Возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин.

    Корреляция и взаимосвязь величин

    Значительная корреляция между двумя случайными величинами всегда является свидетельством существования некоторой статистической связи в данной выборке, но эта связь не обязательно должна наблюдаться для другой выборки и иметь причинно-следственный характер. Часто заманчивая простота корреляционного исследования подталкивает исследователя делать ложные интуитивные выводы о наличии причинно-следственной связи между парами признаков, в то время как коэффициенты корреляции устанавливают лишь статистические взаимосвязи. Например, рассматривая пожары в конкретном городе, можно выявить весьма высокую корреляцию между ущербом, который нанес пожар, и количеством пожарных, участвовавших в ликвидации пожара, причём эта корреляция будет положительной. Из этого, однако, не следует вывод «бо́льшее количество пожарных приводит к бо́льшему ущербу», и тем более не имеет смысла попытка минимизировать ущерб от пожаров путем ликвидации пожарных бригад.[5]В то же время, отсутствие корреляции между двумя величинами ещё не значит, что между ними нет никакой связи.

    Показатели корреляции

    Параметрические показатели корреляции

    Ковариация

    Важной характеристикой совместного распределения двух случайных величин является ковариация (или корреляционный момент). Ковариация являетcя совместным центральным моментом второго порядка.[6] Ковариация определяется как математическое ожидание произведения отклонений случайных величин[7]:

    ,

    где  — математическое ожидание.

    Свойства ковариации:

    • Ковариация двух независимых случайных величин и равна нулю[8].

    Доказательство  

    • Абсолютная величина ковариации двух случайных величин и не превышает среднего геометрического их дисперсий: [9].

    Доказательство  

    Введём в рассмотрение случайную величину (где — среднеквадратическое отклонение) и найдём её дисперсию . Выполнив выкладки получим:

    Любая дисперсия неотрицательна, поэтому

    Отсюда

    Введя случайную величину , аналогично

    Объединив полученные неравенства имеем

    Или

    Итак,

    • Ковариация имеет размерность, равную произведению размерности случайных величин, то есть величина ковариации зависит от единиц измерения независимых величин. Данная особенность ковариации затрудняет её использование в целях корреляционного анализа[8].
    Линейный коэффициент корреляции

    Для устранения недостатка ковариации был введён линейный коэффициент корреляции (или коэффициент корреляции Пирсона), который разработали Карл Пирсон, Фрэнсис Эджуорт и Рафаэль Уэлдон (англ.)русск. в 90-х годах XIX века. Коэффициент корреляции рассчитывается по формуле[10][8]:

    где ,  — среднее значение выборок.

    Коэффициент корреляции изменяется в пределах от минус единицы до плюс единицы[11].

    Доказательство  

    Разделив обе части двойного неравенства на получим

    Линейный коэффициент корреляции связан с коэффициентом регрессии в виде следующей зависимости: где — коэффициент регрессии, — среднеквадратическое отклонение соответствующего факторного признака[12].

    Для графического представления подобной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определенного символа. Такой график называется «диаграммой рассеяния».

    Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные. Так, для измерения переменных с интервальной и количественной шкалами необходимо использовать коэффициент корреляции Пирсона (корреляция моментов произведений). Если по меньшей мере одна из двух переменных имеет порядковую шкалу, либо не является нормально распределённой, необходимо использовать ранговую корреляцию Спирмена или (тау) Кендалла. В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими: четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, когда связь между ними линейна (однонаправлена).

    Непараметрические показатели корреляции

    Коэффициент ранговой корреляции Кендалла

    Применяется для выявления взаимосвязи между количественными или качественными показателями, если их можно ранжировать. Значения показателя X выставляют в порядке возрастания и присваивают им ранги. Ранжируют значения показателя Y и рассчитывают коэффициент корреляции Кендалла:

    ,

    где .

     — суммарное число наблюдений, следующих за текущими наблюдениями с большим значением рангов Y.

     — суммарное число наблюдений, следующих за текущими наблюдениями с меньшим значением рангов Y. (равные ранги не учитываются!)

    Если исследуемые данные повторяются (имеют одинаковые ранги), то в расчетах используется скорректированный коэффициент корреляции Кендалла:

     — число связанных рангов в ряду X и Y соответственно.

    Коэффициент ранговой корреляции Спирмена

    Каждому показателю X и Y присваивается ранг. На основе полученных рангов рассчитываются их разности и вычисляется коэффициент корреляции Спирмена:

    Коэффициент корреляции знаков Фехнера

    Подсчитывается количество совпадений и несовпадений знаков отклонений значений показателей от их среднего значения.

    C — число пар, у которых знаки отклонений значений от их средних совпадают.

    H — число пар, у которых знаки отклонений значений от их средних не совпадают.

    Коэффициент множественной ранговой корреляции (конкордации)

     — число групп, которые ранжируются.

     — число переменных.

     — ранг -фактора у -единицы.

    Значимость:

    , то гипотеза об отсутствии связи отвергается.

    В случае наличия связанных рангов:

    Свойства коэффициента корреляции

    если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна , и следствием неравенства Коши — Буняковского будет:
    .
    • Коэффициент корреляции равен тогда и только тогда, когда и линейно зависимы (исключая события нулевой вероятности, когда несколько точек «выбиваются» из прямой, отражающей линейную зависимость случайных величин):
    ,
    где . Более того в этом случае знаки и совпадают:
    .

    Доказательство  

    Рассмотрим случайные величины X и Y c нулевыми средними, и дисперсиями, равными, соответственно, и . Подсчитаем дисперсию случайной величины :

    Если предположить, что коэффициент корреляции

    то предыдущее выражение перепишется в виде

    Поскольку всегда можно выбрать числа a и b так, чтобы (например, если , то берём произвольное a и ), то при этих a и b дисперсия , и значит почти наверное. Но это и означает линейную зависимость между X и Y. Доказательство очевидным образом обобщается на случай величин X и Y с ненулевыми средними, только в вышеприведённых выкладках надо будет X заменить на , и Y — на .

    • Если независимые случайные величины, то . Обратное в общем случае неверно.

    Корреляционный анализ

    Корреляционный анализ — метод обработки статистических данных, с помощью которого измеряется теснота связи между двумя или более переменными. Корреляционный анализ тесно связан с регрессионным анализом (также часто встречается термин «корреляционно-регрессионный анализ», который является более общим статистическим понятием), с его помощью определяют необходимость включения тех или иных факторов в уравнение множественной регрессии, а также оценивают полученное уравнение регрессии на соответствие выявленным связям (используя коэффициент детерминации).[1][2]

    Ограничения корреляционного анализа

    Множество корреляционных полей. Распределения значений (xy) с соответствующими коэффициентами корреляций для каждого из них. Коэффициент корреляции отражает «зашумлённость» линейной зависимости (верхняя строка), но не описывает наклон линейной зависимости (средняя строка), и совсем не подходит для описания сложных, нелинейных зависимостей (нижняя строка). Для распределения, показанного в центре рисунка, коэффициент корреляции не определен, так как дисперсия y равна нулю.
    1. Применение возможно при наличии достаточного количества наблюдений для изучения. На практике считается, что число наблюдений должно быть не менее, чем в 5-6 раз превышать число факторов (также встречается рекомендация использовать пропорцию не менее, чем в 10 раз превышающую количество факторов). В случае, если число наблюдений превышает количество факторов в десятки раз, в действие вступает закон больших чисел, который обеспечивает взаимопогашение случайных колебаний.[13]
    2. Необходимо, чтобы совокупность значений всех факторных и результативного признаков подчинялась многомерному нормальному распределению. В случае, если объём совокупности недостаточен для проведения формального тестирования на нормальность распределения, то закон распределения определяется визуально на основе корреляционного поля. Если в расположении точек на этом поле наблюдается линейная тенденция, то можно предположить, что совокупность исходных данных подчиняется нормальному закону распределения.[14].
    3. Исходная совокупность значений должна быть качественно однородной.[13]
    4. Сам по себе факт корреляционной зависимости не даёт основания утверждать, что одна из переменных предшествует или является причиной изменений, или то, что переменные вообще причинно связаны между собой, а не наблюдается действие третьего фактора.[5]

    Область применения

    Данный метод обработки статистических данных весьма популярен в экономике и социальных науках (в частности в психологии и социологии), хотя сфера применения коэффициентов корреляции обширна: контроль качества промышленной продукции, металловедение, агрохимия, гидробиология, биометрия и прочие. В различных прикладных отраслях приняты разные границы интервалов для оценки тесноты и значимости связи.

    Популярность метода обусловлена двумя моментами: коэффициенты корреляции относительно просты в подсчете, их применение не требует специальной математической подготовки. В сочетании с простотой интерпретации, простота применения коэффициента привела к его широкому распространению в сфере анализа статистических данных.

    Корреляция — взаимосвязь признаков (может быть положительной или отрицательной). Обусловлена сцеплением генов или плейотропией[15]

    См. также

    Примечания

    1. 1 2 3 Шмойлова, 2002, с. 272
    2. 1 2 Елисеева, Юзбашев, 2002, с. 232
    3. Елисеева, Юзбашев, 2002, с. 228
    4. Елисеева, Юзбашев, 2002, с. 228-229
    5. 1 2 Елисеева, Юзбашев, 2002, с. 229
    6. Суслов, Ибрагимов, Талышева, Цыплаков, 2005, с. 141
    7. Гмурман, 2004, с. 176-177
    8. 1 2 3 Гмурман, 2004, с. 177
    9. Гмурман, 2004, с. 178-179
    10. Шмойлова, 2002, с. 300
    11. Гмурман, 2004, с. 179
    12. Шмойлова, 2002, с. 301
    13. 1 2 Елисеева, Юзбашев, 2002, с. 230
    14. Шмойлова, 2002, с. 275
    15. Самигуллина Н. С. Практикум по селекции и сортоведению плодовых и ягодных культур: Учебное издание. — Мичуринск: Мичуринский государственный аграрный университет, 2006. — 197 с.

    Литература

    • Гмурман В.Е. Теория вероятностей и математическая статистика: Учебное пособие для вузов. — 10-е издание, стереотипное. — Москва: Высшая школа, 2004. — 479 с. — ISBN 5-06-004214-6
    • Елисеева И.И., Юзбашев М.М. Общая теория статистики: Учебник / Под ред. И.И. Елисеевой. — 4-е издание, переработанное и дополненное. — Москва: Финансы и Статистика, 2002. — 480 с. — ISBN 5-279-01956-9
    • Общая теория статистики: Учебник / Под ред. Р.А. Шмойловой. — 3-е издание, переработанное. — Москва: Финансы и Статистика, 2002. — 560 с. — ISBN 5-279-01951-8
    • Суслов В.И., Ибрагимов Н.М., Талышева Л.П., Цыплаков А.А. Эконометрия. — Новосибирск: СО РАН, 2005. — 744 с. — ISBN 5-7692-0755-8

    Ссылки

    biograf.academic.ru

    Понятие о корреляции и корреляционном анализе в психологии

    Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет линейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона. Если же связь между переменными X и Y не линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.

    Величина коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 — являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 — следовательно произошла ошибка в вычислениях.

    Если коэффициент корреляции по модулю оказывается близким к 1, то это соответствует высокому уровню связи между переменными. Так, в частности, при корреляции переменной величины с самой собой величина коэффициента корреляции будет равна +1. Подобная связь характеризует прямо пропорциональную зависимость. Если же значения переменной Х будут распложены в порядке возрастания, а те же значения (обозначенные теперь уже как переменная Y) будут располагаться в порядке убывания, то в этом случае корреляция между переменными X и Y будет равна точно -1. Такая величина коэффициента корреляции характеризует обратно пропорциональную зависимость.

    Знак коэффициента корреляции очень важен для интерпретации полученной связи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции — плюс, то связь между коррелирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно увеличивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.

    Если же получен знак минус, то большей величине одного признака соответствует меньшая величина другого. Иначе говоря, при наличии знака минус, увеличению одной переменной (признака, значения) соответствует уменьшение другой переменной. Такая зависимость носит название обратно пропорциональной зависимости. При этом выбор переменной, которой приписывается характер (тенденция) возрастания — произволен. Это может быть как переменная X так и переменная Y. Однако если психолог будет считать, что увеличивается переменная X, то переменная Y будет соответственно уменьшаться, и наоборот. Эти положения очень важно четко усвоить для правильной интерпретации полученной корреляционной зависимости.

    В общем виде формула для подсчета коэффициента корреляции такова:

    (формула 2)

    где хi — значения, принимаемые переменной X,

    yi — значения, принимаемые переменной Y;

    x — средняя по X,

    у — средняя по Y.

    Расчет коэффициента корреляции Пирсона предполагает, что переменные X и Y распределены нормально.

    Для применения коэффициента корреляции Пирсона, необходимо соблюдать следующие условия:

    1. Сравниваемые переменные должны быть получены в интервальной шкале или шкале отношений.

    2. Распределения переменных X и Y должны быть близки к нормальному.

    3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.

    4. Таблицы уровней значимости для коэффициента корреляции Пирсона рассчитаны от n = 5 до n = 1000. Оценка уровня значимости по таблицам осуществляется при числе степеней свободы k = n — 2.

    3.2 Коэффициент корреляции рангов Спирмена

    Коэффициент корреляции рангов, предложенный К. Спирменом, относится к непараметрическим показателям связи между переменными, измеренными в ранговой шкале. При расчете этого коэффициента не требуется никаких предположений о характере распределений признаков в генеральной совокупности. Этот коэффициент определяет степень тесноты связи порядковых признаков, которые в этом случае представляют собой ранги сравниваемых величин. Правила ранжирования варьирующих величин были описаны выше (см. 1.4.1.).

    Величина коэффициента линейной корреляции Спирмена также лежит в интервале +1 и -1. Он, как и коэффициент Пирсона, может быть положительным и отрицательным, характеризуя направленность связи между двумя признаками, измеренными в ранговой шкале.

    В принципе число ранжируемых признаков (качеств, черт и т.п.) может быть любым, но сам процесс ранжирования большего чем 20 числа признаков — затруднителен. Возможно, что именно поэтому таблица критических значений рангового коэффициента корреляции рассчитана лишь для сорока ранжируемых признаков (n < 40, таблица 21 Приложения 1). В случае использования большего чем 40 числа ранжируемых признаков, уровень значимости коэффициента корреляции следует находить по таблице для коэффициента корреляции Пирсона.

    Ранговый коэффициент линейной корреляции Спирмена подсчитывается по формуле:

    (формула 3)

    где n — количество ранжируемых признаков (показателей, испытуемых)

    D —разность между рангами по двум переменным для каждого испытуемого

    ∑(D2 ) — сумма квадратов разностей рангов.

    3.3 Случай одинаковых (равных) рангов

    При наличии одинаковых рангов формула расчета коэффициента линейной корреляции Спирмена будет несколько иной. В этом случае в формулу вычисления коэффициентов корреляции добавляются два новых члена, учитывающие одинаковые ранги. Они называются поправками на одинаковые ранги и добавляются в числитель расчетной формулы.

    (формула 4.1)

    (формула 4.2)

    где n— число одинаковых рангов в первом столбце,

    k — число одинаковых рангов во втором столбце.

    Если имеется две группы одинаковых рангов в каком либо столбце то формула поправки несколько усложняется:

    (формула 4.3)

    где n— число одинаковых рангов в первой группе ранжируемого столбца,

    k – число одинаковых рангов в второй группе ранжируемого столбца. Модификация формулы в общем случае такова:

    (формула 4.4)

    Для применения коэффициента корреляции Спирмена, необходимо соблюдать следующие условия:

    1. Сравниваемые переменные должны быть получены в порядковой (ранговой) шкале, но могут быть измерены также в шкале интервалов и отношений.

    2. Характер распределения коррелируемых величин не имеет значения.

    3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.

    4. Таблицы для определения критических значений коэффициента корреляции Спирмена рассчитаны от числа признаков равных n = 5 до n = 40 и при большем числе сравниваемых переменных следует использовать таблицу для пирсоновского коэффициента корреляции . Нахождение критических значений осуществляется при k = n.

    3.4 Расчет уровней значимости коэффициентов корреляции

    Все коэффициенты корреляции, которые будут рассмотрены ниже, не имеют стандартных таблиц для нахождения критических значений. В этих случаях поиск критических значений осуществляется с помощью t-критерия Стьюдента по формуле:

    ((формула 5)

    где rэмп — коэффициент корреляции,

    n— число коррелируемых признаков, а величина Тф проверяется на уровень значимости по таблице для t-критерия Стьюдента. Число степеней свободы в этом случае будет равно k = n — 2.

    Однако с помощью формулы можно проводить оценку уровней значимости и коэффициентов корреляции Пирсона и Спирмена.

    3.5 Коэффициент корреляции «φ»

    При сравнении двух переменных, измеренных в дихотомической шкале, мерой корреляционной связи служит так называемый коэффициент «φ», или, как назвал эту статистику ее автор К. Пирсон, — «коэффициент ассоциации».

    Величина коэффициента «φ»лежит в интервале +1 и -1. Он может быть как положительным, так и отрицательным, характеризуя направление связи двух дихотомически измеренных признаков.

    В общем виде формула вычисления коэффициента корреляции «φ» выглядит так:

    (формула 6)

    где рх — частота или доля признака, имеющего 1 по X,

    (1 — рх) — доля или частота признака, имеющего 0 по X;

    ру — частота или доля признака, имеющего 1 по Y,

    (1 — ру) — доля или частота признака, имеющего 0 по Y,

    рху — доля или частота признака, имеющая 1 одновременно как по X, так и по Y.

    Частоты вычисляется следующим образом: подсчитывается количество 1 в переменной Х и полученная величина делится на общее число элементов этой переменной — N. Аналогично подсчитываются частоты для переменной Y. Обозначение рху — соответствует частоте или доле признаков, имеющих единицу как по Х так и по Y.

    Второй способ вычисления коэффициента «φ»

    Коэффициент «φ» можно вычислить, не применяя метод кодирования. В этом случае используется так называемая четырехпольная таблица, или таблица сопряженности. Каждую клетку таблицы обозначим соответствующими буквами а, b, с и d.

    Приведем общую формулу расчета коэффициента «φ» по таблице сопряженности:

    (формула 7)

    Для применения коэффициента корреляции «φ» необходимо соблюдать следующие условия:

    1. Сравниваемые признаки должны быть измерены в дихотомической шкале.

    2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.

    3. Для оценки уровня достоверности коэффициента «φ» следует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n — 2.

    3.6 Коэффициент корреляции «τ» Кендалла

    Коэффициент корреляции «τ» (тау) Кендалла относится к числу непараметрических, т.е. при вычислении этого коэффициента не играет роли характер распределения сравниваемых переменных. Коэффициент «τ» предназначен для работы с данными, полученными в ранговой шкале. Иногда этот коэффициент можно использовать вместо коэффициента корреляции Спирмена, поскольку способ его вычисления более прост. Он основан на вычислении суммы инверсий и совпадений.

    Для применения коэффициента корреляции «т» Кендалла необходимо соблюдать следующие условия:

    mirznanii.com

    Корреляция — это… Что такое Корреляция?

    Корреля́ция (корреляционная зависимость) — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.[1] Математической мерой корреляции двух случайных величин служит корреляционное отношение [2], либо коэффициент корреляции (или )[1]. В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической[3].

    Впервые в научный оборот термин «корреляция» ввёл французский палеонтолог Жорж Кювье в XVIII веке. Он разработал «закон корреляции» частей и органов живых существ, с помощью которого можно восстановить облик ископаемого животного, имея в распоряжении лишь часть его останков. В статистике слово «корреляция» первым стал использовать английский биолог и статистик Фрэнсис Гальтон в конце XIX века.[4]

    Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными. В первом случае предполагается, что мы можем определить только наличие или отсутствие связи, а во втором — также и ее направление. Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой. При этом коэффициент корреляции будет отрицательным. Положительная корреляция в таких условиях — это такая связь, при которой увеличение одной переменной связано с увеличением другой переменной. Возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин.

    Корреляция и взаимосвязь величин

    Значительная корреляция между двумя случайными величинами всегда является свидетельством существования некоторой статистической связи в данной выборке, но эта связь не обязательно должна наблюдаться для другой выборки и иметь причинно-следственный характер. Часто заманчивая простота корреляционного исследования подталкивает исследователя делать ложные интуитивные выводы о наличии причинно-следственной связи между парами признаков, в то время как коэффициенты корреляции устанавливают лишь статистические взаимосвязи. Например, рассматривая пожары в конкретном городе, можно выявить весьма высокую корреляцию между ущербом, который нанес пожар, и количеством пожарных, участвовавших в ликвидации пожара, причём эта корреляция будет положительной. Из этого, однако, не следует вывод «бо́льшее количество пожарных приводит к бо́льшему ущербу», и тем более не имеет смысла попытка минимизировать ущерб от пожаров путем ликвидации пожарных бригад.[5]В то же время, отсутствие корреляции между двумя величинами ещё не значит, что между ними нет никакой связи.

    Показатели корреляции

    Параметрические показатели корреляции

    Ковариация

    Важной характеристикой совместного распределения двух случайных величин является ковариация (или корреляционный момент). Ковариация являетcя совместным центральным моментом второго порядка.[6] Ковариация определяется как математическое ожидание произведения отклонений случайных величин[7]:

    ,

    где  — математическое ожидание.

    Свойства ковариации:

    • Ковариация двух независимых случайных величин и равна нулю[8].

    Доказательство  

    • Абсолютная величина ковариации двух случайных величин и не превышает среднего геометрического их дисперсий: [9].

    Доказательство  

    Введём в рассмотрение случайную величину (где — среднеквадратическое отклонение) и найдём её дисперсию . Выполнив выкладки получим:

    Любая дисперсия неотрицательна, поэтому

    Отсюда

    Введя случайную величину , аналогично

    Объединив полученные неравенства имеем

    Или

    Итак,

    • Ковариация имеет размерность, равную произведению размерности случайных величин, то есть величина ковариации зависит от единиц измерения независимых величин. Данная особенность ковариации затрудняет её использование в целях корреляционного анализа[8].
    Линейный коэффициент корреляции

    Для устранения недостатка ковариации был введён линейный коэффициент корреляции (или коэффициент корреляции Пирсона), который разработали Карл Пирсон, Фрэнсис Эджуорт и Рафаэль Уэлдон (англ.)русск. в 90-х годах XIX века. Коэффициент корреляции рассчитывается по формуле[10][8]:

    где ,  — среднее значение выборок.

    Коэффициент корреляции изменяется в пределах от минус единицы до плюс единицы[11].

    Доказательство  

    Разделив обе части двойного неравенства на получим

    Линейный коэффициент корреляции связан с коэффициентом регрессии в виде следующей зависимости: где — коэффициент регрессии, — среднеквадратическое отклонение соответствующего факторного признака[12].

    Для графического представления подобной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определенного символа. Такой график называется «диаграммой рассеяния».

    Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные. Так, для измерения переменных с интервальной и количественной шкалами необходимо использовать коэффициент корреляции Пирсона (корреляция моментов произведений). Если по меньшей мере одна из двух переменных имеет порядковую шкалу, либо не является нормально распределённой, необходимо использовать ранговую корреляцию Спирмена или (тау) Кендалла. В случае, когда одна из двух переменных является дихотомической, используется точечная двухрядная корреляция, а если обе переменные являются дихотомическими: четырёхполевая корреляция. Расчёт коэффициента корреляции между двумя недихотомическими переменными не лишён смысла только тогда, когда связь между ними линейна (однонаправлена).

    Непараметрические показатели корреляции

    Коэффициент ранговой корреляции Кендалла

    Применяется для выявления взаимосвязи между количественными или качественными показателями, если их можно ранжировать. Значения показателя X выставляют в порядке возрастания и присваивают им ранги. Ранжируют значения показателя Y и рассчитывают коэффициент корреляции Кендалла:

    ,

    где .

     — суммарное число наблюдений, следующих за текущими наблюдениями с большим значением рангов Y.

     — суммарное число наблюдений, следующих за текущими наблюдениями с меньшим значением рангов Y. (равные ранги не учитываются!)

    Если исследуемые данные повторяются (имеют одинаковые ранги), то в расчетах используется скорректированный коэффициент корреляции Кендалла:

     — число связанных рангов в ряду X и Y соответственно.

    Коэффициент ранговой корреляции Спирмена

    Каждому показателю X и Y присваивается ранг. На основе полученных рангов рассчитываются их разности и вычисляется коэффициент корреляции Спирмена:

    Коэффициент корреляции знаков Фехнера

    Подсчитывается количество совпадений и несовпадений знаков отклонений значений показателей от их среднего значения.

    C — число пар, у которых знаки отклонений значений от их средних совпадают.

    H — число пар, у которых знаки отклонений значений от их средних не совпадают.

    Коэффициент множественной ранговой корреляции (конкордации)

     — число групп, которые ранжируются.

     — число переменных.

     — ранг -фактора у -единицы.

    Значимость:

    , то гипотеза об отсутствии связи отвергается.

    В случае наличия связанных рангов:

    Свойства коэффициента корреляции

    если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна , и следствием неравенства Коши — Буняковского будет:
    .
    • Коэффициент корреляции равен тогда и только тогда, когда и линейно зависимы (исключая события нулевой вероятности, когда несколько точек «выбиваются» из прямой, отражающей линейную зависимость случайных величин):
    ,
    где . Более того в этом случае знаки и совпадают:
    .

    Доказательство  

    Рассмотрим случайные величины X и Y c нулевыми средними, и дисперсиями, равными, соответственно, и . Подсчитаем дисперсию случайной величины :

    Если предположить, что коэффициент корреляции

    то предыдущее выражение перепишется в виде

    Поскольку всегда можно выбрать числа a и b так, чтобы (например, если , то берём произвольное a и ), то при этих a и b дисперсия , и значит почти наверное. Но это и означает линейную зависимость между X и Y. Доказательство очевидным образом обобщается на случай величин X и Y с ненулевыми средними, только в вышеприведённых выкладках надо будет X заменить на , и Y — на .

    • Если независимые случайные величины, то . Обратное в общем случае неверно.

    Корреляционный анализ

    Корреляционный анализ — метод обработки статистических данных, с помощью которого измеряется теснота связи между двумя или более переменными. Корреляционный анализ тесно связан с регрессионным анализом (также часто встречается термин «корреляционно-регрессионный анализ», который является более общим статистическим понятием), с его помощью определяют необходимость включения тех или иных факторов в уравнение множественной регрессии, а также оценивают полученное уравнение регрессии на соответствие выявленным связям (используя коэффициент детерминации).[1][2]

    Ограничения корреляционного анализа

    Множество корреляционных полей. Распределения значений (xy) с соответствующими коэффициентами корреляций для каждого из них. Коэффициент корреляции отражает «зашумлённость» линейной зависимости (верхняя строка), но не описывает наклон линейной зависимости (средняя строка), и совсем не подходит для описания сложных, нелинейных зависимостей (нижняя строка). Для распределения, показанного в центре рисунка, коэффициент корреляции не определен, так как дисперсия y равна нулю.
    1. Применение возможно при наличии достаточного количества наблюдений для изучения. На практике считается, что число наблюдений должно быть не менее, чем в 5-6 раз превышать число факторов (также встречается рекомендация использовать пропорцию не менее, чем в 10 раз превышающую количество факторов). В случае, если число наблюдений превышает количество факторов в десятки раз, в действие вступает закон больших чисел, который обеспечивает взаимопогашение случайных колебаний.[13]
    2. Необходимо, чтобы совокупность значений всех факторных и результативного признаков подчинялась многомерному нормальному распределению. В случае, если объём совокупности недостаточен для проведения формального тестирования на нормальность распределения, то закон распределения определяется визуально на основе корреляционного поля. Если в расположении точек на этом поле наблюдается линейная тенденция, то можно предположить, что совокупность исходных данных подчиняется нормальному закону распределения.[14].
    3. Исходная совокупность значений должна быть качественно однородной.[13]
    4. Сам по себе факт корреляционной зависимости не даёт основания утверждать, что одна из переменных предшествует или является причиной изменений, или то, что переменные вообще причинно связаны между собой, а не наблюдается действие третьего фактора.[5]

    Область применения

    Данный метод обработки статистических данных весьма популярен в экономике и социальных науках (в частности в психологии и социологии), хотя сфера применения коэффициентов корреляции обширна: контроль качества промышленной продукции, металловедение, агрохимия, гидробиология, биометрия и прочие. В различных прикладных отраслях приняты разные границы интервалов для оценки тесноты и значимости связи.

    Популярность метода обусловлена двумя моментами: коэффициенты корреляции относительно просты в подсчете, их применение не требует специальной математической подготовки. В сочетании с простотой интерпретации, простота применения коэффициента привела к его широкому распространению в сфере анализа статистических данных.

    Корреляция — взаимосвязь признаков (может быть положительной или отрицательной). Обусловлена сцеплением генов или плейотропией[15]

    См. также

    Примечания

    1. 1 2 3 Шмойлова, 2002, с. 272
    2. 1 2 Елисеева, Юзбашев, 2002, с. 232
    3. Елисеева, Юзбашев, 2002, с. 228
    4. Елисеева, Юзбашев, 2002, с. 228-229
    5. 1 2 Елисеева, Юзбашев, 2002, с. 229
    6. Суслов, Ибрагимов, Талышева, Цыплаков, 2005, с. 141
    7. Гмурман, 2004, с. 176-177
    8. 1 2 3 Гмурман, 2004, с. 177
    9. Гмурман, 2004, с. 178-179
    10. Шмойлова, 2002, с. 300
    11. Гмурман, 2004, с. 179
    12. Шмойлова, 2002, с. 301
    13. 1 2 Елисеева, Юзбашев, 2002, с. 230
    14. Шмойлова, 2002, с. 275
    15. Самигуллина Н. С. Практикум по селекции и сортоведению плодовых и ягодных культур: Учебное издание. — Мичуринск: Мичуринский государственный аграрный университет, 2006. — 197 с.

    Литература

    • Гмурман В.Е. Теория вероятностей и математическая статистика: Учебное пособие для вузов. — 10-е издание, стереотипное. — Москва: Высшая школа, 2004. — 479 с. — ISBN 5-06-004214-6
    • Елисеева И.И., Юзбашев М.М. Общая теория статистики: Учебник / Под ред. И.И. Елисеевой. — 4-е издание, переработанное и дополненное. — Москва: Финансы и Статистика, 2002. — 480 с. — ISBN 5-279-01956-9
    • Общая теория статистики: Учебник / Под ред. Р.А. Шмойловой. — 3-е издание, переработанное. — Москва: Финансы и Статистика, 2002. — 560 с. — ISBN 5-279-01951-8
    • Суслов В.И., Ибрагимов Н.М., Талышева Л.П., Цыплаков А.А. Эконометрия. — Новосибирск: СО РАН, 2005. — 744 с. — ISBN 5-7692-0755-8

    Ссылки

    dik.academic.ru

    Корреляционный анализ | Диплом по психологии

    Корреляционный анализ — один из главных методов статистической обработки результатов исследований в области психологии, биологии, медицины и т.д. — всех тех наук, которые изучают то, что уже существует в природе, а человек пытается понять, каким же закономерностям оно подчиняется.

    Метод корреляционного анализа позволяет обнаружить линейные (прямые и обратные) связи между двумя переменными.

    Что такое линейная связь? Говоря доступным языком, это связь между двумя измеряемыми переменными, которую можно обозначить словами «чем больше одно, тем больше другое» (прямая связь) или «чем больше одно, тем меньше другое» (обратная связь).

    Простой пример прямой связи — это связь между возрастом и ростом детей. Всем нам хорошо известно, что связь между возрастом и ростом детей такова: чем больше возраст, тем больше (выше) рост. У маленького по возрасту ребенка — маленький рост, у ребенка побольше — рост повыше, а у большого ребенка — совсем большой рост, практически как у взрослого.

    Для наглядности находим на просторах интернета соответствующую таблицу, отражающую связь между возрастом и ростом детей:

    Возраст детей (лет)Средний рост детей (см)Возраст детей (лет)Средний рост детей (см)
    0508125
    1749129
    28610135
    39311140
    410012145
    510613150
    611414157
    711915160

    Поскольку таблица нужна только для примера, не будем зацикливаться на вопросе о том, насколько она достоверна. Удовлетворимся тем фактом, что данные в таблице похожи на настоящие.

    Для еще большей наглядности построим график: шкала Х отражает возраст ребенка в годах, шкала Y — рост ребенка в сантиметрах.

    И в таблице, и на графике хорошо видно, что по мере увеличения одного показателя (возраст детей) увеличиваются и значения второго показателя (рост детей). Об этом же нам говорит и собственный опыт: все мы знаем, что дети с возрастом становятся выше. Чем больше возраст ребенка, тем выше его рост. Это и есть прямая связь между двумя переменными (в данном случае — возрастом и ростом).

    Какие еще простые примеры прямой связи можно привести из жизни? Чем больше книг читает человек, тем более начитанным он становится. Чем более высокооплачиваемой является работа, тем больше желающих на нее устроиться. Чем активнее мы используем свои холодильники, тем шире наши лица. Чем дальше в лес, тем больше дров. Ну и так далее. Увеличивается одно — увеличивается другое.

    Бывает и наоборот: увеличивается одно — уменьшается другое. Чем чаще ребенка ругают, тем ниже его самооценка. Чем в большей мере наше внимание сконцентрировано на чем-то одном, тем меньше мы замечаем другое. «Чем меньше женщину мы любим, тем легче нравимся мы ей». Тише едешь — дальше будешь. Это обратная связь между двумя переменными.

    Прямая связь и обратная связь — это две разновидности линейной связи между переменными. Именно такие связи выявляет корреляционный анализ.

    На практике далеко не всегда ответ настолько очевиден, как в случае связи между возрастом и ростом детей. Очень часто встречаются случаи, когда невозможно навскидку с уверенностью сказать, существует линейная связь между двумя переменными или нет. Поэтому ученые математики придумали способ достоверно определять ее наличие или отсутствие — корреляционный анализ. А мы этим способом пользуемся в своих исследованиях.

    Нам не нужно помнить формулы наизусть и уметь их выводить — это задача математиков. Наша задача — правильное применение корреляционного анализа в своих исследованиях, правильный расчет коэффициентов корреляции в компьютерных программах и верная интерпретация результатов корреляционного анализа.

    psy-diplom.ru

    Понятие о корреляции и корреляционном анализе в психологии

    Московский государственный социальный университет

    Филиал в г. Минске

     

     

     

     

     

     

     

     

     

     

     

     

    ПОНЯТИЕ О КОРРЕЛЯЦИИ И КОРРЕЛЯЦИОННОМ АНАЛИЗЕ В ПСИХОЛОГИИ. ВИДЫ КОРРЕЛЯЦИЙ.

     

     

     

    Контрольная работа №3 по предмету

    «Основы психологического экспериментирования»

    студентки 5 курса з/о

     

     

     

     

     

     

     

    Минск 2005

    СОДЕРЖАНИЕ

     

    Введение

    1. Понятие корреляции

    2. Виды корреляций

    3. Корреляционный анализ

    3.1 Коэффициент корреляции рангов Спирмена

    3.2 Коэффициент корреляции Пирсона

    3.3 Случай одинаковых (равных) рангов

    3.4 Расчет уровней значимости коэффициентов корреляции

    3.5 Коэффициент корреляции «φ»

    3.6 Коэффициент корреляции «τ» Кендалла

    3.7 Бисериальный коэффициент корреляции

    3.8 Рангово-бисериальный коэффициент корреляции

    3.9 Корреляционное отношение Пирсона η

    3.10 Множественная корреляция

    3.11 Частная корреляция

    Заключение

    Список использованной литературы

     

    ВВЕДЕНИЕ

     

    Усиление интереса в психологической науке к потенциалу корреляционного анализа обусловлено целым рядом причин. Во-первых, становится допустимым изучение широкого круга переменных, экспериментальная проверка которых затруднена или невозможна. Ведь по этическим соображениям, к примеру, нельзя провести экспериментальные исследования самоубийств, наркомании, деструктивных родительских воздействий, влияния авторитарных сект. Во-вторых, возможно получение за короткое время ценных обобщений данных о больших количествах исследуемых лиц. В-третьих, известно, что многие феномены изменяют свою специфику во время строгих лабораторных экспериментов. А корреляционный анализ предоставляет исследователю возможность оперировать информацией, полученной в условиях, максимально приближенных к реальным. В-четвертых, осуществление статистического изучения динамики той или иной зависимости нередко создает предпосылки к достоверному прогнозированию психологических процессов и явлений.

    Однако следует иметь в виду, что применение корреляционного метода связано и с весьма существенными принципиальными ограничениями.

    Так, известно, что переменные вполне могут коррелировать и при отсутствии причинно-следственной связи между собой.

    Это иногда возможно в силу действия случайных причин, при неоднородности выборки, из-за неадекватности исследовательского инструментария поставленным задачам. Такая ложная корреляция способна стать, скажем, «доказательством» того, что женщины дисциплинированнее мужчин, подростки из неполных семей более склонны к правонарушениям, экстраверты агрессивнее интровертов и т. п.

    Необходимо запомнить: наличие корреляций не является показателем выраженности и направленности причинно-следственных отношений.

    Другими словами, установив корреляцию переменных мы можем судить не о детерминантах и производных, а лишь о том, насколько тесно взаимосвязаны изменения переменных и каким образом одна из них реагирует на динамику другой (2).

     

    1. ПОНЯТИЕ КОРРЕЛЯЦИИ.

     

    Термин «корреляция» впервые применил французский палеонтолог Ж. Кювье, который вывел «закон корреляции частей и органов животных» (этот закон позволяет восстанавливать по найденным частям тела облик всего животного). В статистику указанный термин ввел в 1886 году английский биолог и статистик Френсис Гальтон (не просто связь relation, а «как бы связь» co-relation). Однако точную формулу для подсчёта коэффициента корреляции разработал его ученик математик и биолог — Карл Пирсон (1857 1936).(7).

    Корреляционным называется исследование, проводимое для подтверждения или опровержения гипотезы о статистической связи между несколькими (двумя и более) переменными. В психологии переменными могут выступать психические свойства, процессы, состояния и др.

    «Корреляция» в прямом переводе означает «соотношение». Если изменение одной переменной сопровождается изменением другой, то можно говорить о корреляции этих переменных. Наличие корреляции двух переменных ничего не говорит о причинно-следственных зависимостях между ними, но дает возможность выдвинуть такую гипотезу. Отсутствие же корреляции позволяет отвергнуть гипотезу о причинно-следственной связи переменных. Различают несколько интерпретаций наличия корреляционной связи между двумя измерениями:

    1. Прямая корреляционная связь. Уровень одной переменной непосредственно соответствует уровню другой. Примером является закон Хика: скорость переработки информации пропорциональна логарифму от числа альтернатив. Другой пример: корреляция высокой личностной пластичности и склонности к смене социальных установок.

    2. Корреляция, обусловленная третьей переменной. Две переменные (а, с) связаны одна с другой через третью (в), не измеренную в ходе исследования. По правилу транзитивности, если есть R (а, Ь) и R (Ь, с), то R (а, с). Примером подобной корреляции является установленный психологами США факт связи уровня интеллекта с уровнем доходов. Если бы такое исследование проводилось в сегодняшней России, то результаты были бы иными. Очевидно, все дело в структуре общества. Скорость опознания изображения при быстром предъявлении и словарный запас испытуемых также положительно коррелируют. Скрытой переменной, обусловливающей эту корреляцию, является общий интеллект.

    3. Случайная корреляция, не обусловленная никакой переменной.

    4. Корреляция, обусловленная неоднородностью выборки. Представим себе, что выборка, которую мы будем обследовать, состоит из двух однородных групп. Например, мы хотим выяснить, связана ли принадлежность к полу с уровнем экстраверсии. Считаем, что «измерение» пола трудностей не вызывает, экстраверсию же измеряем с помощью опросником Айзенка ETI-1. У нас две группы: мужчины-математики и женщины-журналистки. Не удивительно, если мы получим линейную зависимость между полом и уровнем экстраверсии интроверсии: большинство мужчин будут интровертами, большинство женщин экстравертами (3, 4).

     

    2. ВИДЫ КОРРЕЛЯЦИЙ

     

    Виды корреляционной связи между измеренными переменными могут быть различны: так корреляция бывает линейной и нелинейной, положительной и отрицательной. Она линейна, если с увеличением или уменьшением одной переменной, вторая переменная также растёт, либо убывает. Она нелинейна, если при увеличении одной величины характер изменения второй не линеен, а описывается другими законами (полиномиальная, гиперболическая). (5).

    Если повышение уровня одной переменной сопровождается повышением уровня другой, то речь идет о положительной корреляции. Чем выше личностная тревожность, тем больше риск заболеть язвой желудка. Возрастание громкости звука сопровождается ощущением повышения его тона.

    Если рост уровня одной переменной сопровождается снижением уровня другой, то мы имеем дело с отрицательной корреляцией. По данным Зайонца, число детей в семье отрицательно коррелирует с уровнем их интеллекта. Чем боязливей особь, тем меньше у нее шансов занять доминирующее положение в группе.

    Нулевой называется корреляция при отсутствии связи переменных. (2).

    В психологии практически нет примеров строго линейных связей (положительных или отрицательных). Большинство связей нелинейные. Классический пример нелинейной зависимости закон ЙерксаДодсона:. возрастание мотивации первоначально повышает эффективность научения, а затем наступает снижение продуктивности (эффект «перемотивации»). Другим примером является связь между уровнем мотивации достижений и выбором задач различной трудности. Лица, мотивированные надеждой на успех, предпочитают задания среднего диапазона трудности частота выборов на шкале трудности описывается колоколообразной кривой.

     

    Примеры распределений испытуемых в пространстве двух признаков.

    а) строгая положительная корреляция, б) сильная положительная корреляция, в) слабая положительная корреляция, г) нулевая корреляция, д) отрицательная корреляция, е) строгая отрицательная корреляция, ж) нелинейная корреляция, з) нелинейная корреляция.

     

    3. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ

     

    Корреляционный анализ (от лат. «соотношение», «связь») применяется для проверки гипотезы о статистической зависимости значений двух или нескольких переменных в том случае, если исследователь может их регистрировать (измерять), но не контролировать (изменять).(2). Задача корреляционного анализа сводится к установлению направления (положительное или отрицательное) и формы (линейная, нелинейная) связи между варьирующими признаками, измерению ее тесноты, и, наконец, к проверке уровня значимости полученных коэффициентов корреляции.

    Графики корреляционных зависимостей строят по уравнениям следующих функций:

     

    Yx= F(X) или Xy = F(Y),(формула 1)

     

    которые называются уравнениями регрессии. Здесь Yx и Xy так называемые условные средние арифметические переменных Y и X.

    Переменные X и Y могут быть измерены в разных шкалах, именно это определяет выбор соответствующего коэффициента корреляции. Представим соотношения между типами шкал, в которых могут быть измерены переменные X и Y и соответствующими мерами связи в виде таблицы:

     

    Тип шкалыМера связиПеременная XПеременная YИнтервальная или отношенийИнтервальная или отношенийКоэффициент Пирсона rxyРанговая, интервальная или отношенийРанговая, инт

    www.studsell.com

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *