- •Санкт-Петербургский Государственный Институт Психологии и Социальной Работы
- •Математические методы в психологии Учебно-методическое пособие
- •Аннотация
- •Глава 1. Описательная статистика 18
- •Глава 2. Индуктивная статистика 84
- •Оглавление
- •Глава 1. Описательная статистика 12
- •Глава 2. Индуктивная статистика 78
- •Введение Цели и задачи изучения дисциплины «Математические методы в психологии» и сфера профессионального использования
- •Методические указания для студентов
- •Контрольные вопросы для самостоятельной подготовки и самопроверки
- •Глава 1. Описательная статистика
- •1. 1. Математическая статистика и психология. Измерения в психологии и виды шкал
- •Материалы лекции.
- •Типы измерений и измерительные шкалы
- •Генеральная совокупность и выборочное исследование. Статистическая достоверность
- •Этапы обработки результатов психологического исследования
- •1. 2. Описание результатов исследования
- •Материалы лекции.
- •Результаты исследования экстраверсии
- •Алгоритм построения сгруппированного (или табулированного) ряда
- •Общий обзор параметров распределений
- •1. 3. Параметры статистических совокупностей
- •Материалы лекции.
- •Результаты исследования экстраверсии
- •Исключение выскакивающих значений
- •Нормальный закон распределения и другие виды распределений
- •Проверка «нормальности» эмпирического распределения
- •Стандартизация данных и стандартизованные шкалы в психологии
- •Процентильные нормы для детей 5;5 – 11 лет
- •1. 4. Характеристики взаимосвязи признаков
- •Материалы лекции. Понятие статистической зависимости
- •Общий обзор мер связи
- •Коэффициент контингенции
- •Критерий «хи-квадрат» Пирсона
- •Ранжирование
- •Правила ранжирования
- •Бисериальные коэффициенты корреляции
- •Коэффициент взаимной сопряженности Чупрова
- •Коэффициент взаимной сопряженности Пирсона
- •Ранговой коэффициент корреляции Спирмена
- •Коэффициент линейной корреляции Пирсона
- •Глава 2. Индуктивная статистика
- •2. 1. Решение задачи сравнения выборок. Понятие статистических критериев и их виды
- •Материалы лекции. Статистические гипотезы
- •Уровень статистической значимости
- •Этапы принятия статистического решения
- •Классификация исследовательских задач, решаемых с помощью статистических методов
- •Решение задачи сравнения выборок
- •4. Каковы ограничения в применении критерия?
- •Обзор наиболее часто применяемых параметрических критериев
- •Общий обзор непараметрических критериев
- •2. 2. Выявление различий в уровне исследуемого признака
- •Материалы лекции. Параметрический критерий Стьюдента для сравнения независимых выборок
- •Поправка Снедекора
- •Правило принятия решения описано выше. Непараметрический критерий Розенбаума (критерий «хвостов»)
- •Непараметрический критерий Манна-Уитни
- •2. 3. Оценка достоверности сдвига в значениях исследуемого признака
- •Материалы лекции.
- •Параметрический критерий Стьюдента для сравнения зависимых выборок
- •Непараметрический критерий знаков
- •6. Правило принятия решения:
- •Непараметрический критерий Вилкоксона
- •2. 4. Выявление различий в распределении признака
- •Материалы лекции. Критерий «хи-квадрат» Пирсона
- •Критерий Колмогорова-Смирнова
- •2. 5. Многофункциональные статистические критерии
- •Материалы лекции.
- •Критерий φ* — «Угловое преобразование» Фишера
- •Алгоритм расчета критерия φ*
- •Критерий Макнамары
- •Алгоритм расчет критерия
- •2. 6. Дисперсионный анализ
- •Материалы лекции. Введение в дисперсионный анализ anova
- •Однофакторный дисперсионный анализ
- •2. 7. Многомерные методы обработки данных
- •Материалы лекции.
- •I. Классификация методов по назначению:
- •II. Классификация методов по исходным предположениям о структуре данных:
- •III. Классификация методов по виду исходных данных:
- •Множественный регрессионный анализ
- •Матрица корреляций пяти показателей интеллекта
- •Факторные нагрузки после варимакс-вращения
- •1. Эксплораторный-разведочный.
- •2. Конфирматорный.
- •1. Выбор исходных данных.
- •2. Предварительное решение проблемы числа факторов.
- •3. Факторизация матрицы интеркорреляций.
- •4. Вращение и предварительная интерпретация факторов (ротация факторов).
- •5. Принятие решения о качестве факторной структуры.
- •6. Вычисление факторных коэффициентов и оценок.
- •Компьютерные пакеты прикладных статистических программ
- •Список литературы
- •Приложение 1. Статистические таблицы с критическими значениями
- •1.1. Критические значения отношения для исключения выскакивающих значений
- •1.2. Критические значения коэффициента ранговой корреляции Спирмена
- •1.3. Критические значения коэффициента линейной корреляции Пирсона
- •1.4. Критические значения критерия хи-квадрат Пирсона
- •1.5. Критические значения критерия Стьюдента
- •1.6. Критические значения критерия Фишера
- •1.7. Критические значения непараметрического критерия Манна-Уитни
- •1.8. Критические значения непараметрического критерия Вилкоксона
- •1.9. Таблицы для перевода процентных долей в величины центрального угла для расчета критерия «угловое преобразование» Фишера
- •Приложение 2. Глоссарий
- •Приложение 3. Англо-русский словарь статистических терминов
Общий обзор мер связи
Измерительные шкалы |
Шкала наименований |
Шкала порядка |
Интервальная, пропорциональная шкалы | ||
k = 2 |
k > 2 | ||||
Шкала наименований |
k = 2 |
Коэффициент контингенции |
|
|
|
k > 2 |
Критерий 2 |
Коэффициент взаимной сопряженности Чупрова К Коэффициент взаимной сопряженности Пирсона С
|
|
| |
Шкала порядка |
Рангово-бисериальный коэффициент корреляции rRbis |
Ранговые коэффициенты корреляции: Спирмена Кендэлла |
| ||
Интервальная, пропорциональная шкалы |
Бисериальный коэффициент корреляции rbis |
Коэффициент линейной корреляции Пирсона r
Корреляционное отношение |
Коэффициент контингенции
Если оба признака измерены по шкале наименований и каждый из них может иметь только два значения, то мерой связи является коэффициент контингенции «фи» — φ. В некоторых книгах по статистике этот коэффициент называется четырехклеточный коэффициент сопряженности или четырехпольный коэффициент,или тетрахорический показатель связи.
Удобнее всего этот коэффициент рассчитывать по 4-хпольной таблице сопряженности признаков (таблица 14) — таблице, показывающей частоту совместного появления у испытуемых пар значений по 2-м признакам.
Таблица 14
Значения признаков |
X1 = 0 |
X2 = 1 |
Σ |
Y1 = 0 |
f00 = a |
f10 = b |
a + b |
Y2 = 1 |
f01 = c |
f11 = d |
c + d |
Σ |
a + c |
b + d |
N = a + b + c + d |
Расчетное значение коэффициента контингенции вычисляется по следующей формуле:
Поскольку таблиц с критическими значениями для данного коэффициента не существует, то значимость этой меры связи оценивают при помощи критерия χ2.
Правило принятия решения:
Расчетное значение критерия необходимо сравнить с критическим (или табличным) значением. Критическое значение находится в зависимости от числа степеней свободы (приложение с таблицами критических значений). Однако, для 4-хпольной таблицы число степеней свободы всегда равно 1 (ν = 1), поэтому можно привести эти значения, которыми всегдаследует пользоваться для 4-хклеточных таблиц:χ2табл. = 3,84 для р = 0,95 и = 6,64 для р = 0,99.
Если χ2расч≥ χ2табл, то связь между признаками статистически значима, т. е. признаки изменяются согласованно. О направлении зависимости свидетельствует знак коэффициента взаимной сопряженности φ.
Если χ2расч< χ2табл, то связи между признаками нет.
Критерий «хи-квадрат» Пирсона
Назначения критерия
Критерий χ2 применяется в двух целях;
1)для сопоставленияэмпирическогораспределения признака стеоретическим (равномерным, нормальным или каким-то иным);
2)для сопоставлениядвух, трех или более эмпирическихраспределений одного и того же признака, то есть для проверки их однородности;
3) для оценки стохастической (вероятностной) независимости в системе случайных событий;
и т.д.
Описание критерия
Критерий χ2отвечает на вопрос о том, с одинаковой ли частотой встречаются разные значения признака в эмпирическом и теоретическом распределениях или в двух и более эмпирических распределениях.
Преимущество метода состоит в том, что он позволяет сопоставлять распределения признаков, представленных в любой шкале, начиная от шкалы наименований.В самом простом случае альтернативного распределения ("да -нет", "допустил брак -не допустил брака", "решил задачу -не решил задачу" и т. п.) мы уже можем применить критерий χ2.
Ограничения критерия
1.Объем выборки должен быть достаточно большим:N>30. ПриN<30 критерий χ2дает весьма приближенные значения. Точность критерия повышается при большихN.
2.Теоретическая частота для каждой ячейки таблицы не должна быть меньше 5:f≥ 5.Это означает, что если число разрядов задано заранее и не может быть изменено, то мы не можем применять метод χ2,не накопив определенного минимального числа наблюдений. Если, например, мы хотим проверить наши предположения о том, что частота обращений в телефонную службу Доверия неравномерно распределяются по 7дням недели, то нам потребуется 5-7=35обращений. Таким образом, если количество разрядов(k)задано заранее, как в данном случае, минимальное число наблюдений (Nmin) определяется по формуле: .
3.Выбранные разряды должны "вычерпывать" все распределение, то есть охватывать весь диапазон вариативности признаков. При этом группировка на разряды должна быть одинаковой во всех сопоставляемых распределениях.
4.Необходимо вносить "поправку на непрерывность" при сопоставлении распределений признаков, которые принимают всего 2значения. При внесении поправки значение χ2,уменьшается (см. пример с поправкой на непрерывность).
5.Разряды должны быть неперекрещивающимися: если наблюдение отнесено к одному разряду, то оно уже не может быть отнесено ни к какому другому разряду. Сумма наблюдений по разрядам всегда должна быть равна общему количеству наблюдений.
Алгоритм расчета критерия χ2
Составить таблицу взаимной сопряженности значений признаков следующего вида (по сути это двумерный вариационный ряд, в котором указываются частоты появления совместных значений признака) — таблица 14. В таблице располагаются условные частоты, которые мы обозначим в общем виде как fij. Например, число градаций признакахравно 3 (k=3), число градаций признакауравно 4 (m=4); тогдаiменяется от 1 доk, аj меняется от 1 доm.
Таблица 15
хi уj |
х1 |
х2 |
х3 |
∑ |
у1 |
f11 |
f21 |
f31 |
f –1 |
у2 |
f12 |
f22 |
f32 |
f –2 |
у3 |
f13 |
f23 |
f33 |
f –3 |
у4 |
f14 |
f24 |
f34 |
f –4 |
∑ |
f1– |
f2– |
f3– |
N |
Далее для удобства расчетов преобразуем исходную таблицу взаимной сопряженности в таблицу следующего вида (таблица 16), располагая столбики с условными частотами один под другим: Занести в таблицу наименования разрядов (столбцы 1 и 2) и соответствующие им эмпирические частоты (3-й столбец).
Таблица 16
хi |
уj |
fij |
fij* |
fij–fij* |
(fij–fij*)2 |
(fij–fij*)2/ fij* |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
х1 |
у1 |
f11 |
f11* |
|
|
|
|
у2 |
f12 |
f12* |
|
|
|
|
у3 |
f13 |
f13* |
|
|
|
|
у4 |
f14 |
f14* |
|
|
|
х2 |
у1 |
f21 |
f21* |
|
|
|
|
у2 |
f22 |
f22* |
|
|
|
|
у3 |
f23 |
f23* |
|
|
|
|
у4 |
f24 |
f24* |
|
|
|
х3 |
у1 |
f31 |
f31* |
|
|
|
|
у2 |
f32 |
f32* |
|
|
|
|
у3 |
f33 |
f33* |
|
|
|
|
у4 |
f34 |
f34* |
|
|
|
|
|
|
|
|
|
∑=…………. |
3.Рядом с каждой эмпирической частотой записать теоретическую частоту (4-й столбец), которая вычисляется по следующей формуле (итоговая частоты по соответствующей строчке умножается на итоговую частоту по соответствующему столбику и делится на общее количество наблюдений):
4.Подсчитать разности между эмпирической и теоретической частотой по каждому разряду (строке) и записать их в 5-й столбец.
5. Определить число степеней свободы по формуле: ν=(k-1)(m-1) , гдеk -количество разрядов признаках,m— количество разрядов признакау.
Если ν=1, внести поправку на "непрерывность" и записать её в столбце 5а.
Поправка на непрерывность состоит в том, что от разности между условной и теоретической частотой отнимается еще 0,5. Тогда заголовки столбиков в нашей таблице будет выглядеть следующим образом:
Таблица 17
хi |
уj |
fij |
fij* |
fij–fij* |
fij – fij* – 0,5 |
(fij–fij*– 0,5)2 |
(fij–fij*– 0,5)2/ fij* |
1 |
2 |
3 |
4 |
5 |
5а |
6 |
7 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6.Возвести в квадрат полученные разности и занести их в 6-й столбец.
7.Разделить полученные квадраты разностей на теоретическую частоту и записать результаты в 7-й столбец.
8.Просуммировать значения 7-го столбца. Полученную сумму обозначить как χ2эмп.
9.Правило принятия решения:
Расчетное значение критерия необходимо сравнить с критическим (или табличным) значением. Критическое значение находится в зависимости от числа степеней свободы по таблице критических значений критерия χ2Пирсона.
Если χ2расч≥ χ2табл, то расхождения между распределениями статистически достоверны, или признаки изменяются согласованно, или связь между признаками статистически значима.
Если χ2расч< χ2табл, то расхождения между распределениями статистически недостоверны, или признаки изменяются несогласованно, или связи между признаками нет.
Прежде чем рассматривать меры связи дальше, необходимо освоить такую процедуру как ранжирование.