Основы регрессионного моделирования для психологов
Шрифт:
Определим меру влияния чувства одиночества на агрессивность (
Когда составили таблицу, проведем расчеты
Вначале рассчитаем SSобщую:
Рассчитаем SSвнутри:
Подставим
Вывод: 68 % общей дисперсии агрессивности определяет чувство одиночества и 32% – те факторы, о которых мы не знаем (случайные переменные).
Общий вывод: если сравнивать
Второй вариант решения вышеназванной задачи возможен посредством использования дисперсионного анализа (ANOVA, MANOVA), который позволяет определить статистическую достоверность влияния одной (нескольких) переменной на другую (другие) переменную 6 . Но следует всегда помнить, что для проведения дисперсионного анализа необходимо выполнение целого ряда требований, без наличия которых мы получим не совсем валидные выводы. В частности, к этим требованиям относятся следующие: количество разрядов фактора (независимой переменной) должно быть не менее трех, распределение результативного признака по каждой градации фактора не должно отличаться от нормального, должно соблюдаться условие равенства дисперсий результативного признака (зависимой переменной) по каждому разряду фактора. Когда эти требования невыполнимы и зависимая переменная неочевидна, так как переменные находятся в сложных связях, решить задачу о влиянии переменных друг на друга с использованием дисперсионного анализа (ANOVA, MANOVA) невозможно.
6
Наследов А. Д. Математические методы в психологическом исследовании. Анализ и интерпретация данных: учеб. пособие. СПб.: Речь, 2004.
Третий вариант решения вышеназванной задачи, который мы представляем в данном пособии, – метод Чамберса (метод «корреспондирующей регрессии») 7 . Чамберс наблюдал, что каузальность может выводиться из соответствия дисперсий в зависимых переменных. Используя имитацию, он продемонстрировал, что высокие значения зависимой переменной вытекают из высоких значений независимых переменных, низкие значения – из низких значений, однако умеренные значения зависимой переменной могут вытекать из различных уровней независимых переменных, поскольку высокие и низкие значения независимых переменных нейтрализуют друг друга. Он также показал, что ограничение независимых переменных умеренными значениями в целом приводило к умеренным значениям зависимой переменной. Основываясь на этих наблюдениях, он показал, что дисперсия зависимых переменных, корреспондирующая со случаями с умеренными оценками независимых переменных, ниже,
7
Множественная регрессия в SPSS. URL: http://moodle.herzen.spb.ru.
Впоследствии Чамберс предложил способ определения каузальности на основе корреспондирующих регрессий (corresponding regressions). Возьмем двумерную регрессию y на х, где существует неопределенность в отношении того, не может ли подобная каузальная направленность оказаться противоположной. В корреспондирующих регрессиях y регрессируется на х, и абсолютные отклонения (прогнозируемые минус действительные значения y – остатки (см. параграфы 4.1–4.3)) рассматриваются как измерение крайности ошибок предсказания. Затем берутся отклонения значений х от среднего значения х для получения измерения крайности значений предиктора. Эти два столбца отклонений коррелируются, давая корреляцию отклонения для y, именуемую rde(y). Такая корреляция отклонения будет негативной, поскольку, когда значения предиктора оказываются крайними, ошибки должны быть меньше, так как высокие значения предиктора приводят к высоким значениям зависимой переменной, а низкие значения – к низким значениям. Далее та же процедура повторяется в отношении регрессии x на y, давая rde(x).
Когда истинно независимая переменная служит предиктором, должна наблюдаться более высокая корреляция, чем когда истинно зависимая переменная служит предиктором.
То есть значение rde выше, когда истинно независимая переменная служит предиктором. Это происходит по причине того, что умеренные оценки предиктора (измеряемые низкой крайностью значений предиктора) должны ассоциироваться с умеренными оценками зависимой переменной (измеряемыми крайностью ошибок) лишь в том случае, когда истинная независимая переменная используется как предиктор истинной зависимой переменной:
Когда истинно независимая переменная является х, а истинно зависимая y, D будет негативным. То есть только если х является истинно независимой переменной, а y истинно зависимой, rde(y) будет более негативным, чем rde(x).
Проиллюстрируем этот способ на исходных данных, которые приведены в примере 1.1.
Только заметим, что часть необходимой информации для решения данного примера на этой стадии освоения регрессионного моделирования для читателя будет не совсем понятна, так как определение остатков в регрессионной модели приведено в нашем пособии ниже (согласно логике изложения материала), и поэтому мы рекомендуем вернуться к данному примеру после того, как читатель ознакомится со всем содержанием учебного пособия.
Пример 1.2. В студенческой группе было проведено исследование уровня агрессивности (тест-опросник Басса–Дарки) и уровня субъективного ощущения студентами своего одиночества (тест-опросник Д. Рассела, Л. Пепло, М. Фергюсона), в результате которого были получены данные, отраженные в табл. 1.2 (x – агрессивность, y – чувство одиночества).
Таблица 1.2
Данные исследования
Решение
1. Будем считать агрессивность независимой переменной, а чувство одиночества – зависимой. Исходные данные представлены в таблице:
2. Будем считать, что лучше всего аппроксимирует эмпирические данные линейная регрессионная модель. Определим параметры модели (используем SPSS).