Корреляционный анализ
История
Термин «корреляция» был введен в науку в 1886 году английским ученым Френсисом Гальтоном.
Коэффициенты корреляции
Коэффициент линейной корреляции Пирсона
Уравнение регрессии
позволяет по значению одной переменной оценить значение другой переменной
Гипотезы
H0 - коэффициент корреляции в генеральной совокупности равен нулю (rГ = 0)
H1 - коэффициент корреляции в генеральной совокупности не равен нулю (rГ ≠ 0)
Характеризует
*наличие линейной связи
*точно устанавливает тесноту этой связи
Для чего?
используется в том случае, когда обе исследуемые величины являются количественными и распределены по нормальному закону.
Коэффициент ассоциации
Гипотезы
H0 - коэффициент корреляции в генеральной совокупности равен нулю (rГ = 0)
H1 - коэффициент корреляции в генеральной совокупности не равен нулю (rГ ≠ 0)
История
Коэффициент предложен К. Пирсоном в 1901 г.
Для чего?
Измеряет тесноту связи между исследуемыми признаками, если они являются качественными дихотомическими (число градаций равно 2)
Коэффициент ранговой корреляции Спирмена
Гипотезы
H0 - коэффициент корреляции в генеральной совокупности равен нулю (rГ = 0)
H1 - коэффициент корреляции в генеральной совокупности не равен нулю (rГ ≠ 0)
Для чего?
Данный коэффициент относится к непараметрическим показателям связи. Он применяется, если нужно установить связь
*между переменными, измеренными в ранговой шкале
*между количественными переменными, к которым неприменим коэффициент Пирсона (распределение не согласуется с нормальным законом).
Корреляционная связь
Линейная
если экспериментальные точки располагаются вдоль некоторой прямой;
Нелинейная
если экспериментальные точки располагаются вдоль какой-либо кривой
Отрицательная
если с увеличением одной переменной другая в среднем имеет тенденцию к уменьшению
Положительная
если с увеличением одной переменной другая в среднем имеет тенденцию к увеличению
Множественный регрессионный анализ
Цели
1. Определение того, в какой мере «зависимая» переменная связана с совокупностью «независимых» переменных, какова статистическая значимость этой взаимосвязи. Показатель - коэффициент множественной корреляции (КМК) и его статистическая значимость по критерию F-Фишера.
2. Определение существенности вклада каждой «независимой» переменной в оценку «зависимой» переменной, отсев несущественных для предсказания «независимых» переменных. Показатели - регрессионные коэффициенты bi, их статистическая значимость по критерию t-Стьюдента.
3. Анализ точности предсказания и вероятных ошибок оценки «зависимой» переменной. Показатель - квадрат КМК, интерпретируемый как доля дисперсии «зависимой» переменной, объясняемая совокупностью «независимых» переменных. Вероятные ошибки предсказания анализируются по расхождению (разности) действительных значений «зависимой» переменной и оцененных при помощи модели МРА.
4. Оценка (предсказание) неизвестных значений «зависимой» переменной по известным значениям «независимых» переменных. Осуществляется по вычисленным параметрам множественной регрессии.
Переменные
Независимые
Зависимае
коэффициент множественной детерминации
показывает ту часть дисперсии «зависимой» переменной, которая обусловлена влиянием «независимых» переменных.
Коэффициент множественной корреляции
мера линейной связи одной переменной с множеством других переменных; принимает положительные значения от 0 (отсутствие связи) до 1 (строгая прямая связь)
переменные должны быть измерены в количественной шкале.
Для чего?
для изучения взаимосвязи одной переменной и нескольких других переменных