Регрессионный анализ
В ходе регрессионного анализа решаются две основные задачи:
-построение уравнений регрессии, т.е. нахождение вида зависимости между результатным показателем и независимыми факторами х1 ,х2,...,хn.
-оценка значимости полученного уравнения, т.е. определение того, насколько выбранные факторные признаки объясняют вариацию признака у.
Концепция регрессионного анализа
Зависимая переменная (Y) — это переменная, описывающая процесс, который мы пытаемся предсказать или понять.
Независимые переменные (X)- это переменные, используемые для моделирования или прогнозирования значений зависимых переменных. В уравнении регрессии они располагаются справа от знака равенства и часто называются объяснительными переменными. Зависимая переменная - это функция независимых переменных.
Коэффициенты регрессии (β) — это коэффициенты, которые рассчитываются в результате выполнения регрессионного анализа. Вычисляются величины для каждой независимой переменной, которые представляют силу и тип взаимосвязи независимой
переменной по отношению к зависимой.
Невязки. Существует необъяснимое количество зависимых величин, представленных в уравнении регрессии как случайные ошибки ε.
Понятие
Регрессио́нный анализ — статистический метод исследования влияния одной или нескольких независимых переменных X1,X2,...,Xp на зависимую переменную Y. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными.
Достоинства регрессионного анализа
1. Простота вычислительных алгоритмов.
2. Наглядность и интерпретируемость
результатов (для линейной модели)
Недостатки оегрессионного анализа
1. Невысокая точность прогноза
(в основном - интерполяция данных).
2. Субъективный характер выбора вида конкретной
зависимости (формальная подгонка модели под
эмпирический материал).
3. Отсутствие объяснительной функции (невозможность объяснения причинно-следственной связи).
Основная цель регрессионного анализа
Определение аналитической формы связи,которой изменение результативного признака обусловлено влиянием одного или нескольких факторных признаков,также оказывающих влияние на результативный признак,принимается за постоянные и средние значения.
Виды регрессионного анализа
линейная-регрессия,применяемая в статистике в виде четкой экономической интерпретации ее параметров: y= a+b*x+E
нелинейная-регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам или регрессия, нелинейная по оцениваемым параметрам
Авторегрессия
Авторегрессионная модель описывает связь между переменной Y от самого себя,вернее от того каков был Y в прошлом периоде (день, месяц, год и т.п.)
Общий вид модели авторегрессии: Yi = a0 + Ʃai*Yi-1+Ɛi
где a0 — постоянная - коэффициент показывает каким будет итог модели в
случае, когда все влияющие факторы равны нулю;
ai — коэффициенты, которые описывают степень зависимости итогового Y от
влияющих факторов, в данном случае, от того каким был Y в прошлом периоде
регрессии;
Yi-1 — влияющие факторы, которые в данном случае и есть итоговый Y, но тот,
каким он был раньше.
Ɛi — случайная компонента или как еще ее принято называть погрешность
модели (по сути, это разница между расчетным значением модели за известныепериоды и между самими известными значениями, то есть Yрасч. - Y).
Достоинства и недостатки авторегрессионного анализа
ПЛЮСЫ:
Получение высококачественной модели с адекватным
прогнозом при минимуме временных затрат и требований к
исходным данным.
МИНУСЫ:
1. Прогноз по исходным данным возможен только на один
период вперед. Если нужно сделать прогноз на более длительный срок, то в качестве влияющих факторов для расчета придется брать не реально существующий Y, а тот который рассчитан по модели, что в итоге даст прогноз на прогнозе, а значит адекватность такого прогноза, как минимум, в два раза меньше.
2. С увеличением разрядности авторегрессии возникает необходимость расширять диапазон исходных данные
1 МНК
МНК (Метод Наименьших Квадратов) - математический метод , применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных.
Суть МНК
Задача заключается в нахождении коэффициента линейной зависимости, при которых функция двух переменных a и b формула приминает меньшее значение . То есть, при данных a и b сумма квадратов отклонений экспериментальных данных от найденной прямой будет наименьшей. В этом вся суть метода наименьших квадратов. Таким образом, решение примера сводится к нахождению экстремума функций двух переменных.
Классификация МНК
1). Метод наименьших квадратов
2). Метод максимального правдоподобия (для нормальной классической линейной модели регрессии постулируется нормальность регрессионных остатков)
3). Обобщенный метод наименьших квадратов ОМНК применяется в случае автокорреляции ошибок и в случае гетероскедастичности
4). Метод взвешенных наименований квадратов(частный случай ОМНК гетероскедастичными остатками)
с 2).