Kategorier: Alle - зависимость - коэффициенты - метод - анализ

af Chekhovskaya Lolitta 6 år siden

440

Регрессионный анализ

Регрессионный анализ представляет собой статистический метод, предназначенный для изучения влияния независимых переменных на зависимую переменную. Основная цель заключается в определении аналитической формы связи, через которую изменение результативного признака объясняется воздействием одного или нескольких факторных признаков.

Регрессионный анализ

Регрессионный анализ

1 МНК

МНК (Метод Наименьших Квадратов) - математический метод , применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных.
Классификация МНК

1). Метод наименьших квадратов 2). Метод максимального правдоподобия (для нормальной классической линейной модели регрессии постулируется нормальность регрессионных остатков) 3). Обобщенный метод наименьших квадратов ОМНК применяется в случае автокорреляции ошибок и в случае гетероскедастичности 4). Метод взвешенных наименований квадратов(частный случай ОМНК гетероскедастичными остатками) с 2).

Суть МНК

Задача заключается в нахождении коэффициента линейной зависимости, при которых функция двух переменных a и b формула приминает меньшее значение . То есть, при данных a и b сумма квадратов отклонений экспериментальных данных от найденной прямой будет наименьшей. В этом вся суть метода наименьших квадратов. Таким образом, решение примера сводится к нахождению экстремума функций двух переменных.

Авторегрессия

Достоинства и недостатки авторегрессионного анализа
ПЛЮСЫ: Получение высококачественной модели с адекватным прогнозом при минимуме временных затрат и требований к исходным данным. МИНУСЫ: 1. Прогноз по исходным данным возможен только на один период вперед. Если нужно сделать прогноз на более длительный срок, то в качестве влияющих факторов для расчета придется брать не реально существующий Y, а тот который рассчитан по модели, что в итоге даст прогноз на прогнозе, а значит адекватность такого прогноза, как минимум, в два раза меньше. 2. С увеличением разрядности авторегрессии возникает необходимость расширять диапазон исходных данные
Авторегрессионная модель описывает связь между переменной Y от самого себя,вернее от того каков был Y в прошлом периоде (день, месяц, год и т.п.) Общий вид модели авторегрессии: Yi = a0 + Ʃai*Yi-1+Ɛi где a0 — постоянная - коэффициент показывает каким будет итог модели в случае, когда все влияющие факторы равны нулю; ai — коэффициенты, которые описывают степень зависимости итогового Y от влияющих факторов, в данном случае, от того каким был Y в прошлом периоде регрессии; Yi-1 — влияющие факторы, которые в данном случае и есть итоговый Y, но тот, каким он был раньше. Ɛi — случайная компонента или как еще ее принято называть погрешность модели (по сути, это разница между расчетным значением модели за известныепериоды и между самими известными значениями, то есть Yрасч. - Y).

Виды регрессионного анализа

нелинейная-регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам или регрессия, нелинейная по оцениваемым параметрам
линейная-регрессия,применяемая в статистике в виде четкой экономической интерпретации ее параметров: y= a+b*x+E

Основная цель регрессионного анализа

Определение аналитической формы связи,которой изменение результативного признака обусловлено влиянием одного или нескольких факторных признаков,также оказывающих влияние на результативный признак,принимается за постоянные и средние значения.

Недостатки оегрессионного анализа

1. Невысокая точность прогноза (в основном - интерполяция данных). 2. Субъективный характер выбора вида конкретной зависимости (формальная подгонка модели под эмпирический материал). 3. Отсутствие объяснительной функции (невозможность объяснения причинно-следственной связи).

Достоинства регрессионного анализа

1. Простота вычислительных алгоритмов. 2. Наглядность и интерпретируемость результатов (для линейной модели)

Понятие

Регрессио́нный анализ — статистический метод исследования влияния одной или нескольких независимых переменных X1,X2,...,Xp на зависимую переменную Y. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными.

Концепция регрессионного анализа

Зависимая переменная (Y) — это переменная, описывающая процесс, который мы пытаемся предсказать или понять. Независимые переменные (X)- это переменные, используемые для моделирования или прогнозирования значений зависимых переменных. В уравнении регрессии они располагаются справа от знака равенства и часто называются объяснительными переменными. Зависимая переменная - это функция независимых переменных. Коэффициенты регрессии (β) — это коэффициенты, которые рассчитываются в результате выполнения регрессионного анализа. Вычисляются величины для каждой независимой переменной, которые представляют силу и тип взаимосвязи независимой переменной по отношению к зависимой. Невязки. Существует необъяснимое количество зависимых величин, представленных в уравнении регрессии как случайные ошибки ε.

В ходе регрессионного анализа решаются две основные задачи:

-оценка значимости полученного уравнения, т.е. определение того, насколько выбранные факторные признаки объясняют вариацию признака у.
-построение уравнений регрессии, т.е. нахождение вида зависимости между результатным показателем и независимыми факторами х1 ,х2,...,хn.