ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 09.12.2020
Просмотров: 465
Скачиваний: 2
Н е л и н е й н а я р е г р е с с и я
С позиции использования МНК различают следующие виды зависимостей:
1) функции, нелинейные по факторам, например:
y
=
b
0
+
b
1
x
2
или
y
=
b
0
+
b
1
ln
x
;
2) функции, нелинейные по параметрам, например:
x
a
a
e
y
1
0
+
=
или
α
α
−
=
1
L
aK
y
3)
функции, не приводимые к линейному виду.
y
=
a
b
+
c
⋅
x
П р о б л е м ы п р а к т и ч е с к о г о п р и м е н е н и я
р е г р е с с и о н н о г о а н а л и з а
1.
Мультиколлинеарность
высокая взаимная коррелированность объясняющих
переменных.
2.
Гетероскедастичность
-
непостоянство дисперсий отклонений.
3.
Автокорреляция
-
э
то корреляционная зависимость между последовательными
(соседними) значениями уровней временного ряда
y
1
и y
2
, y
2
и y
3
, y
3
и y
4
и т. д.
М у л ь т и к о л л и н е а р н о с т ь
Последствия мультиколлинеарности :
1. Резко падает
точность оценок
параметров, получаемых с помощью МНК. Ошибки
некоторых параметров уравнения могут стать очень большими.
2. Выборочные характеристики регрессионной модели становятся
крайне неустойчивыми
.
При добавлении (исключении ) некоторого количества наблюдений или факторов к
массиву исходной информации может произойти резкое изменение оценок параметров.
3. Изза неустойчивости модели резко сокращаются
возможности содержательной
интерпретации модели
, а также прогноза значений зависимой переменной
y
в точках,
существенно удалённых от значений объясняющих переменных в выборке в виду
ненадёжности получаемых результатов.
О б н а р у ж е н и е м у л ь т и к о л л и н е а р н о с т и
Одним из методов обнаружения мультиколлинеарности является анализ корреляционной
матрицы
между объясняющими переменными
X
1
, X
2
, ..., X
p
и выявление пары переменных,
имеющие высокий коэффициент корреляции(обычно больше 0,7). Если такие переменные
существуют, то говорят о мультиколлинеарности между ними.
Пример.
Y
←
X
1
, X
2
, X
3
, X
4
, X
5
X
1
X
2
X
3
X
4
X
5
Y
X
1
1,00
0,85
0,98
0,11
0,34
0,42
X
2
1,00
0,88
0,03
0,46
0,34
X
3
1,00
0,03
0,28
0,40
X
4
1,00
0,57
0,56
X
5
1,00
0,29
X
1
⇔
X
2
,
X
1
⇔
X
3
,
X
2
⇔
X
3
М е т о д ы у с т р а н е н и я м у л ь т и к о л л и н е а р н о с т и
1. Переход от исходных объясняющих переменных
X
1
, X
2
, ..., X
k
, связанных между собой
достаточно
тесной
корреляционной
зависимостью,
к
новым
переменным
,
представляющим линейную комбинацию исходных.
2. Отбор наиболее существенных объясняющих переменных. Производится, чаще всего в
пошаговом режиме. На первом шаге рассматривается лишь объясняющая переменная,
имеющая с зависимой переменной
Y
наибольший коэффициент детерминации. На
следующем шаге включается в регрессию новая объясняющая переменная, которая
вместе с первоначальной переменной дает наибольший (скорректированный)
коэффициент детерминации. Процедура введения новых переменных продолжается до
тех пор, пока будет увеличиваться соответствующий (скорректированный) коэффициент
детерминации.