Файл: Лекция для заочников.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.12.2020

Просмотров: 430

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
background image

Н е л и н е й н а я   р е г р е с с и я

С позиции использования МНК различают следующие виды зависимостей:

1) функции, нелинейные по факторам, например:

y

=

b

0

+

b

1

x

2

или 

y

=

b

0

+

b

1

ln

x

;

2) функции, нелинейные по параметрам, например:

x

a

a

e

y

1

0

+

=

 или 

α

α

=

1

L

aK

y

3)

 

функции, не приводимые к линейному виду.

y

=

a

b

+

c

x


background image

П р о б л е м ы   п р а к т и ч е с к о г о   п р и м е н е н и я  

р е г р е с с и о н н о г о   а н а л и з а

1.

Мультиколлинеарность

 

­ высокая взаимная коррелированность объясняющих 

переменных.

2.

Гетероскедастичность

 -  

непостоянство дисперсий отклонений.

3.

Автокорреляция 

э

то корреляционная зависимость между последовательными 

(соседними) значениями уровней временного ряда 

y

1

 и y

2

, y

2

 и y

3

, y

3

 и y

4

 

и т. д. 


background image

М у л ь т и к о л л и н е а р н о с т ь

Последствия мультиколлинеарности :

1. Резко   падает  

точность   оценок

  параметров,   получаемых   с   помощью   МНК.   Ошибки 

некоторых параметров уравнения могут стать очень большими.

2. Выборочные характеристики регрессионной модели становятся 

крайне неустойчивыми

При   добавлении   (исключении   )   некоторого   количества   наблюдений   или   факторов   к 

массиву исходной информации может произойти резкое изменение оценок параметров.

3. Из­за   неустойчивости   модели   резко   сокращаются  

возможности   содержательной 

интерпретации модели

, а также прогноза значений зависимой переменной  

y

  в точках, 

существенно   удалённых   от   значений   объясняющих   переменных   в   выборке   в   виду 

ненадёжности получаемых результатов.


background image

О б н а р у ж е н и е   м у л ь т и к о л л и н е а р н о с т и

Одним из методов обнаружения мультиколлинеарности является анализ корреляционной 

матрицы  

между объясняющими переменными  

X

1

, X

2

, ..., X

p  

и выявление пары переменных, 

имеющие   высокий   коэффициент   корреляции(обычно   больше   0,7).   Если   такие   переменные 

существуют, то говорят о мультиколлинеарности между ними.

Пример.

Y

X

1

, X

2

, X

3

, X

4

, X

5

X

1

X

2

X

3

X

4

X

5

Y

X

1

1,00

0,85

0,98

0,11

0,34

0,42

X

2

1,00

0,88

0,03

0,46

0,34

X

3

1,00

0,03

0,28

0,40

X

4

1,00

0,57

0,56

X

5

1,00

0,29

X

1

X

2

X

1

X

3

X

2

X

3


background image

М е т о д ы   у с т р а н е н и я   м у л ь т и к о л л и н е а р н о с т и

1. Переход от исходных объясняющих переменных   

X

1

, X

2

, ..., X

k

, связанных между собой 

достаточно

 

тесной

 

корреляционной

 

зависимостью,

 

к

 

новым 

переменным

,

представляющим линейную комбинацию исходных.

2. Отбор наиболее существенных объясняющих переменных. Производится, чаще всего в 

пошаговом режиме. На первом шаге рассматривается лишь объясняющая переменная, 

имеющая   с   зависимой   переменной  

Y

  наибольший   коэффициент   детерминации.   На 

следующем   шаге   включается   в   регрессию   новая   объясняющая   переменная,   которая 

вместе   с   первоначальной   переменной   дает   наибольший   (скорректированный) 

коэффициент детерминации. Процедура введения новых переменных продолжается до 

тех пор, пока будет увеличиваться соответствующий (скорректированный) коэффициент 

детерминации.