ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2023

Просмотров: 260

Скачиваний: 5

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

24
Глава 1. Парная регрессия
A =
1
n

n

i=1

y
i

̂y
x
i
y
i
∣ ⋅ 100%.
Как и в случае линейной регрессии, значение A не должно превышать 10%.
Наряду с индексами корреляции и детерминации в случае нелинейных форм связи для характеристики зависимости между результативной переменной и фак- торными переменными применяются коэффициенты эластичности.
Коэффициент эластичности показывает, на сколько процентов из- менится в среднем результат, если фактор изменится на 1%.
Формула для расчета коэффициента эластичности имеет вид:
Э = f

(x) ⋅
x
y
.
Так как для большинства функций коэффициент эластичности не является по- стоянной величиной, а зависит от соответствующего значения фактора x, то обыч- но рассчитывается средний коэффициент эластичности:
Э = f

(x) ⋅
x
y
.
В таблице 1.6 приведены формулы для расчета средних коэффициентов элас- тичности (Э) для наиболее часто используемых типов уравнений регрессии.
Таблица 1.6 – Средний коэффициент эластичности
Вид модели, y
Первая
производная, y

Средний коэффициент
эластичности, Э
y = a + b x + ε
b
b x
a + b x
y = a + b x + c x
2
+ ε
b + 2 ⋅ c x
(b + 2 ⋅ c x) ⋅ x
a + b x + c x
2
y = a +
b
x
+ ε

b
x
2

b
a x + b
y = a x
b
⋅ ε
y = a b x
b−1
b
y = a b
x
⋅ ε
a ⋅ ln b b
x
x ⋅ ln b
y = a + b ⋅ ln x + ε
b
x
b
a + b ⋅ ln x
y =
1
a + b x + ε

b
(a + b x)
2

b x
a + b x

1.3 Нелинейные модели регрессии
25
Возможны случаи, когда расчет коэффициента эластичности не имеет смыс- ла. Это происходит тогда, когда для рассматриваемых признаков бессмысленно определение изменения в процентах. Например, изучая соотношение ставок меж- банковского кредита Y (в % годовых) и срока его предоставления X (в днях), было получено степенное уравнение с очень высоким значением индекса корреляции
(0,98). При этом коэффициент эластичности, равный 0,4%, лишен смысла, так как срок предоставления кредита не измеряется в процентах.
Рассмотрим пример оценки качества уравнения регрессии для модели
̂y =
=
179,9383 ⋅ x
1,244552
, построенной по таблице 1.4.
Пример 1.5
Поскольку построенная модель относится к виду моделей, нелинейных от- носительно параметров, оценку качества модели проведем по линеаризованному уравнению Y = 5,192614 + 1,244552 ⋅ X . Здесь Y = ln
(y), X = ln(x). Составляем вспомогательную таблицу 1.7.
Таблица 1.7 – Вспомогательная таблица к примеру 1.5
X
Y
̂Y
(Y − ̂Y)
2
(Y Y)
2
Y Y)
2 1
−1,9661 2,7600 2,7456 0,0002 0,2672 0,2822 2
−1,1087 3,8918 3,8127 0,0063 0,3781 0,2872 3
−1,5606 3,2658 3,2503 0,0002 0,0001 0,0007 4
−1,9661 2,7537 2,7456 0,0001 0,2737 0,2822 5
−1,5141 3,3105 3,3082 0
0,0011 0,0010 6
−1,3863 3,4012 3,4672 0,0044 0,0155 0,0362 7
−1,2730 3,5553 3,6082 0,0028 0,0775 0,1098
Итого

22,9383 22,9378 0,0140 1,0132 0,9993
Среднее значение

3,2769 3,2768 0,0020 0,1447 0,1427
Вычислим индекс корреляции по формуле:
ρ
xy
=
¿
Á
Á
À1

σ
2
ocт
σ
2
y
=

1 −
0,002 0,1447
=
0,993.
Вычислим индекс детерминации по формуле:
ρ
2
xy
=
1 −
σ
2
ocт
σ
2
y
=
1 −
0,002 1447
=
0,986,
который показывает, что 98,6% вариации результативного признака объясняется вариацией признака-фактора, а 1,4% приходится на долю прочих факторов.
Вычислим среднюю ошибку аппроксимации, используя данные исходного не- линейного уравнения регрессии:
A =
1
n

n

i=1

y
i

̂y
x
i
y
i
∣ ⋅ 100% =
0,2388 7
⋅ 100% = 3,4%.


26
Глава 1. Парная регрессия
Вычисленное значение средней ошибки аппроксимации не превышает 10%,
следовательно, кривая регрессии хорошо приближает исходные данные.
F-критерий Фишера:
F =
ρ
2
xy
1 − ρ
2
xy

n m − 1
m
=
0,986 ⋅ 6 1 − 0,986
=
422,57,
значительно превышает табличное F
0,05, 1, 6
=
5,99, что говорит о существенности модели в целом.
Контрольные вопросы по главе 1 1. Дайте определение парной регрессии.
2. Поясните экономическую сущность параметров уравнения парной регрессии.
3. Назовите основные причины наличия в регрессионной модели случайного отклонения.
4. Назовите основные этапы регрессионного анализа.
5. Что понимается под спецификацией модели?
6. Какие требования предъявляются к объему наблюдений, необходимых для построения уравнения регрессии?
7. По каким вычислениям можно судить о значимости модели в целом?
8. Объясните суть коэффициента детерминации.
9. В каких пределах должна находиться ошибка аппроксимации, чтобы можно было сделать вывод о хорошем подборе модели к исходным данным?
10. Какие значения может принимать коэффициент детерминации r
2
xy
?
11. Назовите классы нелинейных моделей.
12. Объясните суть среднего коэффициента эластичности.

Глава 2
МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ
РЕГРЕССИЯ
2.1 Понятие множественной регрессии
В настоящее время множественная регрессия — один из наиболее распростра- ненных методов в эконометрике. Например, исследуется урожайность зерновых культур. Она определяется набором таких факторов, как число колесных тракторов,
число зерноуборочных комбайнов, число орудий поверхностной обработки поч- вы, количество удобрений, расходуемых на гектар, количество химических средств оздоровления растений, расходуемых на гектар. Следовательно, модели парной ре- грессии не пригодны для того, чтобы в полной мере охарактеризовать поведение исследуемого показателя. В этом случае рассматривается множественная регрессия:
y = f
(x
1
, x
2
, . . ., x
m
) + ε,
где y — зависимая переменная (результат); x
1
, x
2
, . . ., x
m
— независимые переменные
(факторы);
ε — случайная ошибка регрессионной зависимости; f — некоторая мате- матическая функция.
Основной целью множественной регрессии является построение модели с боль- шим числом факторов и определение влияния каждого фактора в отдельности,
а также их совместного воздействия на моделируемый показатель (результат).
Возможны разные виды уравнений множественной регрессии: линейные и не- линейные. Ввиду четкой интерпретации параметров наиболее широко использует- ся линейная модель множественной регрессии:
y = a + b
1
x
1
+ b
2
x
2
+ . . . + b
m
x
m
+ ε,
где a, b
1
, b
2
, . . ., b
m
— параметры функции.
Параметр a называется свободным членом и определяет значение результи- рующей переменной y в случае, когда все объясняющие переменные x
1
, x
2
, . . ., x
m


28
1   2   3   4   5   6   7   8   9   ...   13

Глава 2. Множественная линейная регрессия
равны нулю. Если же факторы по своему экономическому содержанию не могут принимать нулевых значений, то значение параметра a может не иметь экономи- ческого смысла.
Параметры b
j
называются коэффициентами «чистой» регрессии. Они харак- теризуют среднее изменение результата y с изменением соответствующего факто- ра x
j
на единицу при неизменных значениях других факторов, закрепленных на среднем уровне.
2.2 Спецификация модели. Отбор факторов при построении уравнения множественной регрессии
Вопрос о спецификации модели включает в себя две задачи: отбор факторов и выбор вида уравнения регрессии. В данном пособии рассматривается линейная множественная регрессия, поэтому остановимся на задаче отбора факторов.
Отбор факторов обычно осуществляется в два этапа:
1) отбор факторов на основе теоретического анализа природы взаимосвязи моделируемого показателя с другими экономическими показателями;
2) проверка на статистическую значимость отобранных факторов и решение о включении того или иного фактора в модель, основанное на количествен- ной оценке степени влияния соответствующего фактора на изучаемый по- казатель.
Факторы, включаемые во множественную регрессию, должны отвечать следу- ющим требованиям [1]:
1) быть количественно измеримы. Если необходимо учесть влияние качест- венного фактора (не имеющего количественной оценки), то в модель вклю- чается соответствующая ему «фиктивная» переменная, имеющая конечное количество формально численных значений, соответствующих градациям качественного фактора. Например, если нужно учесть влияние уровня об- разования на размер заработной платы, то в уравнение регрессии можно включить переменную z, принимающую значения: 0 — при начальном об- разовании, 1 — при среднем, 2 — при высшем;
2) должны объяснить вариацию результативного признака. Так как данная ве- личина характеризуется таким показателем, как коэффициент детермина- ции R
2
, включение фактора в модель должно приводить к заметному изме- нению последнего. Например, если строится модель с набором m факторов,
то для нее рассчитывается показатель детерминации R
2
, который фиксиру- ет долю объясненной вариации результативного признака за счет рассмат- риваемых в регрессии
m факторов. Влияние других, не учтенных в модели факторов оценивается как 1 − R
2
с соответствующей остаточной дисперси- ей S
2
ocт
. При дополнительном включении в регрессию m + 1 фактора, ока- зывающего существенное влияние на результат, коэффициент детермина- ции должен возрастать (R
2
m+1
>
R
2
m
), а остаточная дисперсия уменьшаться
(S
2
ocт
m+1
<
S
2
ocт
m
). В противном случае включаемый в анализ фактор x
m+1
не улучшает модель и практически является лишним фактором. Насыщение модели лишними факторами не только не снижает величину остаточной

2.2 Спецификация модели. Отбор факторов при
построении уравнения множественной регрессии
29
дисперсии и не увеличивает показатель детерминации, но и приводит к ста- тистической незначимости параметров регрессии по критерию Стьюдента;
3) не должны быть взаимно коррелированы, тем более, находиться в точ- ной функциональной связи. Наличие высокой степени коррелированно- сти определяется по значению коэффициента парной корреляции r
x
i
x
j


0,8 и может привести к нежелательным последствиям:
ˆ затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы кор- релированы, то есть находятся в линейной зависимости; параметры линейной регрессии теряют экономический смысл;
ˆ оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.
Взаимная корреляция факторов
Исследование взаимной коррелированности объясняющих переменных позво- ляет исключать из модели дублирующие факторы. Проверка наличия взаимной корреляции двух факторов (парной корреляции) основывается на анализе матрицы парных коэффициентов корреляции. Предпочтение при этом отдается не фактору,
более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими фактора- ми [1].
Например, при изучении зависимости
̂y = f (x
1
, x
2
, x
3
) матрица парных коэффи- циентов корреляции оказалась следующей (табл. 2.1).
Таблица 2.1 – Матрица парных коэффициентов корреляции
y
x
1
x
2
x
3
y
1 0,8 0,7 0,6
x
1 0,8 1
0,8 0,5
x
2 0,7 0,8 1
0,2
x
3 0,6 0,5 0,2 1
Очевидно, что факторы x
1
и x
2
дублируют друг друга, поскольку значение ко- эффициента парной корреляции r
x
1
x
2
=
0,8. Однако в анализ целесообразно вклю- чить фактор x
2
, а не x
1
, хотя корреляция x
2
с результатом y слабее, чем корре- ляция фактора x
1
с результирующей переменной y
(r
yx
2
=
0,7 < r
yx
1
=
0,8
), но зато значительно слабее корреляция фактора x
2
с объясняющей переменной x
3
(r
x
2
x
3
=
0,2 < r
x
1
x
3
=
0,5
). Поэтому в данном случае в уравнение множественной регрессии включаются факторы x
2
, x
3
По величине парных коэффициентов корреляции обнаруживается лишь явная линейная зависимость факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факто- ров, когда более чем два фактора связаны между собой линейной зависимостью,