ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 24.10.2023

Просмотров: 258

Скачиваний: 5

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

1.2 Линейная модель парной регрессии
17
Рис. 1.4 – Поле корреляции по данным наблюдений
Таблица 1.3 – Вспомогательная таблица
x
y
x y
x
2
y
2
̂y
x
y
̂y
x
(y −̂y
x
)
2
A
i
, %
1 32 20 640 1024 400 24,43
−4,43 19,61 22,14 2
30 24 720 900 576 23,34 0,66 0,43 2,75 3
36 28 1008 1296 784 26,60 1,40 1,95 4,99 4
40 30 1200 1600 900 28,78 1,22 1,50 4,08 5
41 31 1271 1681 961 29,32 1,68 2,82 5,42 6
47 33 1551 2209 1089 32,58 0,42 0,18 1,27 7
56 34 1904 3136 1156 37,47
−3,47 12,06 10,21 8
54 37 1998 2916 1369 36,39 0,61 0,38 1,66 9
60 38 2280 3600 1444 39,65
−1,65 2,71 4,33 10 55 40 2200 3025 1600 36,93 3,07 9,43 7,68 11 61 41 2501 3721 1681 40,19 0,81 0,66 1,98 12 67 43 2881 4489 1849 43,45
−0,45 0,20 1,05 13 69 45 3105 4761 2025 44,54 0,46 0,21 1,03 14 76 48 3648 5776 2304 48,34
−0,34 0,12 0,71
Итого
724 492 26 907 40 134 18 138 492 0
52,26 69,3
Средн.
знач-е
51,71 35,14 1921,93 2866,71 1295,57



4,95
σ
13,87 7,78







σ
2 192,35 60,55







Для этого воспользуемся формулами вычисления параметров уравнения ре- грессии:
b =
x y x y
x
2

(x)
2
=
1921,93 − 51,71 ⋅ 35,14 192,35
=
0,55;
a = y b x = 35,14 − 0,54 ⋅ 51,71 = 6,96.
Запишем уравнение:
̂y
x
=
6,96 + 0,55 ⋅ x.
Коэффициент b уравнения регрессии показывает, что с увеличением уровня механизации работ на 1% производительность труда увеличится на 0,55 т/час.
Оценим качество уравнения регрессии.
Как было указано выше, уравнение линейной регрессии всегда дополняется показателем тесноты связи — линейным коэффициентом корреляции r
xy
:

18
Глава 1. Парная регрессия
r
xy
=
b
σ
x
σ
y
=
0,55 ⋅
13,87 7,78
=
0,98.
Близость коэффициента корреляции к единице указывает на тесную линейную связь между признаками.
Коэффициент детерминации r
2
xy
=
0,961 показывает, что уравнением регрессии объясняется 96,1% дисперсии результативного признака, а на долю прочих факто- ров приходится лишь 3,9%.
Средняя ошибка аппроксимации A =
1
n

n

i=1

y
i

̂y
x
i
y
i
∣ ⋅ 100%, A = 4,95% говорит о хорошем качестве уравнения регрессии, т. е. свидетельствует о хорошем подборе модели к исходным данным.
Оценим значимость уравнения регрессии в целом с помощью F-критерия
Фишера. Вычислим фактическое значение F-критерия:
F =
r
2
xy
1 − r
2
xy

(n − 2) =
0,961 1 − 0,961
⋅ 12 = 295,69.
Табличное значение F-критерия с числом степеней свободы k
1
=
1, k
2
=
12
и уровнем значимости
α = 0,05 равно 4,75. Так как F
фaкт
>
F
тaбл
, то признается статистическая значимость уравнения в целом.
Для оценки статистической значимости коэффициентов регрессии рассчита- ем t-критерий Стьюдента и доверительные интервалы каждого из показателей.
1. Вычислим остаточную дисперсию на одну степень свободы:
S
2
ocт
=
n

i=1
(y −̂y
x
)
2
n m − 1
=
52,26 14 − 1 − 1
=
4,36.
2. Вычислим значения ошибок вычисления параметров регрессии:
m
b
=
S
ocт
σ
x


n
=

4,36 13,87 ⋅

14
=
0,04.
m
a
=
S
ocт


n

i=1
x
2
i
σ
x
n
=

4,36 ⋅ 40 134 13,87 ⋅ 14
=
2,15.
3. Вычислим фактические значения t-статистик:
t
b
=
b
m
b
=
0,55 0,04
=
13,75;
t
a
=
a
m
a
=
6,96 2,15
=
3,24.
Табличное значение t-критерия Стьюдента при
α = 0,05 и числе степеней сво- боды k = 14 − 2 равно 2,18. Так как t
a
>
t
тaбл
(α, n−2), t
b
>
t
тaбл
(α, n−2), то признаем статистическую значимость параметров регрессии.
4. Рассчитаем доверительные интервалы для параметров регрессии a и b:
a ± t
тaбл
m
a
и
b ± t
тaбл
m
b
.
В результате получим:
a
[2,27; 11,64], b ∈ [0,46; 0,64].


1.3 Нелинейные модели регрессии
19
Найдем прогнозное значение результативного фактора
̂y
p
при значении призна- ка-фактора, составляющем 150% от среднего уровня x
p
=
1,5 ⋅ x = 1,5 ⋅ 51,71 =
=
77,57, т. е. найдем производительность труда, если уровень механизации составит
77,57%:
̂y
p
=
6,96 + 0,55 ⋅ 77,57 = 49,6 (т/час).
Результат вычисления показывает, что если уровень механизации составит
77,57%, то производительность труда будет равна 49,6 т/час.
Найдем доверительный интервал прогноза. Средняя ошибка прогноза:
m
̂
y
p
=
S
ocт

¿
Á
Á
À
1 +
1
n
+
(x
p
x
)
2
n ⋅ σ
2
x
=
¿
Á
Á
À
4,36 +
1 14
+
(77,57 − 51,71)
2 14 ⋅ 192,35
=
2,16,
а доверительный интервал
̂y
p
± t
тaбл
m
̂
y
p
:
44,89 <
̂y
p
<
54,31.
Отобразим на одном графике исходные данные и линию регрессии (рис. 1.5).
Рис. 1.5 – Графическое представление уравнения регрессии
1.3 Нелинейные модели регрессии
Зависимости между экономическими показателями не всегда можно выразить линейными функциями. Например, жизненный цикл товара можно описать в виде выпуклой параболы, ремаркетинг (оживление спроса в случае его падения) — в ви- де вогнутой параболы, а зависимость между объемом выпуска продукции и затра- тами капитала и труда — степенной функцией. Широкое применение нашли модели гиперболического и экспоненциального видов. Равносторонняя гипербола может быть использована для характеристики связи удельных расходов сырья, материа- лов, топлива от объема выпускаемой продукции; времени обращения товаров от величины товарооборота; процента прироста заработной платы от уровня безра- ботицы (кривая Филлипса); расходов на непродовольственные товары от доходов или общей суммы расходов (кривая Э. Энгеля) и в других случаях.

20
1   2   3   4   5   6   7   8   9   ...   13

Глава 1. Парная регрессия
Оценка параметров нелинейной модели.
Различают два класса нелинейных регрессий:
1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам.
2. Регрессии, нелинейные по оцениваемым параметрам.
Построение и анализ нелинейных моделей имеют свою специфику. В рамках данного курса ограничимся рассмотрением нелинейных моделей, допускающих сведение их к линейному типу.
Регрессии, нелинейные относительно объясняющих (независимых) пере-
менных.
Примерами регрессий, нелинейных по объясняющим переменным, но линей- ных по оцениваемым параметрам, могут служить:
ˆ полиномы различных степеней:
y = a + b
1
x + b
2
x
2
+ . . . + b
n
x
n
+ ε;
ˆ равносторонние гиперболы (обратная модель): y = a +
(b/x) + ε.
ˆ полулогарифмическая модель: y = a + b ⋅ ln
(x) + ε.
Среди полиномов наиболее часто используются полиномы низших порядков
(второго, реже — третьего). Это связано с тем, что:
ˆ во-первых, чем выше степень полинома, тем больше изгибов имеет кривая и, следовательно, тем менее однородны исходные данные;
ˆ во-вторых, увеличение степени полинома означает включение в модель дополнительной переменной и, следовательно, возможные сложности при статистической оценке модели.
При оценке параметров регрессий, нелинейных по объясняющим переменным,
используется метод замены переменных. Суть его состоит в замене нелинейных объясняющих переменных, в результате чего нелинейные функции регрессии сво- дятся к линейным. К новой, преобразованной функции регрессии может быть при- менен обычный метод наименьших квадратов (МНК). Для рассмотренных функ- ций ниже приведены примеры таких замен.
Пример 1.2
Полином второй степени:
̂y
x
=
a + b
1
x + b
2
x
2
Линеаризующее преобразование: x
1
=
x, x
2
=
x
2
. В результате приходим к двух- факторному линейному уравнению
̂y
x
=
a + b
1
x
1
+ b
2
x
2
, параметры которого определяются из системы следующих нормальных уравнений:

⎧⎪⎪⎪⎪
⎨⎪⎪⎪
⎪⎩
n a + b
1
⋅ ∑ x
1
+ b
2
⋅ ∑ x
2
=
y,
a ⋅ ∑ x
1
+ b
1
⋅ ∑ x
2 1
+ b
2
⋅ ∑ x
1
x
2
=
x
1
y,
a ⋅ ∑ x
2
+ b
1
⋅ ∑ x
1
x
2
+ b
2
⋅ ∑ x
2 2
=
x
2
y.

1.3 Нелинейные модели регрессии
21
После обратной замены переменных получим:
⎧⎪⎪⎪⎪
⎨⎪⎪⎪
⎪⎩
n a + b
1
⋅ ∑ x + b
2
⋅ ∑ x
2
=
y,
a ⋅ ∑ x
1
+ b
1
⋅ ∑ x
2
+ b
2
⋅ ∑ x
3
=
x y,
a ⋅ ∑ x
2
+ b
1
⋅ ∑ x
3
+ b
2
⋅ ∑ x
4
=
x
2
y.
Пример 1.3
Равносторонняя гипербола:
̂y
x
=
a +
(b/x).
Линеаризующее преобразование: x
1
=
1
/x. Система линейных уравнений при применении МНК будет выглядеть следующим образом:
⎧⎪⎪⎪⎪
⎨⎪⎪⎪
⎪⎩
n a + b ⋅ ∑
1
x
=
y,
a ⋅ ∑
1
x
+ b ⋅ ∑
1
x
2
=

1
x
y.
Регрессии, нелинейные относительно оцениваемых параметров.
Регрессии, нелинейные относительно оцениваемых параметров, представляют собой более сложный случай. Эти модели, в свою очередь, могут быть разделе- ны на две группы: нелинейные модели внутренне линейные и нелинейные модели
внутренне нелинейные.
Если нелинейная модель внутренне линейна, то при помощи определенных процедур она может быть сведена к линейной и оценена при помощи метода наименьших квадратов. Если же модель внутренне нелинейна по параметрам, ее нельзя свести к линейной, а для оценки параметров используются итеративные процедуры, успешность которых зависит от вида уравнений и особенностей при- меняемого итеративного подхода.
На практике чаще встречаются внутренне линейные модели. Примерами внут- ренне линейных регрессий могут служить следующие модели:
ˆ логарифмическая модель (степенная): y = a x
b
+ ε;
ˆ показательная: y = a b
x
+ ε;
ˆ экспоненциальная: y = e
a+bx
+ ε.
В следующем примере показано решение задачи построения логарифмической
(степенной) модели
̂y = a x
b
Пример 1.4
По статистическим данным (табл. 1.4), описывающим зависимость значе-
ния рентабельности производства синтетического каучука от индекса Лернера,
построить логарифмическую модель парной регрессии
̂y = a x
b
.


22
Глава 1. Парная регрессия
Таблица 1.4 – Исходные данные к примеру 1.4
Индекс Лернера
0,14 0,33 0,21 0,14 0,22 0,25 0,28
Рентабельность, %
15,8 49 26,2 15,7 27,4 30 35
Решение:
1. Логарифмируем обе части уравнения: ln y = ln a + b ln x.
2. Вводим линеаризующие преобразования: Y = ln y, X = ln x, A = ln a.
3. Выполняем оценку параметров вновь полученного уравнения Y = A + b X ,
используя метод наименьших квадратов. Полученное уравнение регрессии имеет вид Y = 5,19 + 1,24 ⋅ X .
4. Определяем искомое уравнение
̂y = a x
b
. Для этого:
ˆ выполняем потенцирование уравнения
̂y = e
5,19
x
1,24
;
ˆ вычислив e
5,19
=
179,47, записываем уравнение логарифмической (сте- пенной) модели регрессии:
̂y = 179,47 ⋅ x
1,24
Возможные замены переменных для рассмотренных функций приведены в таб- лице 1.5.
Таблица 1.5 – Линеаризующие преобразования

Вид модели
Линеаризующие
преобразования
Ограничения
Обратная замена
переменных
1
̂y
x
=
a x
b
Y = ln y,
X = ln x,
A = ln a
y > 0,
x > 0,
a > 0
a = e
A
b = b
2
̂y
x
=
a b
x
Y = ln y,
B = ln b,
A = ln a
y > 0,
b > 0,
a > 0
a = e
A
b = e
B
3
̂y
x
=
e
a+bx
Y = ln y
y > 0
a = a
b = b
4
̂y
x
=
a + b ⋅ ln x
X = ln x
x > 0
a = a
b = b
5
̂y
x
=
a + b
1
x
X =
1
x
x ≠ 0
a = a
b = b
Анализ представленной таблицы показывает, что линеаризация функций 1–3
выполняется логарифмированием с последующей заменой переменных. Линеари- зация функций 4–5 выполняется простой заменой переменных.
Исследование нелинейных регрессионных моделей.
Для выявления тесноты связи между переменными в случае нелинейной за- висимости используется индекс корреляции. Он показывает тесноту связи между фактором x и зависимой переменной y:
ρ
xy
=
¿
Á
Á
À1

σ
2
ocт
σ
2
y
,

1.3 Нелинейные модели регрессии
23
где
σ
2
y
=
(1/n) ⋅ ∑(y y)
2
— общая дисперсия результативного признака y;
σ
2
ocт
=
=
(1/n) ⋅ ∑(y −̂y
x
)
2
— остаточная дисперсия.
Индекс корреляции есть неотрицательная величина, не превосходящая едини- цу: 0 ⩽
ρ
xy

1. Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.
В случае линейной зависимости
ρ
xy
=
r
xy
∣. Расхождение между значением ин- декса корреляции
ρ
xy
и значением коэффициента линейной корреляции r
xy
может быть использовано для проверки линейности корреляционной зависимости. Чем больше кривизна линии регрессии, тем величина r
xy
меньше
ρ
xy
. Близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию.
Квадрат индекса корреляции носит название индекса детерминации и харак- теризует долю дисперсии результативного признака y, объясняемую регрессией,
в общей дисперсии результативного признака и вычисляется по формуле:
ρ
2
xy
=
σ
2
oбъяcн
σ
2
y
=
1 −
σ
2
ocт
σ
2
y
,
где
σ
2
oбъяcн
=
1
n

n

i=1
y
xi
y
)
2
Следует обратить внимание на то, что разности в соответствую- щих суммах

(y y)
2
,

yy)
2
и

(y −̂y
x
)
2
берутся не в пре- образованных, а в исходных значениях результативного признака,
если уравнение регрессии нелинейно относительно объясняющих переменных. Иначе говоря, при вычислении этих сумм следует ис- пользовать не преобразованные (линеаризованные) зависимости,
а исходные нелинейные уравнения регрессии. В случае регрессий,
нелинейных относительно параметров, соответствующие суммы вычисляются в преобразованных данных.
Индекс детерминации используется для проверки существенности в целом уравнения регрессии по F-критерию Фишера:
F =
ρ
2
xy
1 − ρ
2
xy

n m − 1
m
,
где
ρ
2
xy
— индекс детерминации; n — число наблюдений; m — число параметров при переменной x. Фактическое значение F-критерия сравнивается с табличным при уровне значимости
α и числе степеней свободы k
2
=
n m − 1 (для остаточной сум- мы квадратов) и k
1
=
m (для факторной суммы квадратов). Вычисленное значение
F-критерия признается достоверным, если оно больше табличного при заданном уровне значимости
α. В этом случае делается вывод о существенности уравнения регрессии в целом.
Степень аппроксимации данных выборки полученной регрессией оценивается с помощью средней относительной ошибки аппроксимации: