Файл: Элементы математического моделирования в программных средах MATLAB 5 и Scilab (Андриевский Фрадков).pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 05.04.2024

Просмотров: 443

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

о свойствах измерений, однако чтобы сделать выводы о достоверности и точности ММ, такие предположения нужны. Часто принимается следующая гипотеза: если представить модель измерений в виде

У = xe + ip,

(4.26)

где <р = со1((^!, ...,<^п) ~ вектор погрешностей (невязок) ММ, то <Pi случайны, независимы, центрированы (M<pi = 0) и равноточны (имеют одинаковую дисперсию а2 = М<р2). Эти предположения традиционны для раздела теоретической и прикладной статистики, называемого регрессионным анализом (РА). При их выполнении МНК-оценки 0 обладают следующими свойствами:

1)МО = 0 (несмещенность);

2)cov(0) = а2 С, где cov(0) = М{в - 0)(0 - 0)т - ковариационная матрица оценок, в частности

М(0, - 6 { ) 2 = <тсц;

(4.27)

3) МНК-оценки эффективны: для любой несмещенной оценки 0« выполняется неравенство М||0<, - в\\2 > М\\9 - 0||2;

4) если обозначить через У = Хв N-вектор прогноза выходных величин У по модели (4.26), а через R = ||У — У||2 =

=YliLiiVi ~~ Уг)2 ~ среднеквадратическую ошибку прогноза

(остаточную сумму

квадратов), то MR = (N - г)а2,

где г -

ранг матрицы X X.

Как правило (если входы модели (4.1)

не связаны линейной зависимостью), г = п и, значит,

оценку

дисперсии погрешности модели (4.26) можно брать в виде

После построения ММ (4.26) немедленно возникает вопрос о

ееточности. Этот вопрос имеет две стороны:

а) нельзя ли без существенной потери точности заменить

модель (4.26) более простой, т.е. упростить?

б) является ли модель (4.26) адекватной исходной системе, т.е. не следует ли ее усложнить?

Ответ в обоих случаях требует дополнительных предположений. В первом варианте будем считать, что модель (4.26) адекватна и выполнены предположения РА. Тогда можно поставить задачу о проверке гипотезы 0, = 0 равенства нулю

156


некоторого коэффициента ММ. На языке математической статистики это задача проверки значимости коэффициента 0,. В силу свойств 2), 3) МНК-оценок и при дополнительном условии нормальности (которое не кажется слишком обременительным на фоне остальных допущений) для проверки гипотезы 0,- = 0 можно пользоваться следующей процедурой.

1. По заданному уровню надежности р и числу наблюдений N из таблиц распределения Стьюдента (см., например,

[1]) или с помощью программы tinv тулбокса

STATISTICS

системы

MATLAB выбирается

значение

а р ,

такое что

P{\t\ < ар}

= р, где t - случайная

величина,

распределенная

по закону Стьюдента с N степенями свободы. Обычно берут

р= 0.9,0.95,0.99.

2.Определяются границы доверительного интервала для параметра 0; при уровне надежности р:

 

[6i ~

Ъ +

рау/Е$.

 

 

(4.29)

3.

Если интервал (4.29)

содержит точку

0, =

0, т.е.

если

<

ckpijy/cii, то гипотеза

0 = 0

принимается,

т.е.

в ММ

можно положить 0, = 0. В противном случае коэффициент 0; с надежностью р считается значимым, т.е. гипотеза 0, = 0 отвергается.

Отметим, что при N > 20...30 вместо таблиц и программ распределения Стьюдента можно использовать таблицы или программы нормального распределения и брать, в частно-

сти, а0.9 =

1 -65, а0.95 =

1 96, а0.99 = 2.58. Впрочем, при меньших

N, как указывалось в п. 3.5, методы

математической стати-

стики вряд ли дадут надежные и нетривиальные выводы.

Лля ответа на второй вопрос требуется выполнение пред-

положений регрессионного

анализа

и возможность

проведе-

ния в каждой точке

 

нескольких независимых слу-

чайных измерений у ц , . ч т о б ы по ним построить

альтер-

нативную оценку дисперсии

ошибки

 

 

 

=

Tvirriy Е

Х >

-

*)'.

Й = i Е

УН

(4-30)

 

 

1=1 ; = 1

 

 

j'= l

 

 

Гипотеза

об

адекватности

ММ

(4.26) отвергается,

если ве-

личина F

=

- 2

называемая дробь Фишера) оказывается

т-у (так

157


достаточно большой: F > Fp.

Порог Fp ищется

по задан-

ному уровню надежности р из таблиц распределения

Фишера

[1]. В тулбоксе статистических

вычислений STATISTICS па-

кета MATLAB имеется соответствующая функция flnv (см. п. D.6).

Возникает еще один практически важный вопрос: нельзя ли повысить точность и надежность результатов эксперимен-

та путем его планирования,

т.е. специального

выбора точек

х,п? Очевидно, для повышения точности

оценок нужно

стараться сделать дисперсионную матрицу С

"поменьше", а

матрицу X - "побольше".

О

том, как это сделать, написа-

но в книгах по планированию

регрессионных

экспериментов

(например, [1, 110]). Некоторые функции имеются в тулбоксе STATISTICS.

Ло сих пор мы придерживались мнения о стохастичности модели (4.26). Если же более оправдан детерминистский под-

ход и на возмущения в (4.26) накладывается

единственное

ограничение

 

Ы <

(4-31)

то точность оценивания, как, впрочем, и сами оценки, можно

определить из решения соответствующей минимаксной зада-

чи:

 

п

 

 

 

 

 

 

min

max

|г/, — >

0,

в

\<i<N

^

3

' Я

j = i

Минимаксный подход, хотя и требует более сложных вычислений (решения задачи линейного программирования или минимизации негладкой функции [80]), дает гарантированный результат при любом числе наблюдений N.

Во всех случаях выбор подхода, числа учитываемых параметров ММ, плана эксперимента является неформальным актом, основанным на опыте и интуиции исследователя. Здесь оказывается полезным следующий "принцип надежности": "чем проще модель, тем реже она обманет", или "чем лучше модель объясняет прошлое, тем хуже она прогнозирует будущее". В иной форме эту же мысль выразил Р. Акофф: "Степень понимания явления обратно пропорциональна числу переменных в его описании". Практически часто применяют следующее правило: число независимых наблюдений должно быть в 3-5 раз больше числа параметров модели. Наконец,

158


не следует забывать принцип "равнопрочности", который настойчиво пропагандировал знаменитый российский математик, механик и кораблестроитель А.Н. Крылов: "Точность результатов не может быть выше точности исходных данных; точности промежуточных вычислений должны быть согласованы".

4.3.Адаптивные модели и рекуррентные методы

Если наблюдений при построении ММ оказывается много и они поступают последовательно во времени, то часто оказывается удобным обрабатывать их по мере поступления. Иногда такой способ обработки единственно возможный, например, когда исходные данные из-за большого объема не помещаются в памяти компютера или когда свойства системы меняются во времени ("дрейфуют") и параметры ММ требуют постоянной коррекции. Модели, которые изменяются (подстраиваются, адаптируются) в процессе наблюдений за системой, называются адаптивными. Соответственно методы оценивания параметров таких моделей путем коррекции

по текущим наблюдениям называются адаптивными,

или ре-

куррентными [6, 59, 95].

 

 

Общий вид рекуррентного алгоритма следующий:

 

 

0* = Ф(0*-1

 

(4 -3 2 )

где к = 1,2,... - номер шага наблюдения. Многие

алгоритмы

можно привести к рекуррентной форме.

 

 

Пример 4.3.1.

Пусть ММ системы имеет вид у, = 0 + y?i,

где

0 = Myi - оцениваемый параметр, ур, - помеха,

Му>{ = 0.

Обычная оценка среднего арифметического 0, =

 

У* мо~

жет быть преобразована к рекуррентной форме:

 

 

 

 

вк = ek .x + l(yk -

 

(4.33)

(при 0О = 0). Обобщением (4.33) является метод

стохастиче-

ской

аппроксимации

[80, 58]:

 

 

 

 

0* = 0*-i + lk(Vk - 0*-i),

 

(4.34)

где

> 0 - коэффициенты поправок (шаги) алгоритма, кото-

рые для обеспечения сходимости оценок должны

удовлетво-

159


рять условиям Роббинса-Монро:

оооо

i=l к=1

П р и м е р 4.3.2. Можно показать, что МНК-оценки параметров ММ (4.1) удовлетворяют рекуррентным соотношениям

Ok =

+

Ткх{к) (ук

- б1_(к)),

(4.35)

Г, =

Г^

-

h f

m

^ ,

(4.36)

 

 

 

1 + х(к)

Tk-\x(k)

 

где х(к) = c o l ( x j t i , х к п )

-

вектор

к-го

измерения

входов ММ,

Гь = Тк > 0 - симметричная, положительно определенная пхп -

матрица.

При этом Г* =

х (0а ? (, ')Т ) ~ дисперсионная

матрица,

и, значит, соотношения (4.35) соответствуют МНК

лишь при определенном выборе начальной матрицы Г0. Однако если к —• оо, то оценки, получаемые из (4.35), приближаются к МНК-оценкам при произвольных начальных условиях 0О, Г0. Практически часто берут Г0 = 7I, где I - единичная матрица, 7 > 0 - достаточно большое число.

Если (4.36) не учитывать, а брать Г* = 7*1? где 7* > О удовлетворяют условиям Роббинса-Монро, то получим обобщенный (многомерный) алгоритм стохастической аппроксимации:

0к = 0к.! + 7к{Ук - Ci х(к))х{к) .

(4.37)

Алгоритм (4.37), в свою очередь, является частным

случаем

градиентного алгоритма. 1

 

0k = 0k-i-lkV$Q{Ok-i,Vk,Xk)

(4-38)

и получается из (4.38) при выборе целевой функции текущей

ошибки Q(6,y,x)

в виде

 

 

Q(o,v,x)_=1b(v-e ')•

1 Ч е р е з V e Q

обозначается градиент

функции векторного аргумента

в =

т.е. вектор из частных

производных

160