Файл: Элементы математического моделирования в программных средах MATLAB 5 и Scilab (Андриевский Фрадков).pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 05.04.2024
Просмотров: 443
Скачиваний: 1
о свойствах измерений, однако чтобы сделать выводы о достоверности и точности ММ, такие предположения нужны. Часто принимается следующая гипотеза: если представить модель измерений в виде
У = xe + ip, |
(4.26) |
где <р = со1((^!, ...,<^п) ~ вектор погрешностей (невязок) ММ, то <Pi случайны, независимы, центрированы (M<pi = 0) и равноточны (имеют одинаковую дисперсию а2 = М<р2). Эти предположения традиционны для раздела теоретической и прикладной статистики, называемого регрессионным анализом (РА). При их выполнении МНК-оценки 0 обладают следующими свойствами:
1)МО = 0 (несмещенность);
2)cov(0) = а2 С, где cov(0) = М{в - 0)(0 - 0)т - ковариационная матрица оценок, в частности
М(0, - 6 { ) 2 = <тсц; |
(4.27) |
3) МНК-оценки эффективны: для любой несмещенной оценки 0« выполняется неравенство М||0<, - в\\2 > М\\9 - 0||2;
4) если обозначить через У = Хв N-вектор прогноза выходных величин У по модели (4.26), а через R = ||У — У||2 =
=YliLiiVi ~~ Уг)2 ~ среднеквадратическую ошибку прогноза
(остаточную сумму |
квадратов), то MR = (N - г)а2, |
где г - |
ранг матрицы X X. |
Как правило (если входы модели (4.1) |
|
не связаны линейной зависимостью), г = п и, значит, |
оценку |
дисперсии погрешности модели (4.26) можно брать в виде
После построения ММ (4.26) немедленно возникает вопрос о
ееточности. Этот вопрос имеет две стороны:
а) нельзя ли без существенной потери точности заменить
модель (4.26) более простой, т.е. упростить?
б) является ли модель (4.26) адекватной исходной системе, т.е. не следует ли ее усложнить?
Ответ в обоих случаях требует дополнительных предположений. В первом варианте будем считать, что модель (4.26) адекватна и выполнены предположения РА. Тогда можно поставить задачу о проверке гипотезы 0, = 0 равенства нулю
156
некоторого коэффициента ММ. На языке математической статистики это задача проверки значимости коэффициента 0,. В силу свойств 2), 3) МНК-оценок и при дополнительном условии нормальности <р (которое не кажется слишком обременительным на фоне остальных допущений) для проверки гипотезы 0,- = 0 можно пользоваться следующей процедурой.
1. По заданному уровню надежности р и числу наблюдений N из таблиц распределения Стьюдента (см., например,
[1]) или с помощью программы tinv тулбокса |
STATISTICS |
|||
системы |
MATLAB выбирается |
значение |
а р , |
такое что |
P{\t\ < ар} |
= р, где t - случайная |
величина, |
распределенная |
по закону Стьюдента с N степенями свободы. Обычно берут
р= 0.9,0.95,0.99.
2.Определяются границы доверительного интервала для параметра 0; при уровне надежности р:
|
[6i ~ |
Ъ + |
<храу/Е$. |
|
|
(4.29) |
3. |
Если интервал (4.29) |
содержит точку |
0, = |
0, т.е. |
если |
|
< |
ckpijy/cii, то гипотеза |
0 = 0 |
принимается, |
т.е. |
в ММ |
можно положить 0, = 0. В противном случае коэффициент 0; с надежностью р считается значимым, т.е. гипотеза 0, = 0 отвергается.
Отметим, что при N > 20...30 вместо таблиц и программ распределения Стьюдента можно использовать таблицы или программы нормального распределения и брать, в частно-
сти, а0.9 = |
1 -65, а0.95 = |
1 96, а0.99 = 2.58. Впрочем, при меньших |
||||||
N, как указывалось в п. 3.5, методы |
математической стати- |
|||||||
стики вряд ли дадут надежные и нетривиальные выводы. |
||||||||
Лля ответа на второй вопрос требуется выполнение пред- |
||||||||
положений регрессионного |
анализа |
и возможность |
проведе- |
|||||
ния в каждой точке |
|
нескольких независимых слу- |
||||||
чайных измерений у ц , . ч т о б ы по ним построить |
альтер- |
|||||||
нативную оценку дисперсии |
ошибки |
|
|
|
||||
= |
Tvirriy Е |
Х > |
- |
*)'. |
Й = i Е |
УН • |
(4-30) |
|
|
|
1=1 ; = 1 |
|
|
j'= l |
|
|
|
Гипотеза |
об |
адекватности |
ММ |
(4.26) отвергается, |
если ве- |
|||
личина F |
= |
- 2 |
называемая дробь Фишера) оказывается |
|||||
т-у (так |
157
достаточно большой: F > Fp. |
Порог Fp ищется |
по задан- |
ному уровню надежности р из таблиц распределения |
Фишера |
|
[1]. В тулбоксе статистических |
вычислений STATISTICS па- |
кета MATLAB имеется соответствующая функция flnv (см. п. D.6).
Возникает еще один практически важный вопрос: нельзя ли повысить точность и надежность результатов эксперимен-
та путем его планирования, |
т.е. специального |
выбора точек |
|
х,п? Очевидно, для повышения точности |
оценок нужно |
||
стараться сделать дисперсионную матрицу С |
"поменьше", а |
||
матрицу X - "побольше". |
О |
том, как это сделать, написа- |
|
но в книгах по планированию |
регрессионных |
экспериментов |
(например, [1, 110]). Некоторые функции имеются в тулбоксе STATISTICS.
Ло сих пор мы придерживались мнения о стохастичности модели (4.26). Если же более оправдан детерминистский под-
ход и на возмущения в (4.26) накладывается |
единственное |
ограничение |
|
Ы < |
(4-31) |
то точность оценивания, как, впрочем, и сами оценки, можно
определить из решения соответствующей минимаксной зада- |
||||
чи: |
|
п |
|
|
|
|
|
|
|
min |
max |
|г/, — > |
0, |
|
в |
\<i<N |
^ |
3 |
' Я |
j = i
Минимаксный подход, хотя и требует более сложных вычислений (решения задачи линейного программирования или минимизации негладкой функции [80]), дает гарантированный результат при любом числе наблюдений N.
Во всех случаях выбор подхода, числа учитываемых параметров ММ, плана эксперимента является неформальным актом, основанным на опыте и интуиции исследователя. Здесь оказывается полезным следующий "принцип надежности": "чем проще модель, тем реже она обманет", или "чем лучше модель объясняет прошлое, тем хуже она прогнозирует будущее". В иной форме эту же мысль выразил Р. Акофф: "Степень понимания явления обратно пропорциональна числу переменных в его описании". Практически часто применяют следующее правило: число независимых наблюдений должно быть в 3-5 раз больше числа параметров модели. Наконец,
158
не следует забывать принцип "равнопрочности", который настойчиво пропагандировал знаменитый российский математик, механик и кораблестроитель А.Н. Крылов: "Точность результатов не может быть выше точности исходных данных; точности промежуточных вычислений должны быть согласованы".
4.3.Адаптивные модели и рекуррентные методы
Если наблюдений при построении ММ оказывается много и они поступают последовательно во времени, то часто оказывается удобным обрабатывать их по мере поступления. Иногда такой способ обработки единственно возможный, например, когда исходные данные из-за большого объема не помещаются в памяти компютера или когда свойства системы меняются во времени ("дрейфуют") и параметры ММ требуют постоянной коррекции. Модели, которые изменяются (подстраиваются, адаптируются) в процессе наблюдений за системой, называются адаптивными. Соответственно методы оценивания параметров таких моделей путем коррекции
по текущим наблюдениям называются адаптивными, |
или ре- |
|||
куррентными [6, 59, 95]. |
|
|
||
Общий вид рекуррентного алгоритма следующий: |
||||
|
|
0* = Ф(0*-1 |
|
(4 -3 2 ) |
где к = 1,2,... - номер шага наблюдения. Многие |
алгоритмы |
|||
можно привести к рекуррентной форме. |
|
|
||
Пример 4.3.1. |
Пусть ММ системы имеет вид у, = 0 + y?i, |
|||
где |
0 = Myi - оцениваемый параметр, ур, - помеха, |
Му>{ = 0. |
||
Обычная оценка среднего арифметического 0, = |
|
У* мо~ |
||
жет быть преобразована к рекуррентной форме: |
|
|
||
|
|
вк = ek .x + l(yk - |
|
(4.33) |
(при 0О = 0). Обобщением (4.33) является метод |
стохастиче- |
|||
ской |
аппроксимации |
[80, 58]: |
|
|
|
|
0* = 0*-i + lk(Vk - 0*-i), |
|
(4.34) |
где |
> 0 - коэффициенты поправок (шаги) алгоритма, кото- |
|||
рые для обеспечения сходимости оценок должны |
удовлетво- |
159
рять условиям Роббинса-Монро:
оооо
i=l к=1
П р и м е р 4.3.2. Можно показать, что МНК-оценки параметров ММ (4.1) удовлетворяют рекуррентным соотношениям
Ok = |
+ |
Ткх{к) (ук |
- б1_1Х(к)), |
(4.35) |
||
Г, = |
Г^ |
- |
h f |
m |
^ , |
(4.36) |
|
|
|
1 + х(к) |
Tk-\x(k) |
|
|
где х(к) = c o l ( x j t i , х к п ) |
- |
вектор |
к-го |
измерения |
входов ММ, |
Гь = Тк > 0 - симметричная, положительно определенная пхп -
матрица. |
При этом Г* = |
х (0а ? (, ')Т ) ~ дисперсионная |
матрица, |
и, значит, соотношения (4.35) соответствуют МНК |
лишь при определенном выборе начальной матрицы Г0. Однако если к —• оо, то оценки, получаемые из (4.35), приближаются к МНК-оценкам при произвольных начальных условиях 0О, Г0. Практически часто берут Г0 = 7I, где I - единичная матрица, 7 > 0 - достаточно большое число.
Если (4.36) не учитывать, а брать Г* = 7*1? где 7* > О удовлетворяют условиям Роббинса-Монро, то получим обобщенный (многомерный) алгоритм стохастической аппроксимации:
0к = 0к.! + 7к{Ук - Ci х(к))х{к) . |
(4.37) |
Алгоритм (4.37), в свою очередь, является частным |
случаем |
градиентного алгоритма. 1 |
|
0k = 0k-i-lkV$Q{Ok-i,Vk,Xk) |
(4-38) |
и получается из (4.38) при выборе целевой функции текущей
ошибки Q(6,y,x) |
в виде |
|
|
Q(o,v,x)_=1b(v-e ')• |
|
1 Ч е р е з V e Q |
обозначается градиент |
функции векторного аргумента |
в = |
т.е. вектор из частных |
производных |
160