ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 06.04.2021

Просмотров: 1031

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
background image

 

66 

 

 

 

 

 

D X

D

n

X

n

D X

n

n

i

i

n

i

i

n

[ ]

[

]







 

1

1

1

1

2

1

2

2

2

 

Отсюда  получаем,  что 

X

  -  несмещѐнная  оценка  m.  Так  как 

D[

X

]

0,  при  n



,  то  в  силу  теоремы  2.1 

X

  является 

состоятельной  оценкой  математического  ожидания  m 
генеральной совокупности. 
 

2.3. Оптимальные оценки. Теорема об оптимальности 

оценок 

 

Пусть  требуется  оценить  параметрическую  функцию 

=

(

)  в  модели 

F

={F(x;

),



}  по  статистической 

информации,  доставляемой  выборкой 

X

=(X

1

,...,X

n

).  Пусть 

статистика  Т=Т(

X

)  удовлетворяет  условию  (2.3).  Класс 

несмещѐнных  оценок  обозначим 

T

.  Таким    образом,  T

T

  

тогда  и  только  тогда,  когда  выполнено  условие  (2.3). 
Дополнительно  предположим,  что  дисперсии  всех  оценок  из 
класса 

T

 

 конечны: 

D T] M

T

 

[

[(

( )) ]

 

2

 

для любых T

T

 и 



В  этом  случае  точность  оценок  можно  измерять 

величиной  их  дисперсии  и  мы  получаем  простой  критерий 
сравнения различных оценок из класса 

T

. Если 

D T

D T],

[ ]

[

 

                           (2.4) 

то  по  критерию  минимума  дисперсии  оценка  Т

*

  равномерно 

(по  параметру 

)  не  хуже    оценки  Т;  если  же  в  (2.4)  строгое 

неравенство  выполняется  хотя  бы  при  одном 

,  то  следует 

отдать предпочтение Т, как более точной оценке. Если условие 
(2.4)  выполняется  для  любой  оценки  T

T

,  то  Т

*

  называют 

несмещѐнной  оценкой  с  равномерно  минимальной 
дисперсией

.  Такую  оценку  для  краткости  называют 


background image

 

67 

 

оптимальной

,  и  обозначают 

*

,  так  как  она  относится  к 

функции 

(

). 

Итак,  оптимальной  является  оценка 

*

  T

,  для  которой 

выполняется условие 

D

*

=

inf

T

D T

,  

 

 

Требование  равномерной  минимальной  дисперсии 

сильное  и  не  всегда  имеет  место.  Однако  оно  выделяет 
оптимальную  оценку  в  классе 

T

  однозначно,  если  такая 

оценка существует, о чѐм свидетельствует следующая теорема. 

Теорема  2.2.  Пусть  Т

i

i

(

X

),  i=1,2  -  две  оптимальные 

оценки для 

=

(

). Тогда Т

1

2

Доказательство: Рассмотрим новую оценку Т

3

=(Т

1

2

)/2.  

Ясно, что Т

3

 T

  и  

D

T

3

=(D

T

1

+D

T

2

+2cov

(T

1

,T

2

))/4              (*) 

Для любых случайных величин 

1

2

 имеет место неравенство 

Kоши-Буняковского 

cov( ,

)

 

 

1

2

1

2

D D

причѐм  знак  равенства  имеет  место,  если 

1

  и 

2

    линейно 

связаны. Отсюда и из равенства (*), положив  

D

T

1

=D

T

2

=

=

(

),  

получим  

D

T

3

(

+

cov

( T

1

,T

2

)

)/2



                                  (**) 

Поскольку Т

i

 (i=1,2)  оптимальные оценки,  

= D

T

i

D

T

3

 , 

 откуда D

T

3

=

, т.е. Т

3

  также оптимальная оценка.  

Но так как в неравенствах (**) имеют место знаки  равенства, 
то  cov  (  T

1

,T

2

)

0  и  более  того,  cov

(  T

1

,T

2

)=  D

T

1

=D

T

2

=

Следовательно Т

1

 и Т

линейно связаны, т.е. Т

1

=kT

2

+a.  

Из  условия  несмещѐнности  оценок  имеем 

=k

+a;  т.е. 

a=

(1-k), и, следовательно,  

Т

1

-

=k(T

2

-

).   

Коэффициент k=k(

) является функцией от параметра 

 и 

определяется цепочкой равенств 


background image

 

68 

 

= cov

( T

1

,T

2

)=M

[( Т

1

-

)( Т

2

-

)]=k M

[( Т

1

-

)

2

]=k D

T

2

=k

 

Отсюда имеем к

1 и, следовательно, Т

1

2

 .▓   

 

2.4. Критерии оптимальности оценок,  

основанные на неравенстве Рао-Крамера 

 

Понятия функции правдоподобия, вклада выборки, 

функции информации. 

 

Рассмотрим  что  такое  функция  правдоподобия.  Пусть 

f(x,

)  -  плотность  распределения  случайной  величины 

  (или 

вероятность  в  дискретном  случае),

X

=(X

1

,...,X

n

)  –  выборка  из 

L

(

)

F

 

и 

x

=(x

1

,...,x

n

–  реализация 

X

.  Функция 

L

(

x

,

)=f(x

1

,...,x

n

;

)  является  плотностью  распределения 

случайного вектора 

X

. Функция 

L

(

x

,

), рассматриваемая при 

фиксированном 

x

,  как  функция  параметра 



,  называется 

функцией правдоподобия

Если элементы выборки независимы, то функция 

правдоподобия 

L

(

x

,

)=

f x

i

i

n

( ,

1

) [x

i

 распределены как и 

]. 

Если  имеется  выборка  (X

1

,...,X

n

)  из 

,  имеющей 

дискретное 

распределение 

P(

=x

i

)=p

i

то 

функцией 

правдоподобия 

называется 

вероятность 

того, 

что 

L

(

x

,

)=P(X

1

=x

1

,...,  X

n

=x

n

;

),  рассматриваемая  как  функция 

параметра 

 

L

(

x

,

)=

P

i

n

1

(X

i

=x

i

;

)= 

P

i

n

1

(

=x

i

,

для независимых случайных величин. 
Функция  правдоподобия  показывает  на  сколько  при 
фиксированных  значениях  выборки  правдоподобно  то  или 
другое значение параметра. 

Рассмотрим основные свойства функции правдоподобия 
1. 

 

Функция правдоподобия неотрицательна  

L

(

x

,

)>0 


background image

 

69 

 

при всех 

x X

 и 



 

2. 

 

Условия нормировки  

...





 

 L

(

x

,

)d

x

=1,       (d

x

=dx

1

...dx

n

)              (2.5) 

(для  дискретных  моделей  условия  нормировки  выражаются 
через суммы). 
Предположим,  что  функция  правдоподобия  удовлетворяет 
следующим условиям: 
1) дифференцируема по параметру 

2)  условие регулярности:  порядок дифференцирования по 

  и 

интегрирования по х можно менять. 

Модели,  для  которых  выполняются  эти  условия,  называют 

регулярными

.  Общее  необходимое  условие  состоит  в  том,  что 

выборочное  пространство 

X

  не  должно  зависеть  от 

неизвестного параметра 

Пусть параметр 

 - скалярный. Случайная величина 

U X

L(X

f X

i

i

n

( ; )

ln

; )

ln (

; )





1

                             (2.6) 

называется 

вкладом

  (или  функцией  вклада)  выборки 

X

  (i-е 

слагаемое  в  правой  части  (2.6)  называется  вкладом  i-го 
наблюдения  i=1,...,n).  Предполагается,  что  0<M

[U

2

(

X

;

)]<

для любого 



Рассмотрим  некоторые  свойства  вклада  U(

X

;

)  для 

регулярных  моделей.  Дифференцируя  условие  нормировки 
(2.5) по 

, получаем 

0









L(x

dx

L(x

L(x

dx M U X

; )

ln

; )

; )

[ ( ; )]

 

Для  удобства  и  краткости  записи  вместо  многомерного 
интеграла  будем  писать  одномерный,  но  иметь  в  виду 
многомерный. 

Итак, для регулярной модели 

M

[U (

X

;

)]=0,   



                          (2.7) 


background image

 

70 

 

Определим  функцию  информации  Фишера  или  просто 
информацию Фишера о параметре 

, содержащуюся в выборке 

X

i

n

(

)=D

[U(

X

;

)]=M

[U

2

(

X

;

)]                  (2.8) 

Величину: 

i(

)=i

1

(

)=

M

f X



ln (

; )

1

2







                     (2.9) 

называют 

количеством 

(фишеровской) 

информации, 

содержащейся в одном наблюдении. 

Из соотношений (2.6) - (2.9) следует, что i

n

(

)=n i(

), т.е. 

количество информации, содержащейся в выборке, возрастает 
пропорционально  объѐму  выборки.  Если  функция  f(x,

дважды  дифференцируема  по 

,  то  продифференцировав  при 

n=1 выражение (2.7) и применив тот же приѐм, что и ранее, т.е. 
умножим  и  разделим  на  f(x

1

,

),  получим  эквивалентное 

представление для i(

0

2

2

2













ln ( ; )

( ; )

ln ( ; )

( ; )

f X

f X

dx

f X

f X

dx

, т.е 

i(

)=



M

f X



2

1

2

ln (

; )

                                       (2.10) 

Пример:

 Вычислим функцию i(

) для нормальной модели 

N(

,

2

). Вклад одного наблюдения 

U(X

1

;

)=



ln (

; )

f X

X

1

1

2



2

1

2

2

1

ln (

; )

f X

 

 , 

отсюда по формуле (2.10) получаем: 

i(

)=

1

2