Файл: Модальный метод синтеза.pdf

Добавлен: 15.02.2019

Просмотров: 1367

Скачиваний: 6

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
background image

причем  координаты  вектора 

  подбираются  таким  образом,  чтобы  матрица 

  была 

невырожденной, т.е. 

x

2

C

2

det C

2

0

Тогда из (2) можно выразить 

 

x

2

x

C

y C x

2

2

1

1 1

=

(

)

(3) 

Выражение  (3)  показывает,  что  если  выходной  вектор 

  измеряем  и  можно  измерить  (

y

n m

координат состояния 

x

, то оставшиеся   координат вектора 

m

x

 вычисляются  из (3). 

Для  увеличения  возможности  непосредственного  вычисления    можно  использовать  метод 

расширения исходной системы путем дифференцирования известного вектора   

y

&

&

y Cx CAx CBu

=

=

+

(4) 

Получим еще   уравнений для вычисления   координат вектора 

m

m

x

Продолжая  расширять  систему,  можно  набрать  столько  уравнений,  сколько  потребуется  для 

вычисления всех компонент вектора состояния 

x

. Следует, однако, помнить, что при этом необходимо 

реализовать операцию дифференцирования вектора  . 

y

 
 

Условие наблюдаемости

 

 
Понятие наблюдаемости позволяет ответить на вопрос ”всегда ли можно восстановить вектор 

x

 по 

измеряемому вектору  ?”. 

y

 
Динамическая система 

=

+

=

,

,

Cx

y

Bu

Ax

x&

 

является полностью наблюдаемой тогда и только тогда, когда матрица наблюдаемости: 

N

C

CA

CA

CA

n

=

2

1

Μ

  имеет полный ранг, равный  . 

n

Если  матрица 

N

  не  имеет  полного  ранга,  то  нельзя  полностью  восстановить  вектор 

x

  и  система 

является не полностью наблюдаемой. 

 
 
 
 

ЛИНЕЙНЫЕ САУ ПРИ СЛУЧАЙНЫХ ВОЗДЕЙСТВИЯХ

 

 
Ранее  нами  изучены  линейные  САУ  при  совершенно  определенных,  детерминированных 

воздействиях, которые описываются заданной функцией времени. 

Однако такие воздействия далеко не исчерпывают все возможные условия работы САУ. Во многих 

случаях  воздействия  нельзя  определить  наперед  известной  функцией  времени.  Они  могут  принимать 
самые разнообразные случайные значения. В таких случаях оценивается только вероятность появления 
воздействия в тот или иной момент времени. 

Исследование  поведения  САУ  под  влиянием  случайных  воздействий  осуществляется  методами 

теории  случайных  функций  и  называется  статистической  динамикой  автоматических  систем. 
Статистический  расчет  в  САУ  ведется  в  тех  случаях,  когда  период  изменения  случайной  функции 
соизмерим с временем регулирования системы. Он состоит из следующих основных разделов: 

1.  Определение средних характеристик сигналов; 
2.  Оценка качества САУ при случайных воздействиях; 
3.  Расчет оптимальной системы на основе полученных результатов о сигналах и качестве систем 

 

88


background image

Характеристики случайных функций

 

 

Процесс,  описываемый  случайными  функциями  называется 

случайным  процессом.  Случайной  функцией 

x t

( )

 

t

называется  такая 

функция,  значение  которой  при  любом  заданном 

  является 

случайной  величиной.  Случайная  функция,  полученная  в  результате 
опыта,  называется  реализацией  случайной  функции  и  является 
определенной, неслучайной. 

Таким  образом,  случайная  функция  представляет  собой 

совокупность множества реализаций (рис.124). 

Задачей статистического метода является изучение не каждой из 

функций 

x t

k

( )

,  характеризующую  случайный  процесс,  а  изучение  свойств  всего  множества  в  целом, 

при помощи усреднения свойств входящих в этот процесс функций. 

x

t

t

1

t

2

t

n

Рис.124

 

Характер протекания  случайного процесса оценивается его вероятностными характеристиками. 
1.  Одной  из  важнейших  характеристик  случайного  процесса  является  функция  распределения 

вероятности 

F x

( )

Так  в  момент  времени 

  (рис.124)  значения  отдельных  реализаций 

t

t

=

1

x t

x t

1

1

2

1

( ),

,

( ),

,

Κ

Κ

и 

т.д.  будут  различны.  Вероятность  того,  что  эти  значения  не  будут  больше  некоторой  величины 

  и 

является функцией распределения вероятности. 

x

1

[

]

F x t

P x t

x

1

1

1

1

( , )

( )

=

(1) 

Пример:  Экспериментальное определение функции распределения вероятности. 
Сделано  10  опытов.  Пусть  наблюдаемые  значения 

  в  10  системах  в  момент  времени 

x

i

t

t

=

1

 

оказались следующими: 

i 

10 

x

i

 

0,2 

0,4 

0,3 

0,6 

0,7 

0,9 

0,3 

0,4 

0,5 

0,4 

F x

( )

 

0,1 

0,6 

0,3 

0,8 

0,9 

1,0 

0,3 

0,6 

0,7 

0,6 

Найдем  вероятность  того,  что 

  будет  не  больше 

x

i

x

= 0 5

,

.  Число  событий  удовлетворяющих 

неравенству 

 равно 

, всего опытов 10, следовательно 

x

i

≤ 0 5

,

i

= 7

F

t

1

1

0 5

7

10

0 7

( , ; )

,

=

Вычислим 

F x

( )

  для  разных  значений 

  (табл.). 

x

i

Видим,  что 

F x

( )

→ 0

  при  убывании 

x

F x

( )

→ 1

  при 

возрастании 

x

Если функция 

F x

( )

 имеет производную, то величина 

 

f x t

dF x t

dx

1

1

1

( , )

( , )

=

 

(2) 

называется одномерной плотностью вероятности. 

Величина 

[

]

dx

1

+

f x t dx

P x

x t

x

1

1

1

1

1

1

( , )

( )

=

 

представляет  собой  вероятность  того,  что  случайная 
функция 

x t

( )

x

  в  момент  времени 

  имеет  значение  в 

интервале от 

 до 

t

t

=

1

x

dx

1

1

1

+

Аналогично  рассмотренному  вводятся  понятия  о 

-

мерной функции распределения 

n

F x

x t

t

n

n

( ,

, , ,

, )

1

1

n

Κ

Κ

 и  -мерной плотности вероятности 

n

F(x)

F(x)

f(x)

x

Рис.125

0,2

0,2

0,2

0,4

0,6

0,8

1,0

0,4

0,6

0,8

1,0

f x

x t

t

d F x

x t

t

dx

dx

n

n

n

n

n

n

n

( , ,

, , , )

( , ,

, , , )

1

1

1

1

1

Κ

Κ

Κ

Κ

Κ

=

n

(3) 

Для ТАУ важное значение имеет также другое разделение случайных процессов – на стационарные 

и нестационарные. 

Стационарный  случайный  процесс  –  это  аналог  установившегося  процесса  в  детерминированной 

системе.  Статистический  характер  стационарного  процесса  неизменен  во  времени.  В  них  функции 
распределения и плотности вероятности всех процессов не зависят от времени. 

 

89


background image

F x

x t

t

F x

x t

t

f x

x t

t

f x

x t

t

n

n

n

n

n

n

n

n

n

n

n

n

( , ,

, , , )

( , ,

,

, ,

)

( , ,

, , , )

( , ,

,

, ,

)

1

1

1

1

1

1

1

1

Κ

Κ

;

.

Κ

Κ

Κ

Κ

Κ

Κ

=

+

+

=

+

+

τ

τ

τ

τ

 

(4) 

В практике исследования САУ широкое распространение получили более простые, но менее полные 

характеристики случайных функций: математическое ожидание, дисперсия, корреляционная функция и 
спектральная плотность. 

1.  Математическое  ожидание.    Математическим  ожиданием  случайной  функции  называют 

величину. 

m t

M x

x t f x t dx

x

( )

{ }

( ) ( , )

=

=

−∞

1

(5) 

Кривая 

m t

x

( )

  является  некоторой  средней  кривой,  относительно  которой  колеблются  значения 

реализаций случайной функции. 

Для стационарной случайной функции математическое ожидание 

m t

const

x

( )

=

2. Дисперсия.  Дисперсия случайной функции определяется выражением 

[

]

σ

=

=

−∞

M x t

m t

x t

m t

f x t d

x

x

{ ( )

( )}

( )

( )

( , )

2

2

1

x

(6) 

Она  равна  математическому  ожиданию  квадрата  отклонения  случайной  функции  от  её  среднего 

значения.  Дисперсия  –  есть  усредненная  мера  отклонения  случайной  функции  от  ее  математического 
ожидания. Для стационарной случайной функции дисперсия 

σ

const

. Дисперсия регулярной функции 

σ

= 0

Среди  законов  распределения  случайных  величин  особый  интерес  представляет  нормальное  или 

Гауссово  распределение,  которое  встречается  в  большинстве  практических  задач.  Плотность 
вероятности его 

f x t

e

x

x m

x

x

1

2

1

2

2

2

( , )

(

)

=

π σ

σ

(7) 

Функция  распределения 

F x

( )

 

x

для  нормального  закона  получается  путем  интегрирования 

выражения (7). 

Кроме того, в теории случайных процессов пользуются двумя понятиями средних значений. 
1.  Среднее  по  множеству  (математического  ожидания),  определены  на  основании  наблюдения  за 

множеством однотипных систем, находящихся в однотипных условиях. 

~

( ) ( , )

x

x t f x t d

=

−∞

1

(8) 

2. Среднее по времени, определенные на основании наблюдения за одной системой на протяжении 

достаточно длительного времени 

T

 

x

T

x t dx

T

T

T

=

→∞

lim

( )

1

2

(9) 

Вообще, для случайных процессов 

~x x

Одним  из  замечательных  свойств  стационарных  процессов  является 

~( )

( )

x t

x t

=

  –  эргодическая 

гипотеза. и эргодическая теорема. 

Физический  смысл  эргодической  гипотезы  (теоремы)  имеет  большое  практическое  значение,  т.к. 

она  позволяет  заменить  труднодоступное  одновременное  наблюдение  за  множеством  систем 
длительным наблюдением за одной системой. 

3. Корреляционные функции.   Для характеристики степени изменчивости случайного процесса при 

изменениях 

  вводится  понятие  корреляционной  или  автокорреляционной  функции  случайного 

процесса. 

t

Корреляционная  функция  связывает  между  собой  отклонения  случайной  функции  от  её 

математического  ожидания  при  двух  значениях  аргумента 

  и 

.  Она  равна  математическому 

ожиданию этих отклонений. 

t

1

t

2

 

90


background image

[

][

]

{

}

[

][

]

.

)

,

,

,

(

)

(

)

(

)

(

)

(

)

(

)

(

)

(

)

(

)

,

(

2

1

2

1

2

1

2

2

2

1

1

2

2

1

1

2

1

∫ ∫

=

=

=

dx

dx

t

t

x

x

f

t

m

t

x

t

m

t

x

t

m

t

x

t

m

t

x

M

t

t

R

x

x

x

x

x

 

(10) 

Для  стационарного  процесса  корреляционная  функция  зависит  только  от  одной  переменной 

τ

=

t

t

1

х моментов времени. 

2

 – разности дву

Выражение  корреляционной  функции  (10)  –  есть  среднее  по  множеству.  Однако,  для  случайных 

процессов  для  которых  применима  эргодическая  гипотеза,  корреляционная  функция  может  быть 
определена как среднее по времени 

[

][

R

T

x t

m t

x t

m t

dt

x

T

x

x

T

T

( )

lim

( )

( )

(

)

(

)

τ

τ

=

+

→∞

1

2

]

τ

+

 

(11) 

или 

R

T

x t x t

dt

x

T

T

T

( ) lim

( ) (

)

τ

τ

=

+

→∞

1

2

(12) 

Последнее  выражение  корреляционной  функции  (12),  записанное  для  случайных  процессов,  мы  и 

будем преимущественно использовать в дальнейшем. 

Основные свойства корреляционных функций: 

1.  Начальное  значение  корреляционной  функции  при 

τ

= 0

  равно  среднему  значению  квадрата 

случайной функции 

x t

2

( )

, т.е. является положительной величиной. 

2.  Корреляционная  функция  (12)  стремиться  к  нулю  при 

τ

→ ∞

.  При  малых 

τ

,  значения 

x t

( )

  и 

x t

(

+ )

τ

 более тесно связаны друг с другом, чем при больших 

τ

,  т.е. вероятность того, что они будут 

мало  отличаться  друг  от  друга,  будет  больше  при  малых 

τ

.  При 

больших 

τ

  вероятность  получить  положительные  произведения  под 

интегралом  (12)  (рис.125)  приближается  к  вероятности  получить 
отрицательные  произведения,  поэтому  с 

τ

→ ∞

  сумма  таких 

произведений 

→ 0

3.  Значение  корреляционной  функции  при 

τ

≠ 0

  не  может  быть 

больше её начального значения 

x t

R

2

0

( )

( )

=

≥ R

x

x

( )

τ

4. Корреляционная функция есть функция четная (рис.127) 

R

x

(τ)

τ

Рис.126

 

 

R

x t

x t

x t x t

R

x

x

( )

(

) ( )

( ) (

)

(

)

τ

τ

τ

=

+

=

=

τ

0

 
 
 
 
 
 
5.  Если  случайная  функция  содержит  постоянную 

составляющую 

,  то  корреляционная  функция  (12) 

содержит постоянную составляющую 

a

a

0

2

R

x

(τ)

t

−τ

Рис.127

6.  Если  случайная  функция  содержит  периодическую  составляющую,  то корреляционная функция 

также содержит периодическую составляющую той же частоты. 

Пример: 

x t

A

t

( )

cos(

)

=

+

ω ϕ

 – детерминированная функция. 

[

]

.

cos

2

)

2

2

cos(

cos

2

1

2

lim

)

cos(

)

cos(

2

1

lim

)

(

2

2

2

ωτ

ϕ

ωτ

ω

ωτ

ϕ

ωτ

ω

ϕ

ω

τ

A

dt

t

T

A

dt

t

t

A

T

R

T

T

T

T

T

T

x

=

+

+

=

=

+

+

=

 

(13) 

 

 

91

Для оценки связи двух случайных процессов, вводится понятие взаимной корреляционной функции 


background image

R

T

x t y t

dt

xy

T

T

T

( ) lim

( ) (

)

τ

τ

=

+

→∞

1

2

(14) 

Таким  образом,  корреляционная  функция  не  зависит  от 

сдвига фазы и есть косинусойда (рис.128). 

R

x

(τ)

τ

0

Рис.128

 
Случайный  процесс  без  периодической  составляющей  имеет 

корреляционную функцию (рис.126). 

Случайная 

функция, 

содержащая 

в 

своем 

составе 

периодическую  составляющую,  имеет  корреляционную  функцию 
(рис.129). 

 

R

x

(τ)

0

Рис.129

τ

 
 
 
 
 
 

 
 
 

Спектральная плотность

 

 
Спектральной плотностью называется выражение 

[

]

[

]

S j

T

M X

j

X

j

T

M A j

T

T

T

T

T

T

(

) lim

(

)

(

)

lim

(

)

ω

ω

ω

=

=

→∞

→∞

1

2

1

2

2

ω

(1) 

где 

  –  изображение  Фурье  для  случайной  функции 

X

j

x t e

dt

T

j t

T

T

(

)

( )

ω

ω

=

+

x t

( )

  на  интервале 

− T T

,

.  Термин  ”спектральная  плотность”  обязан  своим  происхождением  теории  электрических 

колебаний. 

Пусть 

x t

( )

 – напряжение на сопротивлении в 1ом. Тогда величина 

[ ]

1

2

2

T

x t

dt

T

T

( )

+

  численно  равна  энергии  выделяемой  на  этом  сопротивлении  в  единицу  времени. 

Аналогично предыдущему, вводится понятие и о взаимной спектральной плотности 

[

]

S

j

T

M X

j

X

j

T

12

1

2

1

2

(

) lim

(

)

(

)

ω

ω

=

→∞

(2) 

ω

2

где 

 – изображение по Фурье от случайных функций 

X X

1

,

x t

1

( )

 и 

x t

2

( )

, соответственно. 

τ

d

τ

Установим связь между корреляционными функциями и спектральными плотностями 

S

j

R

e

d

j t

12

12

(

)

( )

ω

τ

ω

=

−∞

+∞

(3) 

 

S

R

e

j

( )

( )

ω

τ

ωτ

=

−∞

+∞

(4) 

т.е.  спектральная  плотность    (4)  (взаимная  спектральная  плотность  (3))  представляет  собой 

изображение Фурье от корреляционной (взаимной) функции. 

На основе теории интеграла Фурье можно найти и обратные соотношения 

R

S

e

j

( )

( )

τ

π

ω

ω

ωτ

=

−∞

+∞

1

2

d

(5) 

 

 

92