Файл: Основы теории надежности.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 12.12.2023

Просмотров: 307

Скачиваний: 13

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Пример 5.2 [37]. Были получены данные о временах отказа компрессора на конкретном технологическом предприятии. Регистрировались отказы компрессора за 21 год. За этот период произошла 321 авария, 90 из ко- торых были критическими. В этом контексте критический отказ опреде- ляется как отказ, приводящий к простою компрессора. С точки зрения непрерывного производства критические отказы являются наиболее су- щественными, поскольку эти сбои вызывают остановку процесса. Как и выше, пусть N (t) обозначает количество отказов компрессора в интервале времени [0, t). График N (t) относительно 90 критических отказов пред- ставлен на рис. 5.4.
Рис. 5.4. Число отказав как функция времени по данным примера 5.2
Очевидно, в этом случае график N (t) слегка выпуклый вверх, что ука- зывает на позитивную систему. На графике видно, что время между кри- тическими отказами в среднем увеличиваются со временем эксплуатации.
Также обратим внимание, что несколько отказов произошло за короткие промежутки времени. Это указывает на то, что отказы могут быть зави- симыми или что бригада технического обслуживания не смогла должным образом исправить неисправности с первой попытки.
5.3
Некоторые базовые понятия
Теперь мы определим некоторые основные понятия, относящиеся к счи- тающим процессам. Отметим, что все определяемые здесь понятия имеют смысл и могут быть применены для процессов общего вида, не обязатель- но считающих, и имеют много интерпретаций в разных прикладных обла- стях. Но мы будем давать здесь определения исключительно в терминах теории надежности. Например, мы интерпретируем события на временной оси как поток отказов (либо как моменты окончания ремонтов), и т.д.
81

Определение 5.2. Считающий процесс {N (t), t ≥ 0} называется про- цессом с независимыми приращениями, если для любой последователь- ности 0 ≤ t
1
< t
2
< · · · < t k
, k = 1, 2, . . . , приращения
[N (t
2
) − N (t
1
)], [N (t
3
) − N (t
2
)], . . . , [N (t k
) − N (t k−1
)]
являются независимыми в совокупности случайными величинами.
Если считающий процесс является процессом с независимыми прира- щениями, то это, в частности, означает, что число отказов в любом интер- вале времени не влияет на число отказов в любом другом интервале, если он не пересекается с первым.
Определение 5.3. Считающий процесс {N (t), t ≥ 0} называется про- цессом со стационарными приращениями, если для любых 0 ≤ s < t и любой постоянной c > 0 приращения [N (t) − N (s)] и [N (t + c) − N (s + c)]
имеют одинаковые распределения.
Если считающий процесс является процессом со стационарными при- ращениями, то это, в частности, означает, что число отказов в любом ин- тервале времени зависит только от длины интервала и не зависит от того,
где он располагается на временной оси.
Определение 5.4. Считающий процесс {N (t), t ≥ 0} называется стационарным процессом, если для любых 0 ≤ t
1
< t
2
< · · · < t k
,
k = 1, 2, . . . и любой постоянной c > 0 совместное распределение значе- ний N (t
1
), N (t
2
), . . . , N (t k
) совпадает с совместным распределением зна- чений N (t
1
+ c), N (t
2
+ c), . . . , N (t k
+ c).
Если считающий процесс является стационарным процессом, то отсю- да следует, что совместное распределение приращений [N (t
2
) − N (t
1
)],
[N (t
3
) − N (t
2
)], . . . , [N (t k
) − N (t k−1
)] совпадает с совместным распреде- лением приращений [N (t
2
+ c) − N (t
1
+ c)], [N (t
3
+ c) − N (t
2
+ c)], . . . ,
[N (t k
+ c) − N (t k−1
+ c)]. В частности, стационарный считающий процесс является процессом со стационарными приращениями.
Определение 5.5. Считающий процесс {N (t), t ≥ 0} называется орди- нарным (или регулярным) процессом, если для любого t > 0
P N (t + 4t) − N (t) ≥ 2
= o(4t), при 4t → 0,
(5.1)
где o(4t) обозначает функцию от 4t, для которой выполняется свой- ство: lim
4t→0
o(4t)/4t = 0 (т. е. бесконечно малую величину более вы- сокого порядка малости, чем 4t).
На практике ординарность означает, что в системе не может произойти два или более отказов одновременно.
82


Определение 5.6. Скорость (или интенсивность) считающего процес- са N (t) в момент времени t определяется как w(t) = W
0
(t) =
d dt
E N (t)
,
(5.2)
где W (t) = E N (t)
обозначает математическое ожидание N (t), т. е.
среднее число отказов (событий), произошедших в интервале [0, t).
Из определения 5.6 следует, что w(t) = W
0
(t) = lim
4t→0
E N (t + 4t) − N (t)

4t
,
(5.3)
и когда 4t мало,
w(t) ≈
E N (t + 4t) − N (t)

4t
=
Среднее число отказов в [t, t + 4t)
4t
Отсюда следует, что естественной статистической оценкой скорости процесса w(t) в момент времени t является b
w(t) =
N (t + 4t) − N (t)
4t
=
Число отказов в [t, t + 4t)
4t
(5.4)
для подходящего 4t. Отсюда следует, что скорость w(t) считающего про- цесса может рассматриваться как среднее число отказов (событий) за еди- ницу времени в момент времени t.
В случае ординарного считающего процесса, когда вероятность двух или более событий в [t, t + 4t) пренебрежимо мала при малых 4t, мы можем считать, что
N (t + 4t) − N (t) = 0
или 1.
Таким образом, среднее число отказов в [t, t+4t) ≈ вероятности отказа в интервале [t, t + 4t), поэтому w(t) ≈
Вероятность отказа в [t, t + 4t)
4t
(5.5)
Следовательно, величина w(t)4t может быть интерпретирована как вероятность отказа в интервале [t, t + 4t). Имея в виду (5.5), часто ин- тенсивность (скорость) ординарного процесса определяют формулой w(t) = lim
4t→0
P N (t + 4t) − N (t) = 1

4t
83

Отметим попутно, что
W (t
0
) = E N (t
0
)
=
t
0
Z
0
w(t) dt.
(5.6)
В случае, когда события считающего процесса связаны с возникновени- ем отказов, функция w(t) называется интенсивностью (или частотой)
отказов.
5.4
Основные типы считающих процессов
В этом разделе мы рассмотрим два типа считающих процессов: одно- родные пуассоновские процессы и процессы восстановления. Рассмотрим более подробно каждый из них.
5.4.1. Однородные процессы Пуассона. Пуассоновский процесс полу- чил свое название в честь французского математика Пуассона (1781–1840).
Этот процесс может быть определен несколькими различными способами.
Мы приведем три альтернативных определения, чтобы проиллюстриро- вать различные свойства этого процесса.
Определение 5.7 (A). Считающий процесс {N (t), t ≥ 0} называется однородным процессом Пуассона с интенсивностью λ > 0, если
1) N (0) = 0;
2) процесс имеет независимые приращения;
3) число событий в любом интервале длины t имеет распределение
Пуассона с параметром λ t, т. е. для любых s, t > 0
P N (s + t) − N (s) = k
=
(λ t)
k k!
e
−λ t
,
k = 0, 1, 2, . . . .
(5.7)
Замечание 5.1. Заметим, что из п. 3 определения 5.7 (A) следует, что этот процесс является также и процессом со стационарными приращени- ями. Кроме того, из п. 3 следует, что E(N (t)) = λ t, что ввиду сказанного выше объясняет, почему параметр λ называют интенсивностью (скоро- стью) процесса.
Определение 5.7 (B). Считающий процесс {N (t), t ≥ 0} называется однородным процессом Пуассона с интенсивностью λ > 0, если
1) N (0) = 0;
2) процесс имеет стационарные и независимые приращения;
84


3) P N (4t) = 1
= λ 4t + o(4t);
4) P N (4t) ≥ 2
= o(4t) (ординарность).
Третье определение (эквивалентное 5.7 (A) и 5.7 (B)) следующее.
Определение 5.7 (C). Считающий процесс {N (t), t ≥ 0} называется однородным процессом Пуассона с интенсивностью λ > 0, если N (0) = 0
и промежутки времени между событиями этого процесса T
1
, T
2
, . . .
независимы в совокупности и имеют одинаковое экспоненциальное рас- пределение с параметром λ.
Заметим, что из определения 5.7(C) следует, что момент k-го отказа
(события) S
k
= T
1
+ T
2
+ · · · + T
k однородного процесса Пуассона с пара- метром λ имеет распределение Эрланга с параметрами (k, λ) (как сумма k независимых экспоненциальных случайных интервалов T
i
). Плотность этого распределения f
S
k
(t) =
λ
(k − 1)!
(λ t)
k−1
e
−λ t
, для t ≥ 0,
(5.8)
функция распределения
F
S
k
(t) = P S
k
< t
=
t
Z
0
λ
(k − 1)!
(λ t)
k−1
e
−λ t dt =
= 1 −
k−1
X
n=0
(λt)
n n!
e
−λ t
=

X
n=k
(λt)
n n!
e
−λ t
,
(5.9)
где предпоследнее равенство в (5.9) получается последовательным инте- грированием по частям.
Теперь мы докажем эквивалентность данных выше определений про- цесса Пуассона.
Теорема 5.1. Определения 5.7 (A), 5.7 (B) и 5.7 (C) однородного пуассо- новского процесса {N (t), t ≥ 0} эквивалентны.
Справедливость теоремы 5.1 вытекает из следующих трех утвержде- ний, из которых мы докажем первые два.
Предложение 5.1. Если считающий процесс {N (t), t ≥ 0} удовлетво- ряет условиям, данным в определении 5.7 (C), то он удовлетворяет и условиям, данным в определениях 5.7 (A) и 5.7 (B).
Предложение 5.2. Если считающий процесс {N (t), t ≥ 0} удовлетво- ряет условиям, данным в определении 5.7 (A), то он удовлетворяет условиям, данным в определении 5.7 (C).
85

Предложение 5.3. Если считающий процесс {N (t), t ≥ 0} удовлетво- ряет условиям, данным в определении 5.7 (B), то он удовлетворяет условиям, данным в определении 5.7 (A).
Доказательство предложения 5.1. Вначале найдем распределение приращений процесса N (t). Возьмем произвольные s, t > 0 и рассмотрим приращение N (s + t) − N (s). Заметим, что в произвольный момент вре- мени s (не являющийся, вообще говоря, моментом события потока) время до следующего события имеет экспоненциальное распределение с парамет- ром λ. Это следует из марковского свойства экспоненциального распреде- ления: сколько бы не длилось «ожидание» очередного события к момен- ту s, в вероятностном смысле время до следующего события такое же, как было в момент, когда произошло предыдущее событие потока. Поэтому в момент s интервалы между будущими событиями потока независимы и имеют экспоненциальные распределения с параметром λ. Следовательно,
можно считать, что поток в момент s как бы начинается «заново» и мо- менты будущих событий не зависят от того, в какие моменты происходили события в прошлом, т. е. до момента s. Отсюда вытекает, во-первых, что приращения процесса на непересекающихся интервалах не зависят друг от друга и, во-вторых, что распределение приращения N (s + t) − N (s) в мо- мент s такое же, как и в момент 0, а именно: распределение N (s+t)−N (s)
совпадает с распределением N (t) − N (0) = N (t).
Найдем распределение N (t), т. е. вероятности событий P N (t) = k

для t > 0, k = 0, 1, 2, . . . . Заметим, что событие {N (t) = k} совпадает с событием {S
k
< t ≤ S
k+1
}, где S
k и S
k+1
обозначают моменты наступле- ния k-го и k + 1-го событий (отказов), соответственно. Тогда мы можем написать
P N (t) = k
= P S
k
< t ≤ S
k+1
= P S
k
< t
− P S
k+1
< t
=
=F
S
k
(t) − F
S
k+1
(t) =

X
n=k
(λt)
n n!
e
−λ t


X
n=k+1
(λt)
n n!
e
−λ t
=
(λ t)
k k!
e
−λ t
,
где в предпоследнем равенстве мы применили формулу (5.9).
Таким образом, выполнены все пункты определения 5.7 (A). Из заме- чания 5.1 следует, что приращения процесса N (t) не только независимые,
но также и стационарные, т. е. п. 2 определения 5.7 (B) также выполнен.
Осталось показать, что выполнены п. 3 и 4 определения 5.7 (B). В си- лу (5.7)
P N (4t) = 1
=
λ 4t
1!
e
−λ 4t
= λ 4t 1 − λ 4t + o(4t)
= λ 4t + o(4t),
86

что доказывает свойство из п. 3 определения 5.7 (B). Кроме того, в си- лу (5.7)
P N (4t) ≥ 2
= 1 − P N (4t) = 0 − P N (4t) = 1 =
= 1 − e
−λ 4t
− λ 4t + o(4t)
=
= 1 − (1 − λ 4t + o(4t)) − λ 4t + o(4t)
= o(4t).
Следовательно, свойство п. 4 определения 5.7 (B) (ординарность) также выполнено. Таким образом, предложение 5.1 доказано.

Доказательство предложения 5.2. Пусть выполняются условия 1–3
определения 5.7 (A), обозначим T
k
= S
k
− S
k−1
, k = 1, 2, . . . , интервалы времени между последовательными событиями потока. Найдем распреде- ление T
k
P T
k
≥ t
= P S
k
− S
k−1
≥ t
= P S
k
≥ S
k−1
+ t
,
что означает вероятность того, что в интервале [S
k−1
, S
k−1
+ t) не произо- шло ни одного события, т. е.
P T
k
≥ t
= P N (S
k−1
+ t) − N (S
k−1
) = 0
= P N (t) = 0 = e
−λt
,
и, следовательно, F
T
k
(t) = P T
k
< t
= 1 − e
−λt
, t > 0, независимо от величин интервалов T
i для i < k и i > k, т. е. интервалов, предшествую- щих k-му и следующих за ним. Таким образом, интервалы T
k независи- мы и имеют одинаковое экспоненциальное распределение с параметром λ.
Предложение 5.2 доказано.

Асимптотические свойства процесса Пуассона. Поскольку N (t) ∼
P ois(λ t), мы имеем E[N (t)] = D[N (t)] = λ t (у распределения Пуассона среднее значение и дисперсия равны параметру распределения). Имеют место следующие два основных факта:
N (t)
t
P
−→ λ
при t → ∞
(закон больших чисел), где
P
−→ означает сходимость по вероятности:
P

N (t)
t
− λ
> ε

−→
t→∞
0 для любого ε > 0 и
N (t) − λ t

λ t d
−→ N (0, 1)
при t → ∞
87

(центральная предельная теорема), где d
−→ означает сходимость по рас- пределению: P

N (t)−λ t

λ t
< x

−→
t→∞
Φ(x) , следствием чего является то,
что при достаточно больших t
P
N (t) − λ t

λ t
< x

≈ Φ(x),
для всех − ∞ < x < ∞,
где Φ(x) — стандартная нормальная функция распределения.
Из первого факта вытекает естественная статистическая оценка пара- метра интенсивности b
λ =
N (t)
t
,
второй факт может быть использован для построения доверительных ин- тервалов. Действительно, мы имеем:
P
|N (t) − λ t|

λ t
< z

≈ Φ(z) − Φ(−z) = 2Φ(z) − 1.
Пусть γ — доверительная вероятность, найдем значение z
γ
из условия
2Φ(z) − 1 = γ (т. е. z
γ
= Φ
−1
γ+1 2
). Тогда с вероятностью ≈ γ мы имеем
N (t)
t
− z
γ
pλ/t < λ <
N (t)
t
+ z
γ
pλ/t и, заменяя неизвестное значение λ
ее оценкой b
λ = N (t)/t, получаем, что с вероятностью ≈ γ выполняются неравенства
N (t) − z
γ
pN(t)
t
< λ <
N (t) + z
γ
pN(t)
t
Суммирование и декомпозиция однородных процессов Пуассона.
Из теории вероятностей известно, что сумма X
1
+X
2
двух независимых пуассоновских случайных величин с параметрами λ
1
и λ
2
, соответственно,
также имеет закон распределения Пуассона с параметром λ
1
+ λ
2
. Отсюда и из определения 5.7 (A) следует справедливость следующего утвержде- ния.
Предложение 5.4. Пусть {N
1
(t), t ≥ 0} и {N
2
(t), t ≥ 0} два незави- симых однородных процесса Пуассона с параметрами λ
1
и λ
2
соответ- ственно. Тогда процесс {N
1
(t) + N
2
(t), t ≥ 0}, образованный суммирова- нием (слиянием) двух процессов, также является однородным процессом
Пуассона с параметром λ
1
+ λ
2
Из предложения 5.4 очевидным образом следует, что процесс, обра- зованный суммированием 2 ≤ k < ∞ независимых однородных пуассо- новских процессов с параметрами λ
1
, . . . , λ
k
, также является процессом
Пуассона с параметром λ = λ
1
+ · · · + λ
k
88


Предположим теперь, что события (отказы) потока, связанного с одно- родным процессом Пуассона {N (t), t ≥ 0}, можно классифицировать как события типа 1 и типа 2, причем они встречаются в потоке независимо друг от друга с вероятностями p и (1 − p) соответственно. Например, так будет в случае, когда у нас есть последовательность отказов двух различ- ных типов (1 и 2), а p равно средней доле отказов типа 1.
Обозначим {N
p
(t), t ≥ 0} и {N
(1−p)
(t), t ≥ 0} процессы, образованные декомпозицией (расщеплением) исходного потока, считающие события ти- па 1 и типа 2 соответственно.
Предложение 5.5. Считающие случайные процессы {N
p
(t), t ≥ 0} и
{N
(1−p)
(t), t ≥ 0}, образованные расщеплением исходного однородного пуассоновского процесса {N (t), t ≥ 0}, также являются однородными процессами Пуассона с параметрами p λ и (1 − p) λ соответственно.
Кроме того, эти процессы независимы.
Доказательство. Рассмотрим процесс {N
p
(t), t ≥ 0} и проверим для него выполнение пунктов 1–3 определения 5.7 (A). Пункты 1 и 2, очевидно,
выполняются, поскольку они выполняются для исходного процесса N (t).
Докажем, что выполняется (5.7), т. е. п. 3. В силу стационарности прира- щений достаточно доказать это для приращения на интервале [0, t), t > 0.
Заметим, что если мы фиксируем значение основного процесса N (t) = n,
то при этом условии каждое из событий, произошедших в интервале [0, t)
с вероятностью p независимо от других событий, является событием ти- па 1. Мы можем посмотреть на ситуацию, связанную с подсчетом числа событий типа 1, как на n испытаний Бернулли с вероятностью «успеха» p.
Отсюда следует, что условное распределение N
p
(t) (числа событий типа 1
в интервале [0, t)) при условии N (t) = n является биномиальным Bin(n, p)
с параметрами n и p. Тогда, используя этот факт и формулу полной ве- роятности, мы можем написать, что для любого k = 0, 1, . . .
P N
p
(t) = k
=

X
n=0
P N
p
(t) = k
N (t) = n
P N (t) = n =
=

X
n=k
C
k n
p k
(1 − p)
n−k
(λ t)
n n!
e
−λ t
=
p k
k!
e
−λ t
(λ t)
k

X
n=k
[(1 − p)λ t]
n−k
(n − k)!
=
=
(p λ t)
k k!
e
−λ t

X
m=0
[(1 − p)λ t]
m m!
=
(p λ t)
k k!
e
−λ t e
(1−p)λ t
=
=
(p λ t)
k k!
e
−p λ t
89

Таким образом, процесс {N
p
(t), t ≥ 0} является однородным процес- сом Пуассона с параметром p λ. Для процесса {N
(1−p)
(t), t ≥ 0} факт,
очевидно, получается заменой p на 1 − p в приведенном выше доказатель- стве.
Независимость процессов следует из того, что события типа 1 и типа 2
происходят независимо друг от друга. Предложение 5.5 доказано.

Среднее число событий, происходящих в потоке {N
p
(t), t ≥ 0}, полу- ченном декомпозицией (просеиванием) исходного потока,
E(N
p
(t)) = p λ t.
5.4.2. Процессы восстановления. Теория восстановления первоначаль- но возникла при изучении стратегий замены технических компонентов,
но позже она была развита как ветвь в рамках общей теории случайных процессов. Как видно из названия, процесс используется для моделиро- вания восстановления или замены оборудования. В этом подразделе дано краткое описание некоторых основных аспектов теории восстановления,
которые представляют особый интерес для анализа надежности, включая формулы для расчета функции готовности и среднего числа отказов в течение определенного интервала времени. Последнее, например, может использоваться для определения оптимального распределения запасных частей.
Понятие процесса восстановления появляется, например, в следующей ситуации: объект введен в эксплуатацию в момент времени t = 0. Когда он выходит из строя в момент T
1
, то заменяется новым объектом того же типа или восстанавливается до состояния «как новый». Когда этот объект выходит из строя в момент времени T
1
+ T
2
, его снова заменяют, и так да- лее. Время замены считается пренебрежимо малым. Продолжительности жизни T
1
, T
2
, . . . предполагаются независимыми и имеющими одинаковое распределение случайными величинами. Количество отказов и восстанов- лений за интервал времени [0, t) обозначается N (t).
Определение 5.8. Считающий процесс {N (t), t ≥ 0}, N (0) = 0, у которого интервалы времени T
1
, T
2
, . . . независимы и имеют одинаковое распределение с функцией распределения
F
T
(t) = P T
i
< t

для i = 1, 2, . . . ,
называется процессом восстановления. Наблюдаемые события называ- ются восстановлениями, а F
T
(t) называется базовым распределением процесса восстановления.
90