ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 12.12.2023
Просмотров: 306
Скачиваний: 13
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Мы будем считать, что E(T
i
) = µ, D(T
i
) = σ
2
< ∞ для i = 1, 2, . . . . За- метим, что ранее введенный однородный процесс Пуассона является част- ным случаем процесса восстановления, когда базовое распределение — экс- поненциальное с параметром λ. Таким образом, процесс восстановления может рассматриваться как обобщение однородного процесса Пуассона.
Понятия, которые были введены для общего считающего в разделе 5.3,
имеют отношение также и к процессу восстановления. Однако теория про- цессов восстановления первоначально разрабатывалась как особая теория,
в результате чего многие понятия в ней получили специфические назва- ния. Поэтому мы перечислим основные понятия, связанные с процессами восстановления, и введем используемую для них терминологию.
1. Время до n-го восстановления (или время до n-го события):
S
n
= T
1
+ T
2
+ · · · + T
n
=
n
X
i=1
T
i
2. Число восстановлений в интервале времени [0, t):
N (t) = max{n : S
n
< t}.
3. Функция восстановления:
W (t) = E(N (t)).
Таким образом, W (t) — это среднее число восстановлений на интервале времени [0, t).
4. Плотность восстановления:
w(t) =
d dt
W (t).
Отметим, что плотность восстановления совпадает с величиной, на- званной ранее интенсивностью отказов, когда событиями потока счита- лись отказы.
Среднее количество восстановлений за временной интервал [t
1
, t
2
):
W (t
2
) − W (t
1
) =
t
2
Z
t
1
w(t) dt.
Распределение S
n
. Величина S
n является суммой n независимых одина- ково распределенных случайных величин T
1
+ T
2
+ · · · + T
n
, и ее функция
91
распределения F
(n)
T
(t) является n-кратной сверткой функции F
T
(t):
F
(n)
T
(t) =
t
Z
0
F
(n−1)
T
(t − x) dF
T
(x).
(5.10)
Хотя точная формула и известна, ее применение, как правило, приво- дит к очень сложным вычислениям, и явный вид функции распределения можно найти только в ряде частных случаев. Например, если T
i имеют экспоненциальное распределение с параметром λ, то, как мы знаем, S
n имеет распределение Эрланга с параметром (n, λ). Иногда распределение
S
n
(или хотя бы такие его важные характеристики, как математическое ожидание и дисперсия) удается найти с использованием преобразования
Лапласа или характеристических функций.
Однако если n велико, то распределение можно приблизить с помощью центральной предельной теоремы, согласно которой
P(S
n
< t) = P
S
n
− nµ
√
nσ
<
t − nµ
√
nσ
≈ Φ
t − nµ
√
nσ
Распределение N (t) и функция восстановления. В силу того, что
E(T
i
) = µ при всех i = 1, 2, . . . , среднее число восстановлений за единицу времени есть 1/E(T
i
) = 1/µ.
Для процесса восстановления имеет место закон больших чисел:
N (t)
t
P
−→
1
µ
, при t → ∞.
Когда t велико, N (t) ≈ t/µ, это означает, что процесс восстановления
N (t) близок к линейному при больших t.
Используя условие на T
1
и формулу полной вероятности, получаем
W (t) = E(N (t)) =
∞
Z
0
E(N (t) | T
1
= x) dF
T
(x),
(5.11)
где
E(N (t) | T
1
= x) =
(
0,
если t < x;
1 + W (t − x),
если t ≥ x.
(5.12)
(Если первое восстановление происходит в момент x (x ≤ t), то процесс в этой точке как бы начинается заново, поэтому среднее число восстановле- ний на (0, t) будет равно 1 (так как одно восстановление уже состоялось)
плюс среднее число восстановлений на (x, t), равное W (t − x).)
92
(n)
T
(t) является n-кратной сверткой функции F
T
(t):
F
(n)
T
(t) =
t
Z
0
F
(n−1)
T
(t − x) dF
T
(x).
(5.10)
Хотя точная формула и известна, ее применение, как правило, приво- дит к очень сложным вычислениям, и явный вид функции распределения можно найти только в ряде частных случаев. Например, если T
i имеют экспоненциальное распределение с параметром λ, то, как мы знаем, S
n имеет распределение Эрланга с параметром (n, λ). Иногда распределение
S
n
(или хотя бы такие его важные характеристики, как математическое ожидание и дисперсия) удается найти с использованием преобразования
Лапласа или характеристических функций.
Однако если n велико, то распределение можно приблизить с помощью центральной предельной теоремы, согласно которой
P(S
n
< t) = P
S
n
− nµ
√
nσ
<
t − nµ
√
nσ
≈ Φ
t − nµ
√
nσ
Распределение N (t) и функция восстановления. В силу того, что
E(T
i
) = µ при всех i = 1, 2, . . . , среднее число восстановлений за единицу времени есть 1/E(T
i
) = 1/µ.
Для процесса восстановления имеет место закон больших чисел:
N (t)
t
P
−→
1
µ
, при t → ∞.
Когда t велико, N (t) ≈ t/µ, это означает, что процесс восстановления
N (t) близок к линейному при больших t.
Используя условие на T
1
и формулу полной вероятности, получаем
W (t) = E(N (t)) =
∞
Z
0
E(N (t) | T
1
= x) dF
T
(x),
(5.11)
где
E(N (t) | T
1
= x) =
(
0,
если t < x;
1 + W (t − x),
если t ≥ x.
(5.12)
(Если первое восстановление происходит в момент x (x ≤ t), то процесс в этой точке как бы начинается заново, поэтому среднее число восстановле- ний на (0, t) будет равно 1 (так как одно восстановление уже состоялось)
плюс среднее число восстановлений на (x, t), равное W (t − x).)
92
Из формул (5.11) и (5.12) следует, что
W (t) =
t
Z
0 1 + W (t − x)
dF
T
(x) = F
T
(t) +
t
Z
0
W (t − x) dF
T
(x).
Мы получили интегральное уравнение для функции восстановле- ния W (t)
W (t) = F
T
(t) +
t
Z
0
W (t − x) dF
T
(x),
которое известно как фундаментальное уравнение восстановления и в некоторых случаях может быть решено для W (t) аналитически, но в боль- шинстве случаев решается с помощью численных методов.
ЗАДАЧИ
5.1. Структура состоит из n последовательных независимых (в смысле на- дежности) блоков, каждый из которых имеет постоянную интенсивность отказов λ
i
, i = 1, 2, . . . , n. При отказе блока он немедленно ремонтирует- ся (или заменяется) за короткое время. Найдите среднее время наработ- ки между двумя последовательными отказами структуры. Найдите закон распределения случайной величины N (t) — числа отказов системы за вре- мя t.
5.2. Система состоит из n последовательных независимых блоков, име- ющих постоянные интенсивности отказов, причем доля отказов, прихо- дящихся на блок B системы, равна 0 < p < 1. Известно, что среднее время наработки между отказами системы равно A
ср.
. Найдите (выразите через p и A
ср.
) интенсивность отказов блока B и его среднее время нара- ботки до отказа A
ср.B
. Найдите вероятности P N
B
(t) = k
, k = 0, 1, 2, . . . ,
где N
B
(t) — число отказов блока B за время t.
5.3. Деталь технической системы имеет постоянную интенсивность отка- зов λ = 2 (год)
−1
. В случае отказа она мгновенно заменяется точно такой же новой деталью. Известно, что в определенный фиксированный момент времени t
0
> 0 деталь была исправна. Найдите математическое ожидание момента времени T , в который потребуется очередная замена детали.
5.4. Структура состоит из трех последовательных блоков, отказы которых можно считать независимыми. Доли отказов блоков 1, 2 и 3 находятся в соотношении 2 : 3 : 5. Среднее время T
S ср.
между отказами системы из-за отказа одного из блоков равно 5 дн. Найдите интенсивности отказов λ
i и
средние времена наработки до отказа T
i ср.
для блоков i = 1, 2, 3.
93
5.5. Процесс отказов турникета в метро представляет собой однородный процесс Пуассона с интенсивностью λ = 0.001 ч
−1
. На станции установ- лено 10 одинаковых турникетов. В случае отказа турникет восстанавли- вается за короткое время, пренебрежимо малое по сравнению с временем нормальной работы. Найдите вероятность того, что в течение 18 ч непре- рывной работы произойдет не менее трех отказов турникетов на станции.
1 2 3 4 5 6 7 8 9 10 11
Каково среднее время между двумя последовательными вызовами ремонт- ной службы?
5.6. Докажите, что для однородного процесса Пуассона {N (t), t ≥ 0}
выполняются следующие соотношения:
а) lim
4t→0
P(N (4t) ≥ 1)
P(N (4t) = 1)
= 1,
б) lim
4t→0
P(N (4t) ≥ 2 | N (4t) ≥ 1) = 0.
5.7. Пусть {N (t), t ≥ 0} — однородный процесс Пуассона с интенсивно- стью λ > 0. Требуется:
1) найти
E N (t) · N (t + s)
, t, s ≥ 0;
2) доказать, что
P N (t) = k
N (s) = n
= C
k n
t s
k
1 −
t s
n−k для 0 < t < s, 0 ≤ k ≤ n.
5.8. Пусть N
1
(t) и N
2
(t), t ≥ 0} — два независимых процесса Пуассона с интенсивностями λ
1
и λ
2
соответственно. Докажите, что для любых целых неотрицательных k ≤ n и любого t > 0
P N
1
(t) = k
N
1
(t) + N
2
(t) = n
= C
k n
λ
1
λ
1
+ λ
2
k
λ
2
λ
1
+ λ
2
n−k
5.9. Пусть {N (t), t ≥ 0} — однородный процесс Пуассона с интенсивно- стью λ > 0, а X – независящая от него случайная величина, имеющая экспоненциальное распределение с плотностью µe
−µx
, x ≥ 0. Найдите ве- роятности P N (X) = k
для k = 0, 1, 2, . . . .
5.10. Пусть {N (t), t ≥ 0} — однородный процесс Пуассона, интенсивность которого λ является случайной величиной с плотностью µe
−µx
, x ≥ 0. Най- дите вероятности P N (t) = k
для произвольного t > 0 и k = 0, 1, 2, . . . .
5.11. Пусть {N (t), t ≥ 0} — однородный процесс Пуассона с интенсивно- стью λ > 0 и пусть T
1
обозначает время до наступления первого события процесса. Покажите, что
P T
1
≤ s
N (t) = 1
=
s t
для s ≤ t.
94
5.12. Пусть {N (t), t ≥ 0} — считающий процесс с возможными значения- ми 0, 1, 2, . . . . Покажите, что среднее значение N (t) может быть представ- лено как
E N (t)
=
∞
X
n=1
P N (t) ≥ n
=
∞
X
n=0
P N (t) > n
.
5.13. Пусть {N (t), t ≥ 0} — однородный процесс Пуассона с интенсивно- стью λ > 0 и пусть S
1
, S
2
, . . . обозначают моменты наступления событий процесса. Покажите, что в предположении N (t) = n плотность совмест- ного распределения величин S
1
, S
2
, . . . , S
n равна f
S
1
,S
2
,...,S
n x
1
, x
2
, . . . , x n
N (t) = n
=
n!
t n
для 0 ≤ x
1
≤ · · · ≤ x n
≤ t.
5.14. Пусть {N (t), t ≥ 0} — процесс восстановления. Верны ли следующие утверждения об эквивалентности событий:
1) N (t) < r ⇐⇒ S
r
≥ t;
2) N (t) ≤ r ⇐⇒ S
r
≤ t;
3) N (t) > r ⇐⇒ S
r
< t.
95
Глава 6
Марковские модели в теории надежности
6.1
Введение
В предыдущих главах мы предполагали, что системы и их элементы могут находиться только в одном из двух состояний: рабочем состоянии или состоянии отказа. Получаемые при этом модели не вполне подхо- дят для анализа ремонтопригодных систем. В этой главе мы введем и будем использовать для описания состояний систем особый тип случай- ных процессов, называемых цепями Маркова, для моделирования систем с несколькими состояниями и переходами между этими состояниями.
Цепь Маркова — это случайный процесс {X(t), t ≥ 0}, который облада- ет марковским свойством (мы определим это свойство позже). Случайная переменная X(t) обозначает состояние процесса в момент времени t.
Совокупность всех возможных состояний называется пространством состояний, и мы будем обозначать его X . Пространство состояний X яв- ляется либо конечным, либо счетным бесконечным. В большинстве наших приложений пространство состояний будет конечным, а состояния будут соответствовать реальным состояниям системы. Если не указано иное, мы полагаем X = {0, 1, 2, . . . , r}, т. е. X содержит r + 1 различных состояний.
Время может быть дискретным и принимать значения 0, 1, 2, . . . или непрерывно и принимать значения 0 ≤ t < ∞. Когда время дискретно,
мы имеем цепь Маркова с дискретным временем; когда время непрерыв- но, мы имеем марковскую цепь с непрерывным временем. Цепь Маркова с непрерывным временем также называется марковским процессом. В слу- чае, когда время дискретно, мы будем обозначать время через n и цепь
Маркова с дискретным временем через {X
n
, n = 0, 1, 2, . . . }.
В основном будем использовать для моделирования надежности и го- товности систем цепи Маркова с непрерывным временем. В этой главе
96
мы сначала дадим определение марковского свойства и марковских про- цессов. Затем получим систему линейных дифференциальных уравнений первого порядка, называемых уравнениями Колмогорова, для нахождения распределения вероятностей P (t) = (P
0
(t), P
1
(t), . . . , P
r
(t)) марковского процесса в момент времени t, где P
i
(t) — вероятность того, что процесс
(система) находится в состоянии i в момент времени t. Затем покажем,
что P (t) при определенных условиях сходится к пределу P , когда t → ∞.
Этот предел называется стационарным (или установившимся) распре- делением процесса (состояний системы). Затем найдем несколько пока- зателей производительности системы, например, частоту посещений со- стояния, «готовность» (исправность) системы, среднее время до первого отказа. Затем найдем стационарное распределение и показатели произво- дительности для некоторых простых систем (таких, например, как после- довательные и параллельные структуры), систем с зависимыми компонен- тами и некоторых систем с резервированием. В конце обсудим некоторые подходы к анализу более сложных систем и обсудим зависящие от времени решения системы уравнений Колмогорова.
Пример 6.1 [37]. Рассмотрим параллельную структуру с двумя элемен- тами. Каждый элемент может находиться в одном из двух состояний: со- стоянии функционирования и состоянии отказа. Поскольку каждый эле- мент имеет два возможных состояния, система имеет 2 2
= 4 возможных состояний, и пространство состояний X = {0, 1, 2, 3}. Система находит- ся в состоянии отказа 0, когда оба элемента отказали. Система полностью функционирует в состоянии 3. В состояниях 1 и 2 система функционирует с одним отказавшим элементом.
Если система имеет n элементов и каждый из них имеет два состояния
(функционирование и отказ), то система будет иметь не более чем 2
n раз- личных состояний. В некоторых приложениях имеет смысл введение более чем двух состояний для каждого элемента. Например, насос может иметь три состояния: работа, режим ожидания или отказ. Производящее что- либо устройство может работать с 100 %-ной мощностью, 80 %-ной мощ- ностью и т. д. Иногда в приложениях важно различать различные типы отказа элемента, и мы можем определить типы отказа как состояния. По- этому для сложной системы число состояний может быть огромным, и нам может потребоваться упростить модель системы и отдельно рассмотреть модули этой системы.
97
0
(t), P
1
(t), . . . , P
r
(t)) марковского процесса в момент времени t, где P
i
(t) — вероятность того, что процесс
(система) находится в состоянии i в момент времени t. Затем покажем,
что P (t) при определенных условиях сходится к пределу P , когда t → ∞.
Этот предел называется стационарным (или установившимся) распре- делением процесса (состояний системы). Затем найдем несколько пока- зателей производительности системы, например, частоту посещений со- стояния, «готовность» (исправность) системы, среднее время до первого отказа. Затем найдем стационарное распределение и показатели произво- дительности для некоторых простых систем (таких, например, как после- довательные и параллельные структуры), систем с зависимыми компонен- тами и некоторых систем с резервированием. В конце обсудим некоторые подходы к анализу более сложных систем и обсудим зависящие от времени решения системы уравнений Колмогорова.
Пример 6.1 [37]. Рассмотрим параллельную структуру с двумя элемен- тами. Каждый элемент может находиться в одном из двух состояний: со- стоянии функционирования и состоянии отказа. Поскольку каждый эле- мент имеет два возможных состояния, система имеет 2 2
= 4 возможных состояний, и пространство состояний X = {0, 1, 2, 3}. Система находит- ся в состоянии отказа 0, когда оба элемента отказали. Система полностью функционирует в состоянии 3. В состояниях 1 и 2 система функционирует с одним отказавшим элементом.
Если система имеет n элементов и каждый из них имеет два состояния
(функционирование и отказ), то система будет иметь не более чем 2
n раз- личных состояний. В некоторых приложениях имеет смысл введение более чем двух состояний для каждого элемента. Например, насос может иметь три состояния: работа, режим ожидания или отказ. Производящее что- либо устройство может работать с 100 %-ной мощностью, 80 %-ной мощ- ностью и т. д. Иногда в приложениях важно различать различные типы отказа элемента, и мы можем определить типы отказа как состояния. По- этому для сложной системы число состояний может быть огромным, и нам может потребоваться упростить модель системы и отдельно рассмотреть модули этой системы.
97
6.2
Марковские процессы
Рассмотрим случайный процесс {X(t), t ≥ 0} с непрерывным време- нем и пространством состояний X = {0, 1, 2, . . . , r}. Предположим, что состояние процесса в момент s есть X(s) = i. Условная вероятность, что процесс будет находиться в состоянии j в момент s + t есть
P X(s + t) = j
X(s) = i, X(u) = x(u), 0 ≤ u < s
,
где x(u), 0 ≤ u < s, – неслучайная функция, обозначающая «историю»
(траекторию) процесса до (за исключением) момента s.
Определение 6.1. Говорят, что процесс обладает марковским свой- ством, если
P X(s + t) = j
X(s) = i, X(u) = x(u), 0 ≤ u < s
=
= P X(s + t) = j
X(s) = i
(6.1)
для всех возможных траекторий x(u), 0 ≤ u < s.
Другими словами, когда известно настоящее состояние процесса (в мо- мент s), его будущее развитие (при t > s) не зависит от того, что проис- ходило в прошлом (при t < s).
Определение 6.2. Для случайного процесса {X(t), t ≥ 0} условная веро- ятность
P X(s + t) = j
X(s) = i
(6.2)
называется вероятностью перехода из состояния i
в состояние j
(i, j ∈ X ) за время t в момент s.
Определение 6.3. Марковский процесс (цепь) {X(t), t ≥ 0} называется однородным, если для любых i, j ∈ X
P X(s + t) = j
X(s) = i
= P X(t) = j
X(0) = i
(6.3)
для всех s, t ≥ 0.
Другими словами, цепь Маркова однородна, если ее переходные веро- ятности зависят только от времени t, за которое происходит переход, но не зависят от момента s, в который этот переход начинается.
Следует отметить, что однородный марковский процесс не может быть использован для моделирования системы, в которой вероятности перехода зависят от долгосрочных тенденций и/или сезонных колебаний. Чтобы ис- пользовать модель однородного марковского процесса, мы должны пред- положить, что экологические и эксплуатационные условия для системы относительно стабильны как функция времени.
98
Отныне мы будем рассматривать только однородные марковские про- цессы {X(t), t ≥ 0} с множеством состояний X = {0, 1, 2, . . . , r}.
Переходные вероятности однородного процесса
P
ij
(t) := P X(t) = j
X(0) = i
можно записать в виде матрицы переходных вероятностей P(t) за время t:
P(t) =
P
00
(t) P
01
(t) · · · P
0r
(t)
P
10
(t) P
11
(t) · · · P
1r
(t)
P
r0
(t) P
r1
(t) · · · P
rr
(t)
(6.4)
Поскольку все элементы матрицы P(t) — это вероятности, то
0 ≤ P
ij
(t) ≤ 1, для всех t ≥ 0 и i, j ∈ X .
Кроме того, если процесс находится в состоянии i в момент времени 0,
то в момент t он либо будет находиться в том же состоянии i, либо осу- ществит переход в другое состояние. Поэтому мы всегда имеем:
r
X
j=0
P
ij
(t) = 1, для всех i ∈ X , t ≥ 0.
(6.5)
Таким образом, сумма элементов каждой строки в матрице P(t) рав- на 1. Заметим, что вероятности, стоящие в строке i, представляют собой вероятности перехода из состояния i (для j 6= i) и что элементы в столб- це j представляют собой вероятности перехода в состояние j (для i 6= j).
Рис. 6.1. График траектории марковского процесса
Пусть 0 = S
0
≤ S
1
≤ S
2
. . . — моменты времени, в которые происходят переходы, и пусть T
i
= S
i+1
− S
i
— это i-й интервал или время пребывания для i = 1, 2, . . . . График возможной «траектории» марковского процесса показан на рис. 6.1.
99