Файл: Л. В. Горчаков в в в в е е д д е е н н и и е е в в к к о о м м п п ь ь ю ю т т е е р р н н о о е е м м о о д д е е л л и и р р о о в в а а н н и и е е учебное пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 11.01.2024

Просмотров: 123

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Л
ИТЕРАТУРА
Зарубежные источники
1. Гулд Т., Тобочник Я. Компьютерное моделирование в физике, т.1-2, М., 1990.
2. Шеннон Р. Имитационное моделирование систем – искусство и наука, М., 1978.
3. Нейлор Т. Машинные имитационные эксперименты с моделя- ми экономических систем, М.,1975.
4. Mathcad 6.0 Plus. Финансовые, инженерные и научные расчеты в среде Windows 95, М., 1997 5. Кемени Дж. , Снелл Дж. Кибернетическое моделирование, М.,
1972.
6. Теннат-Смит Дж. Бейсик для статистиков, М.,1972.
7. Черчмен У., Акоф Р. Введение в исследование операций,
М.,1968 8. Клейнен Дж. Статистические методы в имитационном модели- ровании , вып. 1, М., 1978.
9. Кемени Дж., Снелл Дж., Томпсон Дж. Введение в конечную математику, М.,1963.
10. Математическое моделирование / под ред. Эндрюс Дж. , М.,
1979.
11. Таха Б. Введение в исследование операций, Гл. 10, М.,1985.
Отечественные источники
12. Советов Б.Я., Яковлев С.А. Моделирование систем, М., 1998.
13. Максимей И.В. Математическое моделирование больших си- стем, М.,1985.
14. Бусленко Н.П. Автоматизация имитационного моделирования сложных систем, М., 1977.
15. Бусленко Н.П. Метод статистического моделирования, М.,
1970.
16. Беляева С.Н. Имитационное моделирование систем массового обслуживания, Горький, 1988.
17. Лифшиц А.Л., Мальц Э.А. Статистическое моделирование си- стем массового обслуживания, М., 1978.

90 18. Максимей И.В., Галиев Р.С., Аксенов А.С. Лабораторный практикум по курсу “Исследование операций”, Гомель, 1981.
19. Гмурман В.Е. Руководство к решению задач по теории вероят- ностей и математической статистике. М.:Высш. школа, 1979.
20. Алексеев Д.В. Компьютерное моделирование физических за- дач в Microsoft Visual Basic, М., 2004.
21. Толстик А.М. Виртуальная физическая лаборатория:учебное пособие, Томск,ТГУ, 2006.
22. Толстик А.М. Методы компьютерного моделирования в физи- ке, ТГУ, Томск, 2009.
23. Мозговой М.В.С
++
мастер класс.85 нетривиальных проектов, решений и задач. Спб, 2007.

91
П
РИЛОЖЕНИЕ
Элементы теории вероятности и
математической статистики [11]
Случайность и вероятность
В жизни не все события строго детерминированы, т.е. нельзя за- ранее точно сказать, что какое-то событие свершится. Описанием таких событий занимается теория вероятностей и математическая статистика. Чтобы определить понятие вероятности случайного события, введем понятие исхода, пространства событий и события.
С точки зрения теории вероятностей эксперимент представляет со- бой «действие», результат которого изменяется случайным обра- зом. В зависимости от природы эксперимента число результатов эксперимента – исходов может быть конечным или бесконечным.
Например, бросая игральную кость, мы имеем возможность 6 ис- ходов. Пространством событий называется множество всех воз- можных исходов эксперимента. Для кости это {1, 2, 3, 4, 5, 6}.
Событие – совокупность исходов, принадлежащих пространству событий. Можно, например, рассматривать событие, состоящее в том, что при бросании кости выпадет 6. В этом случае наступление такового события соответствует исходу 6. Если событие состоит из того, что при двух бросаниях сумма очков будет равна 5, то оно реализуется всякий раз, когда двумя последовательными исходами являются (4, 1), (3, 2), (2, 3) и (1, 4).
Вероятность некоторого события Е, обозначаемая как P{E}, представляет собой неотрицательное действительной число, не превосходящее 1, равное доле испытаний (при большом их числе), исходы которых совпали с Е. Если n – общее число испытаний
(экспериментов), а m – число экспериментов, исходом которых явилось событие Е, то вероятность P {E} определится как
 
 
и lim
0 1
n
P E
m n
P E




При P {E} = 0 событие невозможно, при P {E} = 1 оно досто- верно.
Для вероятностей доказаны следующие законы.


92
Закон сложения вероятностей


     
P E
F
P E
P F
P EF




(1)
Здесь обозначено




P E
F
P E
F



– вероятность реализации или E, или F (объединение E и F),
 


P EF
P E
F


– вероят- ность реализации обоих событий одновременно (пересечение E и
F).
Согласно закону сложения вероятность E или F равна вероятно- сти E плюс вероятность F минус вероятность E и F.
Если события E и F взаимно исключаются, т.е. наступление од- ного означает отсутствие другого, то
 
0
P EF

. В этом случае


   
P E
F
P E
P F



Закон условной вероятности определяет вероятность события E при условии наступления события F.


     
,
0
P E F
P EF
P F
P F


(2)
Два события E и F называются независимыми, если


 
P E F
P E

, таким образом, из закона (2) следует, что E и F независимы, когда
 
   
P EF
P E P F

, т.е. вероятность одновременного наступле- ния событий равна произведению вероятностей событий E и F.
Случайные величины и распределение вероятностей
Исходы эксперимента представляют собой случайные величи- ны, если им можно приписать значения действительных чисел. Для бросания костей соответствующие случайные величины представ- ляют собой множество исходов 1, 2, 3, 4, 5, 6. Для бросания монеты исходы орел и решка можно представить в виде случайной величи- ны, приписав значение 0 исходу орел и значение 1 – решке. Таким образом, в некотором смысле можно считать случайную величину функцией, принимающей действительные значения и отображаю- щей пространство событий на действительную прямую.
Случайная величина может быть дискретной или непрерывной.
Дискретная принимает определенные значения в отдельных точках

93 прямой, непрерывная – любые значения на некотором непрерыв- ном отрезке прямой (рис. 28).
Какими параметрами можно охарактеризовать случайную вели- чину? Допустим, фирма решила изучить то, как сотрудники про- пускают работу в течение года. Пусть для 50 сотрудников получе- ны следующие данные за год
563795645615647443967385645515358872413435009 12 2478
В общем случае это случайная величина, которая принимает дис- кретные значения. Полученные данные являются сырыми, неклас- сифицированными. В таком виде они неудобны для того, чтобы изучить характеристики случайной величины. Их представление можно улучшить, упорядочивая их по величине от минимального значения 0 до максимального 12. число дней пропусков 0 1 2 3 4 5 6 7 8 9 10 11 12 число исходов
2 3 2 6 8 10 7 7 3 4 0 0 1, всего 50
Для построения графика данные нужно разбить на классы, для определения необходимого числа классов используют эмпириче- скую формулу
1 3,3log
m
N
 
, где m – число классов, N – полное число членов в распределении.
Рис. 28. Распределение непрерывной и дискретной случайной величины и их кумулятивные вероятности
Для нашего случая имеем:


94


1 3,3 log 50 1 3,3 1, 7 6, 6
m
 
 


, т.е. нужно разбить на 6–7 классов. Разобьем промежуток от 0 до 12 на следующие классы и одновременно запишем число служащих в каждом классе
1–2 5 3–4 14 5–6 17 7–8 9 9–10 4 11 и выше 1
Собранные данные обычно суммируются в виде распределения относительных частот (гистограммы), такая гистограмма приведена на рис. 29. Если мы имеем дело с дискретной переменной, то запи- сываем частоты появления каждого из ее возможных значений. Ес- ли переменная непрерывная, разбиваем весь диапазон ее значений на равные интервалы (группы) и записываем частоты появления каждой группы. Тогда относительная частота для каждой группы равна частному от деления наблюдаемого числа событий данной группы на общее число событий.
Рис. 29. Гистограмма распределения пропусков сотрудников
Построим кумулятивное распределение суммированием пропусков служащих, которое примет вид рис. 30.

95
Рис. 30. Кумулятивная функция
Часто требуется выразить общие характеристики распределения вероятностей через некоторые рациональные меры, по которым можно сделать выводы о свойствах случайной величины. Этими мерами являются математические ожидания определенных функ- ций от рассматриваемой случайной величины. Пусть х – случайная величина, а h(x) – некоторая функция от х. Назовем F{h(x)} мате- матическим ожиданием значения h(x) по отношению к распределе- нию вероятностей х. Тогда
 


   
E h x
h x f x dx




, х – непрерывная величина
   
x
h x P x


, х – дискретная величина.
Для общей характеристики свойств одномерной случайной вели- чины обычно используются две меры. Это математическое ожида- ние E{x} или

и дисперсия или среднеквадратическое отклонение

. Математическое ожидание является мерой положения распреде- ления относительно начала координат, а дисперсия – мерой разбро- са распределения относительно его математического ожидания.
Подставляя h(x) = x в определение, имеем
 
 
 
E x
xf x dx
xdF x








, х – непрерывная величина
 
x
xP x


, х – дискретная величина.

96
Когда экспериментальные данные разбиты на группы, среднее
(математическое ожидание) и дисперсию можно вычислить по формулам: среднее
1
k
i
i
i
M F n

 

, дисперсия =


2 2
1 1
k
i
i
i
M F
n
n



 
 






, где n – полный объем выборки,
1
k
i
i
n
F



; k – число групп (интер- валов); M
i
– средняя точка i-го интервала или (для дискретных дан- ных ) значение i-й группы; F
i
– частота появления i-й группы или
i-го интервала.
Для нашего примера имеем

= 263/50 = 5,3;




2 1 49 3 1 2 4 6 9 8 16 10 25 7 36 6 49 3 64 4 81 144 263 50 49 5, 421.
s
 
       

 

 
 
  




Чем меньше дисперсия в данных, тем более представительно сред- нее для всех членов в распределении.
Со случайной величиной x связывают также функцию f(x), кото- рую можно использовать, чтобы поставить в соответствие этой ве- личине некоторую вероятностную меру. Эту функцию называют плотностью распределения вероятностей.
Если x представляет собой непрерывную случайную величину, заданную на интервале (–

, +

) , то f(x) должна удовлетворять условиям f(x)

0 и
 
1
f x dx




Если x – дискретная случайная величина, то ее плотность вероятно- сти P(x), определяющая вероятность, что x примет некоторое за- данное значение, должна удовлетворять условиям: P(x)

0 для всех
x и
 
1
x
P x


Рассмотрим примеры.


97
Пример 1.
Если f(x) = a при 0< x <10, иначе 0, то график функции f(x) бу- дет иметь вид рис. 31.
Рис. 31. Вид графика f(x)
Таким образом, чтобы она была плотностью вероятности, должно быть выполнено условие
10 10 0
0 1
10
adx
ax
a
 


, откуда: a = 1/10, так как a > 0, то f (x)

0.
Пример 2.
Вероятность выбросить кость P (x) = 1/6 для x = 1, 2, 3, 4, 5,6.
Тогда график функции примет вид рис. 32.
Рис. 32. Вид графика функции f(x)
Другой полезной мерой вероятности является распределение веро- ятностей случайной величины или кумулятивная вероятность.
Пусть F(x) есть распределение вероятности непрерывной случай- ной величины x, –


x

. Тогда для любого a функция F(a) опре- деляет вероятность того, что x

a через плотность вероятности f(x)
 


 
a
F a
P x
a
f x dx






98
Следовательно, F(a) есть площадь под кривой f(x) на интервале



x

а. Функция распределения вероятностей F(a) обладает следующими свойствами:
 
 
lim lim
1
a
a
a
F a
f x dx






,
 
 
lim lim
0
a
a
a
F a
f x dx






Типичная функция распределения имеет вид (рис. 33).
Рис. 33. Распределение вероятности (кумулятивная функция)
Ордината функции F(x) непосредственно определяет вероятность того, что x меньше некоторого фиксированного значения.
Из соотношения f(x) и F(x)следует, что:
f(x)=dF(x)/dx.
Таким образом, закон распределения вероятностей случайной ве- личины x полностью определяется либо f(x), либо F(x). Для дис- кретного случая нужно заменить f(x) на P(x) везде и перейти к сум- мам, а дифференцирование заменить конечными разностями.
Распределение вероятностей случайной дискретной величины имеет вид ступенчатой функции, так как плотность вероятности определена только для дискретных значений.
Пример 3.
Для плотности вероятности в непрерывном случае F(x) = 1/10 при 0 < x < 10 и 0 – иначе.
Функция распределения на интервале 0

x


определится следующим образом

99
 
 


0 0
1 10 10, 0 10
x
x
F x
f u du
du
x
x



 


, ее график представлен на рис. 34.
Рис. 34. График функции F(x)
Для дискретной случайной величины x с плотностью вероятности, задаваемой табл. 14
Таблица 14
X
1 2
3 4
5 6
P(x)
1/6 1/6 1/6 1/6 1/6 1/6 имеем:
 
1 1 6 6 для
1,2,3,4,5,6
u x
u
F x
x
x






, отсюда имеем следующий рис. 35.
Рис. 35. График функции F(x).


100
Различные виды распределения вероятностей
1. Дискретное распределение вероятностей.
Простейший вид плотности вероятности получается в результа- те реализации схемы независимых испытаний Бернулли. Испыта- ние Бернулли имеет два исхода: 0 или 1. Пусть случайная величина принимает два значения 0 или 1. Соответствующую плотность ве- роятности можно записать так




0
и
1 1
P x
p
P x
q
p


   
, где 0 < q < 1.
Рассмотрим случай n независимых испытаний Бернулли, в кото- рых p - постоянно.
Вероятность определенной комбинации исходов с k неудачами и
(n k) успехами равно p
k
q
k
(0

k

n) согласно закону независимых испытаний. Например, для n = 5 вероятность того, что исходом первого испытания будет неудача, а остальными – успех, будет pq
4
Рассмотрим вероятность того, что число неудач в n независимых испытаний равно k, где n – фиксировано. При вычислении данной вероятности необходимо учитывать все различные состояния, в которых зафиксировано k неудач (независимо от порядка их появ- ления в n испытаниях). Существует
 
n
k
= n!/(n!(n k)!) различных сочетаний. Поскольку вероятность появления каждой комбинации равна p
k
q
n-k
, то по закону сложения вероятностей получаем:


 
,
0,1, 2,...,
n
k
n k
k
P x
k
p q
k
n




Это соотношение называется биноминальным распределением с параметрами n и p. Оно удовлетворяет определению плотности ве- роятности, так как P{x = k}

0 для всех k = 0, 1, 2, ...n и


 


0 0
1
n
n
n
n
k
n k
k
k
k
P x
k
p q
p
q










2. Отрицательное биноминальное распределение (Паскаля)
Значение вероятности случайной величины определяется чис- лом независимых испытаний, при котором происходит фиксиро- ванное число неудач. Пусть j и c –число испытаний и фиксирован- ное число неудач. Вероятность того, что при j испытаниях будет

101 иметь место c неудач, является произведением двух вероятностей: вероятности (с – 1) неудач в (j – 1) испытаний равной
 
1 1
1
j
c
j c
c
p
q




и вероятности неудачи в j-м испытании равной p. Плотность веро- ятности описывается выражением


 
1 1
,
,
1,
2...
j
c
j c
c
P x
j
p q
j
c c
c








3. Частным случаем распределения Паскаля является геометриче- ское распределение, получаемое при с = 1, т.е.
P{x = j} = p q
j–1
, j = 1,2,3... оно описывает время, протекающее до наступления определенного числа неудач.
4. Распределение Пуассона
Рассмотрим случайную величину x, принимающую только це- лые, больше нуля значения k = 0, 1, 2 ... Распределение с плотно- стью
P{x = k} =

k
е
-

/k!, k = 0, 1, 2,...., где

> 0, называется распределением Пуассона и часто использу- ется в теории массового обслуживания. Допустим, что в биноми- нальном распределении p


, n


так, что np


> 0. Тогда плотность вероятности биноминального распределения станет


 

 



/
1
/
!
k
n k
n
k
k
P x
k
n
n
e
k





 
 
Можно показать, что при n


это выражение стремится к распределению Пуассона. Таким образом, если n велико, а p мало, так что


np


, пуассоновское распределение аппроксимирует биноминальное.
Непрерывные распределения вероятностей
5. Нормальное распределение вероятности имеет плотность, опре- деляемую формулой
 






2 2
2 1
2
exp
2
,
f x
x
x


  

    
, где

и


заданные параметры.
Соответствующая формула распределения имеет вид:
 






2 2
2 1 2
exp
2
F x
y
dy





 