Московский инженерно-физический институт (государственный университет)
Е.А. Елтаренко
ИССЛЕДОВАНИЕ ОПЕРАЦИЙ (системы м...
8 downloads
194 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Московский инженерно-физический институт (государственный университет)
Е.А. Елтаренко
ИССЛЕДОВАНИЕ ОПЕРАЦИЙ (системы массового обслуживания, теория игр, модели управления запасами)
Москва 2007
Федеральное агентство по образованию Московский инженерно-физический институт (государственный университет)
Е.А. Елтаренко ИССЛЕДОВАНИЕ ОПЕРАЦИЙ (системы массового обслуживания, теория игр, модели управления запасами) Учебное пособие
Москва 2007 1
УДК 519.8(075) ББК 22.18я7 Е55 Елтаренко Е.А. Исследование операций (системы массового обслуживания, теория игр, модели управления запасами) [Электронный ресурс]: учебное пособие. М.: МИФИ. 2007. Предназначено для студентов, изучающих дисциплину «Теория игр и исследование операций» по специальности «Прикладная математика и информатика» (специализация «Математическое и информационное обеспечение экономической деятельности»), и может быть полезно для смежных специальностей. Пособие в полном объеме соответствует программе вышеуказанной дисциплины. Рекомендовано редсоветом МИФИ к изданию в качестве учебного пособия Рецензент: к.т.н., доцент Салмин И.Д.
ISBN 978-5-7262-0756-8
© Московский инженерно-физический институт (государственный университет), 2007
2
Оглавление
Предисловие……………………………………………………..5 1. Системы массового обслуживания………………………….6 1.1. Основные понятия СМО .................................................. 7 1.2. Потоки заявок .................................................................. 11 1.2.1. Простейший (пуассоновский) поток .......................... 11 1.2.2. Потоки Эрланга ............................................................ 15 1.2.3. Верификация потоков заявок...................................... 17 1.3. Марковские процессы .................................................... 21 1.3.1. Марковские процессы с дискретными состояниями и дискретным временем перехода ........................................... 22 1.3.2. Марковские процессы с дискретными состояниями и непрерывным временем перехода .................................... 24 1.3.3. Процессы гибели и размножения ............................... 27 1.4. Пуассоновские СМО ...................................................... 31 1.4.1. Одноканальные пуассоновские СМО ........................ 31 1.4.2. Многоканальные пуассоновские СМО ...................... 36 1.4.3. СМО с взаимопомощью каналов................................ 41 1.4.4. СМО самообслуживания ............................................. 45 1.4.5. Замкнутые СМО ........................................................... 46 1.4.6. Многофазные СМО ..................................................... 50 1.5. Пуассоновские сети СМО .............................................. 55 1.5.1. Ациклические сети СМО ............................................ 56 1.5.2. Циклические сети СМО .............................................. 59 1.6. Непуассоновские СМО................................................... 61 1.6.1. Анализ непуассоновских СМО методом Эрланга .... 62 1.6.2. Анализ непуассоновских СМО методом вложенных цепей Маркова........................................................................ 69 1.7. СМО с приоритетами ..................................................... 78 1.7.1. Одноканальные СМО с приоритетами ...................... 79 1.7.2. Многоканальные СМО с приоритетами .................... 85 1.8. Оптимизация параметров СМО ..................................... 86 3
2. Теория игр……………………………………………………94 2.1. Основные понятия теории игр ....................................... 94 2.2. Матричные игры с седловой точкой ............................. 95 2.3. Матричные игры без седловой точки ........................... 97 2.3.1. Решение матричных игр 2 2 ....................................... 99 2.3.2. Решение матричных игр 2 m графоаналитическим методом ................................................................................. 102 2.3.3. Решение матричных игр n 2 графоаналитиским методом ...................................................................... 104 2.3.4. Решение матричных игр n m.................................... 104 2.4. Биматричные игры ........................................................ 109 2.4.1. Принципы решения биматричных игр .................... 109 2.4.2. Решение биматричных игр 2 2................................. 111 2.4.3. Решение биматричных игр n m ............................... 116 2.5. Диадические игры ......................................................... 118 2.6. Коалиционные игры ..................................................... 123 3. Задачи управления запасами………………………………131 3.1. Постановка задач управления запасами ..................... 131 3.2. Детерминированные модели управления запасами .. 136 3.3. Вероятностные модели управления запасами ........... 144 Заключение……………………………………………………152 Список литературы…………………………………………...153 Приложения…………………………………………………...154 Приложение 1 Распределение Пирсона χ2 ................... 154 Приложение 2 Распределение Колмогорова ................... 154 Приложение 3 Основные положения Z – преобразования155
4
Предисловие
Пособие подготовлено на основе многолетнего чтения лекций по одноименной дисциплине студентам, обучающимся по специальности «Прикладная математика». Изложены три раздела исследования операций: системы массового обслуживания (СМО), теория игр, модели управления запасами. СМО актуальны при проектировании вычислительных сетей, менеджменте. И в настоящее время в научных журналах выделены в качестве отдельных разделов тематика систем массового обслуживания (см. журнал «Автоматика и телемеханика»). В разделе «Теория игр» приведены основные положения и рассмотрены основные классы задач теории игр, для более глубокого изучения теории игр рекомендуется [6]. Модели управления запасами находят применение в менеджменте, они получили второе рождение в современных областях – логистике, корпоративных информационных системах [7, 8]. Другие разделы исследования операций, такие как линейное, динамическое программирование изучаются в специальной дисциплине «Математическое программирование». При подготовке настоящего пособия использованы учебники [1, 2], учебные пособия МИФИ [3, 4, 5]. Цель, которая ставится в курсе лекций – не только дать знания студентам, но и научить их самостоятельно решать поставленные задачи, выводить формулы при анализе объектов исследования. Поэтому пособие не является справочным материалом для решения задач исследования операций, в нем акцентируется внимание на математических выкладках, доказательствах. Автор признателен рецензенту Салмину И.Д. за обсуждение и ценные предложения по совершенствованию пособия.
5
1. СИСТЕМЫ МАССОВОГО ОБСЛУЖИВАНИЯ В практике системных аналитиков довольно часто приходится работать с системами массового обслуживания (СМО). К таким системам относятся вычислительные, телефонные сети, интернет-сеть, магазины, торговые центры, билетные кассы и т.д. Отличительными особенностями СМО являются потоки заявок на обслуживание, поступающих в случайные моменты времени, и каналы (приборы) обслуживания заявок, время обслуживания в которых также может быть случайной величиной. Из-за случайности потоков заявок в системе может образовываться очередь, меняющаяся во времени. При анализе СМО исследователей интересуют ее характеристики: загруженность СМО, количество заявок в системе, длина очереди, время пребывания заявок в системе, время нахождения в очереди и пр. При проектировании СМО, когда накладываются ограничения на ее параметры, возникает вопрос о величине потоков заявок, которые может обслужить система, или какой интенсивностью должны обладать каналы обслуживания, чтобы обеспечить необходимое качество обслуживания заданных потоков заявок, и множество других вопросов. Анализ СМО имеет целью определить ее характеристики и при необходимости оптимизировать параметры системы. Несмотря на имеющееся в настоящее время большое количество средств имитационного моделирования, интерес к математическому решению задач анализа СМО не ослабевает, так как реализуется возможность глубокого познания процессов функционирования разного класса систем, обеспечения получения точного решения. В данном разделе рассматривается значительное количество классов СМО, которые дают представление о многообразии таких систем, множестве подходов и методов, используемых при их анализе.
6
1.1. Основные понятия СМО Рассмотрим основные понятия СМО, их характеристики, классификацию. Ниже представлена структурная схема СМО. Источник заявок
Очередь заявок N – max длина очереди
Канал(ы) обслуживания m – количество аппаратов обслуживания а) характеристики (параметры) входного потока заявок: f t – плотность функции распределения интервала между поступлениями заявок; – интенсивность входного потока; б) характеристики (параметры) каналов обслуживания заявок: t – плотность функции распределения времени обслуживания аппарата; – интенсивность обслуживания; m – число каналов обслуживания; в) характеристики (параметры) очереди: N – максимальное число мест в очереди; D – дисциплина очереди: - первым пришел – первым ушел (FIFO); - последним пришел – первым ушел (LIFO); - с приоритетами; - случайный выбор из очереди. Описание системы массового обслуживания включает задание ее параметров f t , t , m, N , D . Классификация СМО
e t; t e t (см. п.1.2.), то такие СМО назыЕсли f t ваются пуассоновскими. m 1 – одноканальные СМО; m 1 – многоканальные СМО; 7
N N N
0 – системы без очередей;
– системы с бесконечной очередью; 0 (произвольное конечное число) – системы с ограниченной очередью. В разделе также рассматриваются следующие классы систем: – СМО с взаимопомощью каналов обслуживания. Если есть m каналов, каждый из которых обладает интенсивностью , то в процессе обслуживания заявок они могут оказывать взаимопомощь, что сказывается на характеристиках СМО; – СМО самообслуживания; – замкнутые СМО (с несколькими источниками заявок); – многофазные СМО, в которых обслуживание заявок осуществляется в несколько фаз (этапов); – сети СМО, узлами сети являются отдельные СМО. Выделяют ациклические сети (рис. 1.1) и циклические сети (рис. 1.2). 0,3 СМО1 Источник
СМО2 0,7
0,7
1,0
СМО3
СМО4 0,3 – вероятность
Рис. 1.1. Топология ациклической сети СМО
0,3 СМО1 Источник
0,7
0,2
СМО2 0,5
СМО3
1,0 СМО4
0,3 Рис. 1.2. Топология циклической сети СМО
8
Характеристики СМО Основные характеристики Ls – среднее число заявок в СМО;
Ws – среднее время пребывания заявок в СМО; Lq – средняя длина очереди; Wq – среднее время ожидания заявок в очереди; Pотк – вероятность отказа в обслуживании; P0 – вероятность того, что в системе отсутствуют заявки (часть времени, когда каналы обслуживания простаивают). Производные характеристики N Lq – среднее число свободных мест в очереди;
Ls Lq – среднее число занятых каналов; m Ls Lq – среднее число свободных (простаивающих) каналов; эфф
1 Pотк – эффективный (реальный) поток заявок, который
обслуживается. Связи между основными характеристиками (формулы Литтла)
В установившемся режиме функционирования СМО будем фиксировать число заявок в системе во времени n(t). Результаты представлены на рис. 1.3, он показывает, сколько заявок находится в каждый момент времени в СМО. t2
Обозначим через A
n t dt , T
t2 t1 – время наблюдения.
t1
Ls B
Среднее число заявок в СМО будет определяться из выражения: A T ; число заявок, обслуженных за интервал времени T :
из Ws
эфф
T ; среднее время пребывания заявок в СМО определяется A B A эфф T . 9
n(t)
Ls
0
t1
t2
t
Рис. 1.3. График изменения числа заявок в СМО во времени
Сравнивая выражения для Ls и Ws , можем записать связь между ними: (1.1) Ls эфф Ws . Аналогично для средней длины очереди получим: Lq Wq . эфф
(1.2)
Ws и Wq отличаются временем обслуживания. , Ws Wq
(1.3)
где
(t ) t dt – среднее время обслуживания. 0
Таким образом, вычислив Ls и Pотк , можно, используя (1.1), (1.2), (1.3), вычислить все основные характеристики: Ls , Pîòê Ws Ls ýôô Wq Ws . ýôô Отметим также следующие соотношения:
Ls Lq
эфф
Ws Wq ;
; Ws Wq (Ls Lq ) эфф
10
.
Чтобы найти Ls , необходимо определить Pn (вероятности того, что в СМО находится ровно n заявок), так как
Ls
nPn . n 0
Таким образом, задача определения характеристик СМО сводится к определению вероятностей Pn ( n 0, 1, 2,). 1.2. Потоки заявок В СМО входной поток заявок случайный. Если же заявки поступают через определенный интервал времени T const , то такой поток называется регулярным. Остановимся на общем случае, когда для его описания требуется задать f t – плотность функции распределения интервала между поступлением заявок, и – интенсивность, определяемая числом заявок в единицу времени. Рассмотрим несколько видов потоков, которые нам потребуются для анализа СМО. 1.2.1. Простейший (пуассоновский) поток Свойства потока: – стационарность: число заявок за интервал t зависит только от величины t и не зависит от расположения интервала t на временной оси. Для стационарного потока const ; – безпоследействие: число заявок в интервал t1 не зависит от числа заявок за другой интервал t2 , если они не пересекаются; – ординарность: вероятность поступления в интервал времени t t 0 больше одной заявки стремится к нулю. Исходя из этих свойств, получим распределение Пуассона. Выберем конечный интервал t , на нем t :
t
t 11
Из свойства ординарности: P1 t – вероятность того, что за
t поступит 1 заявка; P0 1 t – вероятность того, что за t не поступит заявок. Разделим интервал t на n равных участков:
t
t t . n
t
Вероятность того, что за интервал t наступит ровно m заявок, равна:
Cnm P0
Pm
n m
P1 m .
Учитывая свойство безпоследействия:
t , P0 1 t n n m n n 1 n m 1 t 1 m! n P1
Pm
nm nm
Pm
1
nm m
lim Pm
lim
n
lim 1
n
t
n
n
n
t 1 m!
lim 1
n
t
t
n
n t
n
t
tm 1 m! 1
nm 2 n
n m
t n
t
n m
n
n
n ;
(1.4)
t
e
t
.
(1.5)
Подставляя (1.5) в (1.4), получим:
Pm
tm e m!
t
– вероятность того, что за время t поступит ровно
m заявок.
12
am a const (используется e ; m! свойство стационарности). Полученное Pm определяет распределение Обозначим
a , тогда Pm
t
Пуассона, отсюда и название потока заявок. Вероятности Pm рассчитываются на основе Pm 1 :
P0
e t;
P1
t e
t
t P0 ;
2
t e 2 t P. 3 2
P2 P3
t P; 2 1
t
Математическое ожидание числа заявок за интервал t:
Mm
mPm m 0
m
m tm e m! 0
t
t e
t m 0
tm1 m 1!
m
t e
t
t . m ! m 0 e
t
M (m)
t.
Дисперсия числа заявок за интервал t:
Dm
m
t
2
m
m 0
e
m
t m 0
t m!
2
tm e m!
t
e
m 0
2 t
m m 0
t m!
t t 2. m 1! m 0 Произведем замену m m 1 : t
m2 2m t
m
m 1
e
t
m t
13
t
2
e
t
t
2
tm m!
Dm
t
e
tm m!
m 1 t m 0
e
t
tm m t e m ! m 0 t
t
2
t tm ! m 0m
t
2
t 2;
t
D(m) t . Отметим полученную отличительную особенность пуассоновского распределения – математическое ожидание равно дисперсии. Определим плотность функции распределения интервала времени между моментами поступлениями заявок в пуассоновском потоке:
f t dt P0 dt e
t
dt . e Откуда следует, что искомая функция f t
t
(экспоненциальное распределение). Математическое ожидание и дисперсия этого распределения равны:
t e t dt
Mt
te t d t
0
0
t 1
Dt
te
2
e t dt
t
e t dt
0 0
1 2
1
e
1
t 0
; С
.
0
ледовательно, пуассоновский поток заявок можем описать либо распределением Пуассона количества заявок за определенный интервал времени, либо экспонециальным распределением времени между моментами поступлениями заявок. Отметим, что вероятность того, что за малый промежуток времени t поступит заявка, равна f t dt e t dt . Операции с пуассоновскими потоками: а) суперпозиция (объединение) двух или нескольких пуассоновских потоков образует пуассоновский поток;
14
б) операция случайного просеивания (разделения) пуассоновского потока дает на выходе пуассоновские потоки. При разделении потока должно быть задано дискретное распределение вероятностей, с которыми заявки из основного (входного) потока попадают в каждый из выходных потоков. Суть операции: каждая заявка из входного потока переходит в один из выходных в соответствии с заданным распределением. При случайном просеивании заявок сохраняются все его свойства (ординарности, безпоследействия, стационарности). 1.2.2. Потоки Эрланга Пусть имеем пуассоновский поток: f t
t
e
:
t Проведем регулярное (не случайное) просеивание потока. Если будем исключать каждую вторую заявку, то получим поток Эрланга второго порядка. Если оставлять каждую третью, то получим поток Эрланга третьего порядка и т.д. Плотность распределения интервала времени между заявками потока Эрланга второго порядка равна:
f 2 t dt
t e 1!
t
dt
2
t
t
dt .
Плотность функции распределения потока Эрланга 2-го порядка (рис. 1.4): 2 f2 t t t. Для потока k порядка получим:
f k t dt fk t
t
k 1
k 1! t
e
t
k 1
k 1!
e t.
15
dt
t
k 1
k 1!
e t dt;
fk t
f2 t f3 t
t Рис.1.4. Плотность функции распределения Эрланга
Математическое ожидание интервала времени между заявками потока Эрланга порядка k равно:
k ,
Mt
где – интенсивность пуассоновского потока, из которого сгенерирован поток Эрланга (порождающего пуассоновского потока). Дисперсия интервала времени между заявками потока Эрланга порядка k равна:
k
Dt Интенсивность потока Эрланга э
2
.
равна:
э
k
э
k.
Выразим функцию распределения, математическое ожидание и дисперсию через э . k э kt k 1 э fk t e э kt ;
k 1! 1 ; Mt э
Dt
k k
2 2
16
э
1 . k 2э
Аппроксимация произвольного потока заявок потоком Эрланга Пусть задана произвольная плотность функции распределения t – интервал времени между заявками для произвольного закона с
M t и Dt . Для потока Эрланга:
Mt Dt
1
k
ý
k
k
ý
M2 t . Dt
(1.6)
Пример. Пусть задан поток неизвестного распределения с интенсивностью 15 заявок/ч, M t 4 мин.; D t 1 мин.2 Данный поток можно аппроксимировать потоком Эрланга M 2 t 42 16 порядка с интенсивностью э 15 , который гене-
Dt
1
рируется
15 16
из
пуассоновского 240 заявок/ч.
потока
с
интенсивностью
1.2.3. Верификация потоков заявок При исследовании СМО необходимо в первую очередь проанализировать входной поток заявок с целью определения его характеристик. Для этого производится регистрация в той или иной форме моментов поступления заявок за длительный период времени. По этим данным можно построить гистограмму распределения числа заявок за заданный отрезок времени, например, 1 ч, или распределение интервала времени между поступлением заявок в СМО. Рассмотрим вопросы анализа потока заявок на примере. Пусть в течение N 121ч вели наблюдение за поступлением заявок, в результате получили распределение числа заявок в час, приведенное в табл. 1.1 и на рис. 1.5 (n – количество заявок, поступивших за 1 час, mn – число часов из 121, в которые зарегистрировано поступление ровно n заявок).
17
Таблица 1.1 Распределение числа заявок в час 0 1 2 3 4 5 6 10 31 40 20 10 4 6
n mn mn 40 30 20 10
0
1
2
3
4
5
6
n
Рис. 1.5. Гистограмма распределения числа заявок
Вычислим среднее число заявок в час: 6
n
n n 0
mn N
10 0 31 1 40 2 20 3 10 4 5 6 6 121
2,207.
Среднеквадратичное отклонение: 6
Sn2
n n n 0
2
mn N
2,147 .
Так как математическое ожидание и оценка дисперсии близки, то можно выдвинуть гипотезу, что это распределение Пуассона. Проверим гипотезу по критерию согласия, сначала – по критерию Пирсона (табл. 1.2):
n 2,207
– интенсивность потока.
Отметим, что в каждом интервале mn должно быть не менее 6. Если меньше, то необходимо объединить интервалы.
18
Таблица 1.2 Расчеты для проверки гипотезы по критерию Пирсона 0 1 2 3 4 5 6 n 10 31 40 20 10 4 6 mn 0,110 0,242 0,267 0,195 0,110 0,076 Pn 13,3 29,2 36,3 23,6 13,3 9,1 NPn объединили интервалы
Pn – вероятности поступления за 1 ч ровно n заявок, соответствующие распределению Пуассона:
P0 e 2,2 0,110 ; P1 t e 2,2 2,2 0,110 0,242 ; 2,2 2,2 2,2 P2 P1 0,267; P3 P2 0,195; P4 P 0,110; 2 3 4 3 P5 1 P0 P1 P2 P3 P4 . Критерий Пирсона 5 2
mn
т 0
NPn NPn
2
6 1 1 4 (число степеней свобо-
,
ды). 2 расч.
10 13,3 2 10 9,1 2 3,11. 13,3 9,1 0,2 – уровень значимости (вероятность ошибки второго ро-
да). 2 табл.
5,898 (распределение Пирсона приведено в приложении 1).
Сравниваем
2 расч.
и
2
. Если расчетное больше табличного, то
табл.
распределение не пуассоновское, но мы ошибаемся с вероятностью 0,2 . Если расчетное меньше табличного, то не можем отвергнуть гипотезу, что это пуассоновское распределение.
19
2
Чем меньше
расч.
, тем с большей уверенностью мы можем гово-
рить, что это пуассоновское распределение. Критерий Пирсона позволяет отвергнуть выдвинутую гипотезу, но не дает ответ, что это именно пуассоновское распределение. Рассмотрим еще один критерий согласия. Критерий Колмогорова Для проверки гипотезы необходимо заполнить табл. 1.3. Таблица 1.3 Расчеты для проверки гипотезы по критерию Колмогорова n
0
1
2
3
4
5-6
F* n
0,083
0,342
0,675
0,844
0,925
1,0
Fn
0,110
0,352
0,619
0,814
0,924
1,0
0,027
0,010
0,056
0,030
0,001
0,0
F * n – функция распределения, полученная из экспериментальных данных; F n – теоретическая функция распределения, соответствующая пуассоновскому распределению:
F* 0
F0
m0 10 m1 0,083, F * 1 F * 0 и т.д. N 121 N P0 , F 1 P0 P1 , F 2 P0 P1 P2 .
D max F * n
Fn
0,056 – максимальное откло-
max
нение теоретической и экспериментальной функций распределения. Статистика для проверки гипотезы рассчитывается по формуле: расч.
D N , в нашем примере
расч.
20
0,056 121 0,616.
В приложении 2 приведено распределение Колмогорова. P
расч.
–
вероятность того, что расхождение между теоретическим и экспериментальным произошло из-за случайных факторов. Для рассматриваемого примера P расч. P 0,616 0,850 , т.е. с вероятностью 0,850 экспериментальное распределение расходится с пуассоновским из-за случайных факторов. Вопросы и задания 1. Какие свойства характерны для пуассоновских потоков? 2. Какие операции можно производить над пуассоновскими потоками, чтобы результирующие потоки тоже были пуассоновскими? 3. Докажите, что в результате суперпозиции двух и более пуассоновских потоков заявок результирующий поток будет тоже пуассоновский. 4. Какой поток описывают потоки Эрланга при стремлении их порядка к бесконечности? 5. Для ответа на какие вопросы следует использовать критерий Колмогорова и на какие – критерий Пирсона? 6. При исследовании потока заявок регистрировалось количество заявок, поступающих каждый час. В результате наблюдений в течение 100 ч получили следующие данные: Число заявок в час Кол-во наблюдений
0 8
1 14
2 36
3 17
4 10
5 8
6 7
Используя критерии Пирсона и Колмогорова проверить гипотезу о том, что поток заявок является Пуассоновским потоком. 1.3. Марковские процессы Математический аппарат марковских процессов используется для анализа систем массового обслуживания. Поэтому прежде чем переходить к анализу СМО, остановимся на марковских процессах. Причем будем рассматривать только те вопросы, которые требуются для анализа СМО.
21
Пусть
в
объекте моделирования определены состояния S0 , S1 , S2 ,, Sn , например, в системе массового обслуживания:
S 0 – в СМО нет заявок, S1 – в СМО одна заявка, S2 – в СМО две заявки и т.д. C течением времени СМО переходит из одного состояния в другое. Рассмотрим марковские процессы с дискретными состояниями (число состояний конечно или счетно). При этом выделим: а) марковские процессы с дискретным временем перехода (моменты перехода заранее определены); б) марковские процессы с непрерывным временем перехода (момент перехода не определен, случаен). Отметим, что марковские процессы обладают свойством безпоследействия. 1.3.1. Марковские процессы с дискретными состояниями и дискретным временем перехода Пусть система находится в состоянии Si , где i 1, 2,, n . Для задания марковского процесса необходимо определить матрицу вероятностей перехода из одного состояния в другое. Пример матрицы переходов:
Pij
S 0 S1 0,3 0,7 0,5 0,5
S0 S1
Для заданной матрицы граф переходов имеет вид:
22
Так как на каждом следующем шаге система переходит в другое n
состояние, то
Pij
1.
j 0
Пусть задан вектор вероятностей в первый момент времени:
P
0
P00 , P10 .
Какова вероятность нахождения системы в состоянии i после первого перехода? n
Pi1
Pj0 Pji (i 1, 2,, n) .
(1.6)
j 0 1
0
В векторном виде (1.6): P
P Pij .
На шаге k получим уравнение:
P Если Pij
k
P
k 1
0
Pij
P Pij
k
.
(1.7)
const (не зависит от шага), то процесс называется од-
нородным. При устремлении k к бесконечности получим вектор предельных вероятностей:
lim P k
k
P.
Процесс, в котором вектор предельных вероятностей не зависит от вектора начального состояния, называется эргодическим. Если матрица переходов неприводима (т.е. из каждого состояния можно достигнуть любое другое состояние), то существует вектор предельных вероятностей. Пример неприводимой матрицы переходов:
23
S0 S1 S2 S3
S0 0,3 0,4 0,3 0
S1 0,7 0 0 0
S2 0 0,6 0,5 0,2
S3 0 0,5 . 0,7 0,8
1.3.2. Марковские процессы с дискретными состояниями и непрерывным временем перехода Пусть система может находиться в состояниях Si ( i 0,1,, n ). Время перехода – случайная величина. ij – интенсивность перехода из состояния S i в S j . За время Если
ij
t вероятность перехода Pij t t. ij const (не зависит от времени), то это однородный мар-
ковский процесс. Рассмотрим случай с двумя состояниями:
Pij t
1
01 10
t
t
01
1
t t
10
.
Составим конечно–разностное уравнение для определения Pi Для первого состояния:
P0 t P1 t
t t
P0 t 1 P1 t 1
t
01 10
24
t
P1 t P0 t
10 01
t .
t
(1.8)
t.
(1.9)
Из (1.8) получим:
P0 t
t P0 t t
dP0 t dt
P0 t
P0 t P1 t
01
t P1 t t
01
10
t
,
10 .
(1.10)
Из (1.9) получим
dP1 t dt
P1 t
P0 t
10
01 .
(1.11)
Следует иметь в виду, что в любой момент t P1 t
P0 t 1. 1, P1 0 0 , то-
Примем за начальное состояние системы P0 0 гда решением дифференциального уравнения (1.10) будет:
P0 t P1 t
10 10
01 01
1 P0 t
10 01
e
01
10 t
(1.12)
01
1 e
01 10 t
. 10 01 Графически (1.12) и (1.13) представлены на рис. 1.6.
(1.13)
1 01 10
01
P0 t
10 10
01
P1 t t
0
Рис.1.6. Решение системы уравнений марковского процесса
25
При стремлении t к бесконечности получим предельные вероятности: P0 lim P0 t , P1 lim P1 t . Для определения P0 и P1 приравняем производные из системы уравнений (1.10) и (1.11) к нулю:
dP0 t dt dP1 t dt
0 0.
Получим:
P1 10 P0 01 . P1 P0 1 Рассмотрим случай для четырех состояний (рис. 1.7). Для простоты изображения размеченного графа t будем опускать.
Рис.1.7. Размеченный граф
Система уравнений для данного графа приведена ниже.
P0 t dP0 dt
t P0 t
P0 t 1 01
01
03
t P2 t
t
03
20
26
P2 t
20
t
dP1 dt dP2 dt dP3 dt
P1
13
P2 t
P3 t
P0 t 20
32
01
21
P1
13
P2 t
21
P3 t
32
P0
03 .
1,, n , система
В общем случае, когда число состояний Si i уравнений примет вид: n
dPi dt
n
Pi t
Pk t
ij j 0 i j
ki
.
k 0 k j
Эту систему уравнений по имени автора называют системой уравнений Колмогорова. Для определения предельных вероятностей
dPi dt
0 получим сис-
тему линейных уравнений: n
Pi t
n
Pk t
ij j 0 i j
ki
( i 1, 2,, n ),
k 0 k j n
Pi
1.
i 0
1.3.3. Процессы гибели и размножения Процессами гибели и размножения называются марковские процессы, имеющие размеченный граф, приведенный на рис.1.8.
Рис.1.8. Размеченный граф процессов гибели и размножения
27
ij −
интенсивности размножения,
ji −
интенсивности гибели.
Для
Pi (i
нахождения вектора предельных 1, 2,, n) составим систему уравнений:
P0 01 P1 P1 12
(по Колмогорову),
10
P0
10
01
P2
21 .
10
P2
21
вероятностей (1.14) (1.15)
Подставляя (1.14) в (1.15), получим:
P1 P1
12 12
P1 P2
P1
10 21
.
Для всех последующих состояний уравнения будут иметь одинаковый вид: Pi i,i 1 Pi 1 i 1,i ( i 1, 2,, n ). Чтобы определить все предельные вероятности, воспользуемся n
условием:
Pi
1 . Для этого выразим Pi через P0 :
i 0
12
P2
P1
21
Введем обозначение
i ,i 1 i
01
12
10
21
P0 .
, тогда (1.14) и (1.16) запишутся в
i 1, i
виде: P1
P ; P2
1 0
P
1 2 0.
Все оставшиеся вероятности выражаются через P0 : i
Pi
P.
j 0 j 1
В результате получим выражение для P0 : 1
n i
P0
(1.16)
1
j i 1j 1
Определив P0 , можем рассчитать все Pi .
28
.
Пример анализа процесса гибели и размножения. Пусть задан процесс гибели и размножения:
ij
S0 S1 S2 S3
S0 0 6 0 0
S1 4 0 5 0
S2 0 3 0 3
S3 0 0 . 2 0
Расчет предельных вероятностей:
4 2 P0 P; 6 3 0 3 3 2 2 P2 P1 P0 P; 5 5 3 5 0 2 2 2 4 P3 P2 P0 P; 3 3 5 15 0 2 2 4 P0 1 1; 3 5 15 2 3 2 2 3 6 4 3 , P2 , P3 3 7 7 5 7 35 15 7 P1
P0
3 , P 7 1
4 . 35
Вопросы и задачи 1. Определить предельные вероятности состояний в марковской цепи, описываемой следующей матрицей вероятностей переходов. В начальный момент система находится в первом состоянии S1 S2 S3 S1 0,3 0,3 0,4 S2
0,0
1,0
0,0
S3
0,0
0,0
1,0
29
2. Управляемый объект имеет 4 возможных состояния. Через каждый час производится снятие информации и перевод объекта из одного состояния в другое в соответствии со следующей матрицей вероятностей переходов: S1 S2 S3 S4 S1 0,3 0,4 0,0 0,3 S2
0,2
0,2
0,4
0,2
S3
0,4
0,3
0,2
0,1
S4
0,2
0,3
0,4
0,1
Найти вероятности нахождения объекта в каждом из состояний после второго часа, если в начальный момент он находился в состоянии S3. 3. По заданным коэффициентам системы уравнений Колмогорова составить размеченный граф состояний. Определить коэффициенты А, В, С, Д в уравнениях: -А Р1 + 4 Р2 + 5 Р3 = 0 -В Р2 + 4 Р1 + 2 Р4 = 0 -С Р3 + 2 Р2 + 6 Р1 = 0 -Д Р4 + 7 Р1 + 2 Р3 = 0. 4. Физическая система имеет 4 состояния. Размеченный граф состояний приведен ниже. 6 S1 S2 4
5
S3
3
S4 5 Определить предельные вероятности состояний системы.
30
1.4. Пуассоновские СМО В пуассоновских СМО входной поток заявок – пуассоновский, т.е. f t e t , а время обслуживания распределено по экспоненциальному закону
t
e
t
.
1.4.1. Одноканальные пуассоновские СМО СМО без очереди (N=0). Используем теорию процессов гибели и размножения для определения вероятностей P0 , P1 (рис. 1.9).
S0
S1 μ
Рис. 1.9. Размеченный граф СМО без очереди
P1 P1
P0
P0 P0 1
P0
; P1
1
1;
.
Вероятность отказа заявки в обслуживании равна P1 :
Pотк
.
Среднее число заявок в системе равно:
Ls
0 P0 1 P1
P1
.
(1.17)
Среднее время пребывания в СМО равно среднему времени обслуживания: Ws 1 ; (1.18) так как очереди в СМО нет, то
31
Wq
0, Lq
0.
Эффективный поток заявок определяется по формуле:
1 Pотк
эфф
.
СМО с ограниченной очередью Размеченный граф данного класса СМО представлен на рис. 1.10.
S0
S1
S2
SN
...
1
Рис. 1.10. Размеченный граф одноканальной СМО с ограниченной очередью
Конечное состояние в системе определяется максимальным числом мест в очереди плюс 1 канал обслуживания. Введем обозначение . Система уравнений для нахождения предельных вероятностей Pn имеет вид:
P1
P0
P2
P1
Pn
Pn 1
2
P0 n
(1.19)
P0
N 1
Учитывая, что
Pn
1, получим уравнение для определения P0 :
n 0 N 1
N 1 n
P0 1
n
P0 n 0
n 0
32
1,
откуда получим P0
1 1
N 2
, где
– любое, т.е. на отношение
не накладывается никаких ограничений. n Вероятности Pn P0 . Определим среднее число заявок в СМО: N+1
Ls
N+1
n Pn n=0
P0
n ρn
N+1
nρn-1 . n= 0
P0
n=0
(1.20)
F ( )
1 ρN+2 , тогда 1 ρ n=0 ( 1 ρ N+2 ) ( 1 ρ)(N+2 )ρ N+1 Fρ ( 1 ρ)2 1 (N+1 )ρ N+2 (N+2 )ρ N+1 . ( 1 ρ)2 N+1
Обозначим через F(ρ)
ρn
(1.21)
Подставив (1.20) в (1.21), получим:
Ls
(1 ρ)ρ1 (N+1)ρN+2 (N+2 )ρN+1 . (1 ρN+2 )(1 ρ)2
(1.22)
Отметим, что вероятность отказа равна вероятности последнего состояния в размеченном графе: Pотк PN+1 ρN+1P0 ;
(1 Pотк)
эфф
.
Используя формулы Литтла (1.1 – 1.3), получим:
Ws Wq
Ls ; λэфф 1 ; Ws μ
33
(1.23) (1.24)
Lq Wq
эфф
.
Рассмотрим частный случай, когда чае P1
P0
P2
(1.25) , т.е.
1 . В этом слу-
PN 1 :
1
P0
;
N 2 1 . N 2
Pотк
Основные характеристики СМО определяются по следующим формулам:
N 1 ; 2
Ls 1
1
эфф
N 2 N 1 N 2 2N 1 1 Wq Ws ;
Ws
Lq
N 1 2
Wq
ýôô
N 1 ; N 2 N 2 ; 2
N 1 . N 2
СМО с неограниченной очередью. Так как СМО без отказов, то Pотк 0 , а эфф . Для получения формул расчета характеристик СМО воспользуемся формулами для СМО с ограниченной очередью.
Ls
lim N
0
1
N 1 1
34
N 2 N 2
N 2 1
N 1
.
(1.26)
Чтобы существовал предел, необходимо выполнение условия
1 , которое означает, что интенсивность обслуживания должна быть больше интенсивности потока заявок, иначе очередь будет расти до бесконечности. Отметим, что в СМО с бесконечной очередью . (1.27) P0 1 Предел (1.26) равен: Ls
Ws
, и тогда
1
1
Ls (1
Wq
Ws
1
;
(1.28)
)
1
1 (
)
;
(1.29)
2
Lq
Wq
(
)
.
(1.30)
Рассмотрим вопрос о функции распределения времени пребывания в одноканальной СМО с бесконечной очередью при дисциплине очереди FIFO. Время пребывания в СМО, когда в ней находится n заявок (система находится в состоянии Sn, равно сумме длительностей обслуживания n заявок. Так как время обслуживания распределено по экспоненциальному закону, то плотность функции распределения условной вероятности времени пребывания в СМО, когда в ней находится n заявок, определяется так же, как распределение Эрланга n порядка (см. раздел 1.2.2) W ( t )n f s e t n n! Искомая плотность функции распределения определяется выражением:
35
f (Ws )
f
W s n
n 0
Pn n 0
( t )n e n!
t
Pn .
С учетом (1.19) и (1.27), f (Ws ) запишется в виде: ( t )n ( t )n n f (Ws ) e t (1 ) n (1 )e t n! n 0 n! n0 e t et
f (Ws ) (1 )e( )t (1 )e (1 )t . Видим, что f (Ws ) − экспоненциальное распределение с матема1 1 тическим ожиданием M (Ws ) , что совпадает с (1 ) (1.28). Из того, что f (Ws ) − экспоненциальное распределение, следует важный вывод: выходной поток заявок в одноканальной СМО с бесконечной очередью является пуассоновским потоком. 1.4.2. Многоканальные пуассоновские СМО СМО с ограниченной очередью (N>0) Размеченный граф данного класса СМО представлен на рис. 1.11.
S1
S3
S2 2
Sm
...
3
m
SN
...
m
m
m
Рис. 1.11. Размеченный граф многоканальной СМО с ограниченной очередью
Составим систему уравнений для определения предельных вероятностей состояний: P1 P0 P0 , где
36
P2
P1
2
P3
P2
3
2
P0
2
3
1 2 3
P0
k
P , k 1,, m k! 0 Pm m
Pk Pm 1 Pm
Pm 1
2
m
k
m 1
Pm
m N m n m
P0
k!
k 0 N 1
m!
1
n m
N 2
1
n
2
m
1
n 0
n m
Pn
Pm , n m 1,, N m .
m Введем обозначение m
, тогда m
n m
Pn
n m
Pm
m!
P0 (n m,, N m) , и
k
Pk
P0
k!
(k 1,, m 1) .
Учитывая условие, что сумма всех вероятностей равна единице, m 1
т.е.
N m
Pk k 0
Pn
1, получим P0 :
n m m 1
k
m
k 0
k!
m!
P0
N 1
1
1
.
1
(1.31)
Определим среднее число заявок в очереди: N
Lq n 0
m
N
nPn
n n Pm , где Pm
m n 0
37
P0
m!
;
N
Lq
Pm
n 1
n
.
(1.32)
n 0 G
Введем в рассмотрение функцию: N
1
N 1
;
1
n 0
G
N 1
1
n
G
N
N 1 1
1
N 1
1
N
N
N 1
2
1
. (1.33)
Подставим (1.33) в (1.32): m
Lq
m!
N 1
1 N
P0
N 1 2
1
N
.
(1.34)
Вероятность отказа в обслуживании равна: N
Pотк
PN
N m
Pm
m!
Эффективный поток заявок:
1 Pотк
эфф
m
P0 .
.
Используя формулы Литтла, получим среднее время ожидания заявок в очереди:
Lq
Wq
.
эфф
Время в СМО отличается от Wq на время обслуживания:
Ws
Wq
1
.
Наконец среднее число заявок в системе равно: Ls Ws эфф . Частный случай
m
1.
Система уравнений для определения Pn примет вид: 38
k
Pk
P0 , k 0,, m;
k!
n m
Pn
Pm , n m,, N m.
P0
Определим P0 : N m
N m
Pn
n m
Pm
n m 1
NPm ;
n m 1 m 1
k
m
k 0
k!
m
P0
1
N 1
.
Средняя длина очереди равна: N
Lq
n
Pm
n
n 0 m
Учитывая, что Pm
P0
m!
N N 1 Pm . 2
, получим: m
Lq
P0
NN 1 . m! 2
СМО без очереди (N=0)
S0
S1
Sm
...
Рис. 1.12. Размеченный граф многоканальной СМО без очереди
Используя (1.31) при N
0 , получим: m
P0 k 0
1
k
.
k!
Вероятность отказа в обслуживании равна: m
Pотк
Pm
39
m!
P0 .
Следовательно, m
1 Pотк
эфф
1
m!
P0
.
Предельные вероятности состояний S k равны: k
Pk
k!
0, 1,, m) .
P0 (k
Так как очередь отсутствует, среднее время нахождения заявок в СМО равно:
1
Ws
.
(1.35)
Среднее число заявок в СМО равно:
Ls
эфф
m
1
Ls
Ws ;
эфф
1
m!
P0
.
(1.36)
СМО с неограниченной очередью (N→∞)
S0
S1
…
Sm
...
Sn
Рис. 1.13. Размеченный граф многоканальной СМО с неограниченной очередью
Для определения характеристик данной СМО воспользуемся формулами для СМО с ограниченной очередью при N : m 1
k
k 0
k!
P0
m
1
m1
1
; m
Pотк 0;
; Pm
эфф
40
P0
m!
;
m
Lq
P0
m! 1 1 Ws Wq ; Ls
2
; Wq
Ws
Lq
Lq
;
(1.37)
.
(1.38)
Чтобы существовал установившийся процесс в СМО, необходимо выполнение условия
1.
m
1.4.3. СМО с взаимопомощью каналов Рассмотрим следующие дисциплины взаимопомощи: (в) – "все как один" (все каналы обслуживают одну заявку до тех пор, пока не закончат); (р) – равномерная взаимопомощь (равномерно обслуживаются все заявки, находящиеся в СМО): если в системе одна заявка – ее обслуживают все каналы, если в системе две заявки – все каналы разбиваются на две группы и обслуживают обе заявки и т.д. Особенностью этого вида взаимопомощи является выполнение условия – при наличии в СМО хотя бы одной заявки все каналы заняты. (б) – СМО без взаимопомощи. Будем рассматривать случаи, когда при взаимопомощи каналов общая интенсивность обслуживания СМО линейно зависит от числа каналов: m, СМО где – интенсивность обслуживания одного канала. Рассмотрим основные характеристики СМО: Ls , Lq ,Ws ,Wq , Pотк при различных дисциплинах взаимопомощи. СМО без очереди (б)
S0
S1
Sm
... 2
m 41
(б ) Для расчета L(sб) ,Ws(б) , Pотк см. формулы (1.35) и (1.36).
(в)
S0
S1 mμ
(в) Для расчета L(sв) ,Ws(в) , Pотк см. формулы (1.17) и (1.18) с заменой
на m . Всего два состояния, так как каналы не прерывают обслуживание, пока не закончат обслуживание одну заявку.
S0
(р)
S1
Sm
...
m
m
m
( р) Для расчета L(sр) ,Ws( р) , Pотк см. формулы (1.22 – 1.25) с заменой N
на m-1, и
на m .
Сравним характеристики:
Pотк(в )
Pотк(б )
Pотк( р ) ;
L(sв ) L(sб ) L(sр ) ; Lq ,Wq 0; Ws(в )
1 m
Ws( р ) Ws(б ) . СМО с неограниченной очередью
S0
(б)
S1 2
…
Sm
... m
m
Sn m
m
Очередь начинается после состояния S m . Для расчета L(sб ) ,Ws(б ) , L(qб ) ,Wq(б ) см. формулы (1.37) и (1.38).
42
(в)
S0
S1
Sn
...
m
m
m
m
Очередь начинается после состояния S1 (р)
S0
S1
Sm
...
m
m
m
Sn
...
m
m
m
Очередь начинается после состояния S m . Отметим, что размеченные графы для обеих дисциплин взаимопомощи одинаковые, из чего следует, что предельные вероятности i
состояний Pi
P0
m
(i 1, 2,...,n) одинаковые. Это означает,
что Ls и Ws равны для равномерной и "все как один" дисциплин взаимопомощи. Для их расчета следует использовать формулы одноканальной СМО с неограниченной очередью, заменив в них на m . Для расчета L(qв ) ,Wq(в ) следует использовать формулы одноканальной СМО с неограниченной очередью, заменив в них L(sâ ) . тим, что L(qâ )
на m . Отме-
Средняя длина очереди для равномерной дисциплины взаимопоm L(sp) . мощи определяется выражением: L(qð ) Сравним характеристики СМО:
Pот к 0; L(sб )
L(sв)
L(sр ) ;
L(qб )
L(qв)
L(qр ) ;
43
Ws(б ) Ws(в ) Ws( р ) ; Wq(б ) Wq(в ) Wq( р ) . СМО с ограниченной очередью
(б)
S0
S1
Sm
...
2
m
SN
...
m
m
m
(б) Для расчета L(qб ) см. формулу (1.34), а для L(sб ) ,Ws(б ) ,Wq(б ) , Pотк –
формулы в том же пункте. (в)
S0
S1
SN 1
...
m
m
m
Очередь начинается после состояния S1 . (в) Для расчета L(sв) ,Ws(в ) , L(qв ) ,Wq(в ) , Pотк см. формулы (1.22 – 1.25) с
заменой (р)
на m .
S0
S1 m
Sm
...
m
m
SN
...
m
m
m
Очередь начинается после состояния S m . (р) Для расчета L(sр) ,Ws(р) , Pотк , P0 см. формулы (1.22 – 1.25) с заменой
на m и N на N+m-1. Средняя длина очереди равна: N
Lq
N
nPm n 1
n
Pm
N
n n 1
n 1
P0
m 1
n
n 1
.
n 1
Для получения окончательной формулы см. (1.32) и (1.33):
44
Lq
P0
m 1
1 N
N 1
1
N 1
N
.
2
Сравним характеристики СМО: Pотк( в ) Pотк( б ) Pотк( р ) ; L(sр ) L(sб ) L(sв ) . Что касается других характеристик, можно указать только соотношения между некоторыми из них:
L(qб)
L(qр) ; Ws(б) Ws( р) ; Wq(б) Wq( р) .
Равномерная взаимопомощь (р) наиболее эффективная из всех, а про взаимопомощь «все как один» (в) ничего определенного сказать нельзя, так как все зависит от соотношения , , m, N. 1.4.4. СМО самообслуживания Системы, в которых нет отказа и отсутствует очередь, называются СМО самообслуживания. Такие требования к СМО будут выполняться, если в СМО число каналов будет стремиться к бесконечности. Размеченный граф такой СМО представлен на рис. 1.14.
S0
S1
Sn
...
2
n
(n+1)
Рис. 1.14. Размеченный граф СМО самообслуживания
Для анализа СМО самообслуживания достаточно использовать формулы Литтла. Так как СМО без потерь, то , эфф а Lq
Ws
0,
Wq 1
, Ls
остальные
характеристики
.
45
СМО
равны:
Определим вероятность состояния S 0 − вероятность того, что
система будет свободна: n
pn
p0
n
n
n
n!
p0
n!
p0 n 0
1
e
n!
.
Так как формулы Литтла справедливы для СМО с произвольными потоками заявок и временем обслуживания, то формулы для Ws и
Ls тоже справедливы для СМО самообслуживания с произвольными потоками заявок и временем обслуживания. В то же время, при выводе формулы для P0 использованы процессы гибели и размножения, поэтому полученное выражение справедливо только для пуассоновских СМО самообслуживания. 1.4.5. Замкнутые СМО Чтобы представить этот класс СМО, рассмотрим ее пример. Пусть есть n станков – источники заявок, каждый из которых выходит из строя с интенсивностью . Для обслуживания выходящих из строя станков имеются каналы обслуживания. Если число каналов m = 1, то замкнутая система одноканальная, если m > 1, то замкнутая система многоканальная. Одноканальные замкнутые СМО Размеченный граф для такой системы имеет вид:
n
S1
(n-1)
S2
(n-2)
S3
...
Sn
Рис. 1.15. Размеченный граф одноканальной замкнутой СМО
Составим систему уравнений для определения предельных вероятностей:
46
n
P1
P0
n P0 ;
(n 1) P1 n(n 1) 2 P0 ; . . . n(n 1)...(n k 1) k P0 (k 1, 2,...,n) , P2
Pk
или
n! (n k )!
Pk
k
P0 (k 0, 1,...,n) .
n
n
Pk 1
P0
k 0
n
P0 k
n! 0 (n k )!
k
n! 0 (n k )!
k
1
,
1 k
– вероятность того, что все станки рабо-
тают, а аппарат обслуживания простаивает. n
Ls
kPk . k 0
Определим Ls исходя из особенности одноканальной замкнутой СМО. Если система находится в равновесии, то общая эффективная интенсивность обслуживания и эффективный поток заявок должны быть равны: ' эфф ' эфф . Эффективный поток заявок определяется выражением: (n Ls ) , а эффективная интенсивность обслуживания: ' эфф ' эфф
(1 P0 ) .
Получаем уравнение для определения Ls :
(1 P0 )
Ls
(n Ls ) ; (1 P0 ) (1 P0 ) , где n n
47
.
Остальные характеристики определяются по следующим формулам:
Ws
Ls
Ls ; (n Ls ) 1
' эфф
Wq Ws
Lq
;
W
' эфф q ;
Lq Ws
Lq
Ls
Lq
n
n
' эфф
(n Ls ) 1 P0
(1 1
1 P0
' эфф
Ls
' эфф
;
Ls (1
) n ;
) n
n
(1 P0 )
n
1 P0
n
.
Многоканальные замкнутые СМО Размеченный граф данного класса СМО приведен на рис. 1.16 ( m n ). n
S1
(n-1)
(n-2)
S3
S2 2
(n-m+1)
Sm
...
3
(n-m)
m
Sn
...
m
m
Рис. 1.16. Размеченный граф многоканальной замкнутой СМО
Определим предельные вероятности состояний системы.
Pk
n!
k
(n k )!k!
P0 (k 1,...,m) ;
48
n! m P0 ; (n m)!m! (n m) Pm 1 Pm ; m (n m)(n m 1) 2 Pm 2 Pm ; m2 (n m)! s m Ps P (s m 1,...,n) . (n s)!ms m m После упрощения Pm получим: Pm
m
P0
k
n! m! s 1 (n k )! k!
1 k
n!
1
s
n m 1
(n s)!ms
m
;
n
Ls
kPk ; k 0
(n Ls ) ; Ls
' эфф
Ws
;
' эфф
Wq Ws
Lq Wq
1 эфф
;
.
В частном случае, когда m n и , СМО распадается на m одноканальных, т.е. за каждым каналом закрепляется один источник заявок (станок). Для отдельного канала и всей СМО в целом выполняется:
Ws
1
.
49
Загруженность отдельного канала ме Ls
, а число заявок в систе-
n . Кроме того, в данной СМО Lq
0 и Wq
0.
1.4.6. Многофазные СМО Многофазные СМО представляют собой обслуживание заявок последовательно в нескольких СМО (фаз). Поток заявок поступает на СМО1. Многофазные СМО без потерь 1
СМО1
СМО2
СМО3
Каждая i-я СМО имеет характеристику i, и у всех очереди бесконечные. СМО без потерь означает, что все заявки проходят все фазы, т.е. i= 1, i=1, 2, ..., n. Рассмотрим случай, когда все СМОi – одноканальные. Имея данные для каждого СМОi – i, i , можно рассчитать характеристики Lsi , Lqi ,Wsi ,Wqi . Характеристики многофазной СМО рассчитываются в соответствии со следующими выражениями: n
n
Ls i 1
n
n
Lsi ; Lq
Lqi ; Ws
Wsi ; Wq i 1
i 1
Wqi . i 1
Многофазные СМО с потерями В данном классе многофазных СМО после каждой фазы обслуживания заявки с вероятностью Pi не обслуживаются на следующих фазах (происходит потеря заявок).
P1
P3
P2
1
СМО1
СМО2
1 P1
СМО3
1 P2 50
Выход
1 P3
Потоки заявок, поступающие на обслуживание в каждую СМОi, определяются следующим образом: (1 P1) 1 ; 2 3
(1 P2 )
2
(1 P1 )(1 P2 ) 1 ;
. . . n 1 n
(1 Pi ) .
1 i 1
На выходе такой многофазной СМО поток обработанных заявок на всех фазах равен: n вых
(1 Pi ) .
1 i 1
Рассматривая случай, когда для всех фаз очередь бесконечная и
m = 1, можем рассчитать характеристики СМОi, а затем – характеристики многофазной СМО так же, как в многофазной без потерь. Многофазные СМО без очереди В данном классе СМО для всех фаз Ni = 0. Подход к анализу таких СМО продемонстрируем на двухфазной системе:
Pотк1 1
Pотк2 2
СМО1
СМО2
Выделим две разновидности систем, каждая из которых отличается процессом функционирования. Двухфазная СМО без блокировки фаз Возможные состояния данной двухфазной СМО:
51
S00 – обе фазы свободны; S10 – первая занята, вторая свободна; S01 – первая свободна, вторая занята; S11 – обе заняты. Размеченный граф такой СМО представлен на рис. 1.17, на котором 1 – интенсивность обслуживания в СМО1, а 2 – в СМО2.
S00
S10
2
2
1
1
S01
S11
Рис. 1.17. Размеченный граф двухфазной СМО без блокировки
Составим систему уравнений для нахождения предельных вероятностей: P00 P01 2 (1.39)
P10 P01 ( P11 (
P00 P11 2 P10 1 P11 2) P01 . 2)
1
1
Решим полученную систему уравнений: из (1.39): P01
P00 ; 2
из (1.42): P11
P01 1
2
P00 ; 2
52
1
2
(1.40) 1
(1.41) (1.42)
2
из (1.40): P10
P00 1
1
(
1
2
)
P00 .
P00 определим из условия, что сумма всех вероятностей равна единице: 2
P00 1 2
2
(
1
2 2
)
1
1
(
1
2
)
1.
Перейдем к расчету характеристик двухфазной СМО: Ls 0 P00 1 ( P10 P01) 2P11 ;
Lq
0 ; Wq
0.
Вероятность отказа на первой фазе:
Pотк1 P10 P11 ; Pотк1 . отк1 (P00 P01) .
Поэтому 2 (1 Pотк1) На второй фазе получают отказ заявки, которые поступают после первой фазы в то время, когда вторая фаза занята:
P11
P11(P00 P01)
1 2
отк2
1
2
эфф
отк1
1
отк2
1
;
2 1
(P00 P01) 1 P11 1
Ws
Ls
; 2
.
эфф
Двухфазная СМО с блокировкой первой фазы Состояния системы: S00 – обе фазы свободны; S10 – первая занята, вторая свободна; S01 – первая свободна, вторая занята; 53
S11 – обе заняты; Sб1 – блокировка первой фазы. В это состояние система переходит в случае, когда заявка обслужена на первой фазе, но вторая фаза в этот момент занята. Заявка остается на первой фазе, тем самым блокирует поступление следующей заявки на первую фазу. Размеченный граф такой СМО имеет вид:
S00
S10
2
2
1
S01
S11
2
1
Sб1 Рис. 1.18. Размеченный граф двухфазной СМО с блокировкой
Составим и решим систему уравнений для определения предельных вероятностей:
P00
P01
P01
2
2
P00 ; 2
P10
P00
1
P11
P10
2
P00
; 1
P01 (
2
) P10
1
Pб1
2
2; 2
P11 (
1
P01 2)
P11
P01 1
2
2
(
2
Pб1
2
P11
1
Pб1
1
1
P11
2 2
2
Используя нормирующее условие 54
(
1
2
)
P00 .
1
2
)
P00 ;
P00 P10 P01 P11 Pб1 1 , определим P00 и все остальные вероятности. Характеристики СМО будут вычисляться в следующей последовательности.
Pотк эфф
P10 P11 Pб1 ; Ls
(P00 P01)
P10 P01 2(P11 Pб1) ; Ls ; Ws ; Lq Pб1 ; Wq
Lq
.
эфф
эфф
Рассмотренный подход к анализу двухфазной СМО можно распространить на большее число фаз. На рис. 1.19 представлен размеченный граф трехфазной СМО с отказами без блокировки фаз: 3
S000
3
1
S100
2
S010 1
S110
2
S001
S011
1
S101
2
3
1 2
S111
3
Рис. 1.19. Размеченный граф трехфазной СМО без блокировки
1.5. Пуассоновские сети СМО Cети СМО представляют собой множество СМО (узлы сети), при этом заявки обслуживаются в нескольких узлах. Последовательность прохождения заявок в сети определяется вероятностями перехода заявок от одного узла к другому.
55
Рис. 1.20. Топология сети СМО
Будем рассматривать пуассоновские сети СМО, т.е. из источника поступает пуассоновский поток заявок, а время обслуживания в каждом узле i распределено по экспоненциальному закону: it . i t ie СМО в каждом узле – одноканальная с бесконечной очередью. Для этого класса СМО выходной поток является пуассоновским (см. п.1.3.1). Учитывая свойства и операции с пуассоновскими потоками (суперпозиция потоков и их случайное просеивание), можно сделать вывод, что входной поток в СМО в каждом узле является пуассоновским. Анализ сетей СМО заключается в расчете потоков заявок в каждом узле. После чего рассчитываются характеристики СМО в каждом узле Lsi ,Wsi , Lqi,Wqi i 1, 2,, n , а затем характеристики сети СМО в целом: Ls ,Ws , Lq ,Wq . 1.5.1. Ациклические сети СМО В ациклических сетях каждая заявка может посетить узел не более одного раза (заявка может посетить узел или нет). Это условие означает, что матрица переходов будет иметь следующий вид:
56
0 P12 P13 P14 0 0 P23 P24 Pij : . 0 0 0 P34 0 0 0 0 Рассчитаем величины входных потоков в каждый узел (нагрузку на СМО):
P01 P02
1 2
0
P12
0
1
i 1
Pji j.
i j 0
Характеристики каждого узла Lsi ,Wsi , Lqi ,Wqi рассчитываются как для одноканальной СМО: n
Ls
n
Lsi ; Lq
Lqi ,
i 1
i 1
n
Ws
Wsi ,
i i 1
где
i i
– вероятность посещения произвольной заявки СМО i .
0
Среднее время ожидания заявок в очередях сети определяется также как среднее время пребывания в сети: n
Wq
Wqi .
i i 1
Рассмотрим случай, когда имеется в сети не один, а несколько источников с входными пуассоновскими потоками 0k , k 1, 2,, m . В этом случае должны быть также заданы матрицы вероятностей переходов между узлами для каждого из входных потоков
57
k 0
Pij k .
Тогда нагрузка на узел i из всех источников будет определяться по формуле: m k i
,
i k 1
где
k i
– поток заявок в i - узел, поступающий из k - источника, ко-
Рассчитав
i
и зная
i,
и Pij k .
k 0
торый рассчитывается на основании
можно определить характеристики СМО i
(каждого узла) Lsi ,Wsi , Lqi ,Wqi . Расчет характеристик сети относительно каждого источника ведется по следующим формулам: n
Ws k
k i
Wsi ;
i 1 k
n
Wq k
k i
k
Wqi , где
i
i
k 0
i 1 k
n
Lsk
i
Lsi i 1
; i k
n
Lqk
;
i
Lqi i 1
. i
Для определения Ls и Lq по всем источникам вместе Lsk и Lqk суммируется, а время пребывания произвольной заявки в сети рассматривается по формуле: m
Ws k 0
k 0
m
Ws k , где
k 0
0
.
k 1
0
Аналогично рассчитывается среднее время ожидания заявок во всех очередях сети: m
Wq k 0
58
k 0 0
Wq k .
1.5.2. Циклические сети СМО В циклических сетях заявка может посетить один узел неоднократно. Пример такой сети приведен на рис. 1.21. Для анализа циклических сетей совместим "выход" и "источник". Матрица переходов для циклических сетей Pij произвольная.
Рис. 1.21. Топология циклической сети СМО
Рассматривая процесс перехода заявки от узла к узлу как марковский процесс, рассчитаем предельные вероятности нахождения заявки в каждом узле. Для этого решим следующее векторное уравнение (см. раздел 1.3).
P P Pij ; P
P0 , P1,, Pn .
Отношение Pi к P0 можно интерпретировать как частоту посещения заявки узла i (СМО i ), вышедшей из источника: i
59
Pi . P0
Тогда входной поток в узел i будет определяться по формуле: i i 0. Зная интенсивность обслуживания в каждом узле
i
, рассчитаем
характеристики по каждому узлу Lsi ,Wsi , Lqi ,Wqi . Расчет характеристик сети в целом ведется так же, как и в ациклических сетях. n
n
Ls
Lsi ; Lq i 1
Lqi; i 1
n
Ws
n iWsi ; Wq
i 1
Wqi.
i i 1
Анализ циклических сетей СМО с несколькими источниками производится аналогично ациклическим сетям. Пример расчета циклической сети СМО.
0 0,5 0,5 0 0 0 0,3 0,7 Задана матрица переходов Pij : . 0,5 0 0 0,5 0,7 0,3 0 0 Входной поток 0 10 и интенсивности обслуживания заявок в узлах: 1 50, 2 30, 3 40 . Находим предельные вероятности, решая систему уравнений:
P0 0,5P2 0,7P3 P1 0,5P0 0,3P3 P3 0,7P1 0,5P2 n
Pi 1 i 1
P0
1 ; P 9 1
4 ; P 9 2 60
2 ;P 9 3
2 . 9
Далее рассчитываем: 1
P1 P0
4;
P2 P0
2
2;
P3 P0
3
2.
Входные потоки заявок на каждый узел будут равны: 1
1
0
40;
2
20;
2 0
3
3 0
20 .
Рассчитаем характеристики СМО в каждом узле:
Ls Ls1
0,8 4; Ls 2 1 0,8
;
1 2
31
Wsi
2 3 Lsi
2; Ls3
0,5 1; 1 0,5
;
i
Ws1
4 0,1; Ws 2 40
2 0,1; Ws3 20
1 0,05 . 20
Интегральные характеристики по сети будут равны:
Ls
4 2 1 7; Ws
0,1 4 0,1 2 0,05 2 0,7.
1.6. Непуассоновские СМО Для анализа непуассоновских СМО следует использовать имитационное моделирование. Вопросы имитационного моделирования рассматриваются во множестве пособий и учебников, см., например, [4,5]. Вместе с тем, для некоторых классов непуассоновских СМО можно произвести аналитические расчеты характеристик. Это СМО, в которых входной поток непуассоновский, или время обслуживания – не экспоненциальное распределение. В данном разделе будут рассмотрены именно такие СМО.
61
1.6.1. Анализ непуассоновских СМО методом Эрланга Суть этого метода заключается в аппроксимации непуассоновского потока потоком Эрланга k – го порядка. а) СМО с произвольным законом времени обслуживания Класс СМО e t , (t ), m 1, N 0 , где (t ) – произвольная функция распределения. Определив по (t ) математическое ожидание и дисперсию времени обслуживания (t ) , аппроксимируем распределением Эрланга
M2 t . Вопросы анализа таких Dt
k–го порядка (см. раздел 1.2) k
СМО рассмотрим последовательно по мере усложнения для Эрланга 2-го, 3-го и т.д. порядка. Пусть время обслуживания распределено в соответствии с зако2 ном Эрланга 2-го порядка: t te t (т.е. в пуассоновском пото-
2 ). ке вычеркивается каждый второй элемент э Процесс обслуживания будем представлять как последовательность двух этапов, на каждом из которых обслуживание ведется по 2 э. экспоненциальному закону с Размеченный граф такой СМО приведен на рис. 1.22. S00
S11 2 2
э
э
S12 Рис. 1.22. Размеченный граф одноканальной СМО без очереди и временем обслуживания Эрланга 2-го порядка
62
Состояния СМО: S00 – в системе нет заявок; S11 – в системе одна заявка и обслуживается на первом этапе; S12 – в системе одна заявка и проходит второй этап обслуживания. Найдем предельные вероятности:
P00
P11 2
P11
э
2
P11 2 э P12 2 э P11 P00 P11 P12 1
1
P00 2
э эфф
2
э
1
P12 ;
; P11
+
P00 ; э
P12
э
2(
э
)
;
э
; Pотк
P00
P11 P12
; э
Ls
P11 P12
Ls
; Ws э
Рассмотрим СМО, в которой третьего порядка:
S00
эфф
.
э
– распределение Эрланга
t
S11 3
3
1
э
S12
э
3
э
S12 Рис. 1.23. Размеченный граф СМО с временем обслуживания Эрланга третьего порядка
63
После решения системы уравнений получим предельные вероятности: э
P00 P11
P12
;
+ P13
э
3(
Ls
э
)
;
. э
Получаем те же самые формулы, что и для СМО с (t ) – Эрланга второго порядка. Следовательно, для одноканальных систем без очереди для закона Эрланга любого порядка получаем одни и те же формулы. Рассмотрим СМО с ограниченной очередью:
e
t
(t ) (2 э )2 te 2 эt – распределение Эр-
3 , где
, (t ),1, N
ланга второго порядка. Размеченный граф такой СМО приведен на рис. 1.24:
S00 2
S11 э
2
э
S12
S31
S21 2
э
2
S22
э
2
э
2 S32
S41 э
2
э
2
э
S42
Рис. 1.24. Размеченный граф одноканальной СМО с ограниченной очередью и временем обслуживания Эрланга 2-го порядка
Состояния системы: S i1 – число заявок в СМО – i, и заявка обслуживается на первом этапе;
64
S i 2 – заявка проходит обслуживание на втором этапе. Если (t ) – закон Эрланга третьего порядка, т.е. 2 3t (t ) (3 э ) e 2 эt , то надо добавить еще один ярус в размечен2
ный граф:
S00 3
S11 э
3
3
э
S13
э
3
3
э
э
3 S23
э
3
S41 3
э
S32
S22
S12 3
S31
S21
э
3 S33
3
э
э
S42 3
э
э
S43
Рис. 1.25. Размеченный граф одноканальной СМО с ограниченной временем обслуживания Эрланга третьего порядка
очередью и
Не составляет трудностей построить размеченный граф и для многоканальных СМО для времени обслуживания распределенном по закону Эрланга k – порядка, чтобы получить предельные вероятности и затем характеристики СМО. б) СМО с произвольным входным потоком Класс СМО f t , e t , m 1, N 0 , где f (t ) – произвольное распределение. Аппроксимируем f (t ) распределением Эрланга k – го порядка. Рассмотрим сначала СМО, в которой f (t ) (2 э )2 te 2 эt – распределение Эрланга второго порядка.
65
В данных СМО интервал времени между заявками представим в виде двух этапов, каждый из которых распределен по экспоненциальному закону с 2 э . Состояния системы будут иметь двойной индекс. S i1 – в системе i заявок, и формирование заявки проходит первый этап. S i 2 – формирование заявки проходит второй этап. Размеченный граф такой СМО приведен на рис. 1.26 :
S01
2
S11 2
э
2
э
2
э
S02
э
S12
Рис. 1.26. Размеченный граф одноканальной СМО без очереди с входным потоком Эрланга второго порядка
Обозначим
э
через
P01 2
, получим систему уравнений:
P11
P01
2
P11 2
P02 2
P01 2
P12
P02
P11(
2 ) P02 2
P12 2
P12(
2 ) P11 2
P12
66
P11 2 2
2 (
P11.
4 2 )
Составим уравнение для нахождения P11:
P01 P02 P11 P12 1
P11
P11
2
2
P11 1
2
2
2 (
2 )
(2
)2 2 (
P11
2
4
2 (
1
2 )
( 2 ) 4 2 2 ( 2 ) 2 2 P11 2 )
2
4
.
Остальные вероятности равны;
P01
P11
2
2
P02 P12
2( 2 2
2( 4 2 )2 P11
2 ) ( 4 ) 2( 2 )2 2 2 . ( 2 )2
Определим характеристики СМО:
P022 э ;
эфф
Pотк 1
эфф
1 2P02 ;
э
Ws 1 ; Lq Wq 0 ; 2 ý Ls Ws ýôô P02.
67
1
1
Рассмотрим СМО, в которой входной поток – поток Эрланга
(2 )3 t 2 e 2
третьего порядка
2 эt
, e t , m 1, N
0 .
Размеченный граф такой СМО приведен на рис. 1.27 :
S01 3
S11 3
э
3
э
S02 3
э
3
S12 3
э
S03
э
э
S13
Рис. 1.27. Размеченный граф СМО с входным потоком Эрланга третьего порядка
Для определения характеристик такой СМО надо рассчитать предельные вероятности Pij , а затем Ls ,Ws ,Wq , Lq .
S01 2
э
S02
S11 2
э
2
э
S31
S21 2
э
2
э
2
S22
S12
э
2
э
2
э
S32
Рис. 1.28. Размеченный граф одноканальной СМО с ограниченной очередью и входным потоком Эрланга второго порядка
68
Для СМО с ограниченной очередью строится граф увеличением числа состояний, как это делается для пуассоновских СМО. На рис. 1.28 приведен граф для одноканальной СМО с входным потоком Эрланга 2-го порядка и максимальной длиной очереди N=2. Чтобы определить характеристики СМО, необходимо рассчитать предельные вероятности Pij , а затем Ls ,Ws ,Wq , Lq . Нет принципиальных трудностей и для анализа СМО с входным потоком Эрланга k – го порядка. 1.6.2. Анализ непуассоновских СМО методом вложенных цепей Маркова Анализ СМО с произвольным временем обслуживания Рассмотрим СМО класса t , t , m 1, N . Будем называть момент выхода из системы обслуженной заявки моментом регенерации системы. Определим q n – вероятность поступления ровно n заявок в СМО между моментами регенерации. Искомая вероятность вычисляется по формуле:
( t)n t e (t )dt . n! 0 Обозначим состояния СМО: S n – в системе находится n заявок. Матрица переходов из одного состояния в другое Pm n имеет qn
вид:
69
Pmn
Отметим, что
S0 S1 S0 q0 q1 S1 q0 q1 S2 0 q0 ... Sm ... ... ... ...
S2 Sn q2 qn q2 qn q1 ... ... ... qn m 1 ... ... ... ... ... ...
qn 1 . n 0
Строка S 0 матрицы совпадает со строкой S1 , потому что рассматривается интервал между моментами регенерации (моментами выхода заявки из СМО). Эти интервалы не отличаются, была ли в СМО одна заявка в предыдущий момент регенерации (она находилась на обслуживании) или заявок в СМО вообще не было. Составим систему уравнений для нахождения предельных вероятностей.
P0 P0q0 Pq 1 0 P1 P0q1 Pq P2 q0 1 1 n 1
Pn
P0qn
Pq 0,1, 2,...) i n 1 i , (n i 0
Используем Z–преобразование для определения характеристик СМО (основные положения Z–преобразования приведены в приложении 3):
Pn z n ;
P( z) n 0
70
n 1
z n P0 qn n 0
P( z)
zn n 0
Pi qn 1 i .
(1.43)
i 0
P0Q( z )
Преобразуем второе слагаемое: n 1
zn n 0
i 0
Сделаем замену n 1
1 zk zk1
k
n 1
Pi qn 1 i . i 0
k:
k 1 k z Pi qk i P0 qk . i zk 0 i 0 1 1 1 P0 z k qk P( z)Q( z) P Q( z) . (1.44) z k0 z z 0
Pi qk i 0
k
1 z k Pi qk zk 0 i 0
1 zn 1 zn0
Pi qn 1 i
i
Выражение (1.44) можно также получить, используя свойство Z– преобразования:
1 ( P( z) P0 ) . z
z n Pn 1 n 0
Подставляя (1.44) в (1.43), получим:
1 1 P( z)Q( z) P Q( z) . z z 0
P( z) P0Q( z) Откуда
1 ) z
P0Q( z)(1 P( z)
1 1 Q( z) z Рассмотрим подробнее Q z :
z k qk
Q( z)
zk
k 0
k 0
Q( z) 0
P0Q( z)(z 1) . z Q( z)
k
( t)k e k! 0
( tz) k e k! 0
71
t
t
(t )dt ;
(t )dt ;
(1.45)
Q( z)
e
t ( z 1)
(t )dt ;
0
Qz ( z)
t ( z 1)
te
(t )dt ;
0
Qz (1)
t (t )dt
M (t ) ;
2 2
(t )dt ;
(1.46)
0
Qz ( z)
t e
t ( z 1)
0
M (t 2 ) 2 D(t ) M 2 (t ) . (1.47) Чтобы определить P0 в (1.45), надо использовать свойство Z– Qz (1)
2
преобразования:
P z z 1 1. При подстановке в (1.45) z 1 получим неопределенность. Применим правило Лапиталя для нахождения предела lim P( z) . z 1
Берем производную числителя и знаменателя:
P0Qz ( z 1) P0Q( z) P0Q(1) 1. 1 Qz ( z) 1 Qz (1) Учитывая (4) и тот факт, что Q(1) 1 , получим: P0 1. 1 M (t ) lim P( z) lim z 1
z 1
Откуда
P0 1
M (t ) .
(1.48) Для существования установившегося режима в СМО (чтобы очередь не росла до бесконечности) необходимо, чтобы M t 1 . Получим выражение для определения Ls . Для этого возьмем производную от P z :
72
Ls
Pz ( z) P0
Qz ( z 1) Q( z) z Q( z) (1 Q ( z))Q( z)(z 1)) . z Q( z) 2
После преобразования получим:
Pz ( z) P0
z( z 1)Qz Q( z)(Q( z) 1) . ( z Q( z))2
Среднее число заявок в СМО равно:
Ls
z( z 1)Qz Q( z)(Q( z) 1) . ( z Q( z))2
Pz (1) P0 lim z 1
Чтобы разрешить неопределенность, воспользуемся правилом Лапиталя:
Ls
P0 lim
Q (z 2
z 1
z) 2zQz 2Qz Q( z) ; 2( z Q( z))(1 Qz ) P0
2
Ls
Q ( z)(z z) ]. 2( z Q( z))
lim[Qz z 1
Чтобы вновь снять неопределенность, еще раз воспользуемся правилом Лапиталя:
Ls
lim Qz z 1
Ls
Qz (3) ( z 2
z) Qz (2z 1) ; z 1 2(1 Qz ) Qz (1) Qz (1) . 2(1 Qz (1)) lim
(1.49)
После подстановки в (1.49) выражения (1.46) и (1.47), получим: 2 (D(t ) M 2 (t )) , (1.50) Ls M (t ) 2(1 M (t )) которая носит имя формулы Хинчина –Поллачека. ; Ws Ls ; Wq Ws M t ; эфф 2
Lq Wq
Lq
73
[D(t ) M 2 (t )] . 2(1 M (t ))
Примеры анализа СМО методом вложенных цепей Маркова Пример 1. Пусть t e t , тогда: M t 1 и D t 1 2 . При подстановке математического ожидания и дисперсии в формулу Хинчина–Поллачека получаем ту же формулу Ls , которая была получена в п. 1.4.1 для пуассоновских систем:
1
2
1
2
Ls
2
2(1
2
1
)
1
.
Пример 2. Пусть T – время обслуживания – постоянная величина, т.е. M t T , D t 0 . После подстановки в формулу Хинчина– Поллачека получим выражение для Ls : 2
Ls
T
T2 . 2(1 T )
СМО с произвольным входным потоком Класс СМО f t , e t , m 1, n . В этом случае моменты регенерации системы – моменты поступления заявок в СМО. Матрица переходов из одного состояния в другое d kn имеет вид:
d kn
S0 S1 S2 Sn 1
S0 S1 S2 S3 h0 d0 0 0 h1 d1 d0 0 h2 d2 d1 d0 hn 1 d n 1 d n 2 d n 3 .
74
Sn 0 0 0 d0 .
где d 0 – вероятность того, что между моментами регенерации СМО будет обслужено 0 заявок; d n – вероятность того, что между моментами регенерации СМО будет обслужено ровно n заявок, которая определяется по формуле:
dn
( t) n e n! 0
n
f (t )dt .
Вероятности hk вычисляются из условия, что сумма вероятностей по каждой строке равна единице: k
hk 1
dn . n 0
Предельные вероятности найдем из уравнения P
P1
P d kn :
Pk dk k 0
P2
Pk 1dk k 0
Pn
Pk
d
n 1 k
k 0
Будем находить решение системы уравнений в виде: Pn Bxn , где 0 x 1 , а B – постоянный коэффициент.
Bxn
Bxk
n 1
d k ( n 1, 2, )
k 0
xk dk .
x k 0
75
При x
(0; 1) это уравнение имеет единственное решение x0 , по-
xk dk :
кажем это (рис. 1.29). Введем обозначение D( x) k 0
D0
d0
0;
kx k 1d k
Dx
0;
k 1
k (k 1) x k 2 d k
Dx D(x)
0.
k 1
f ( x)
x
D(x)
d0 0
x0
1 Рис. 1.29. График функции
x
Dx
0 и Dx 0 , то функция D x – выпуклая и монотонно – возрастающая. Чтобы x0 было единственным решением, необходимо, чтобы D (1) 1. Так как Dx
x k ( t) k e t f (t )dt ; k ! k 0 0
xk dk
D( x) k 0
e
D( x)
e
t ( x 1)
t ( x 1)
f (t )dt ;
0
Dx (1)
t f (t )dt 0
76
M (t ) .
Значит, x0 существует, если
Mt
1. Решая уравнение x D x , находим x0 . Для определения коэфPn
фициента В воспользуемся соотношением
1:
n 0
x0 n
1;
1 1 x0
1;
B n 0
B
B 1 x0 . Таким образом, Pn 1 x0 x0n . Определим характеристики СМО:
Ls
nPn ; n 0
n(1 x0 ) x0 n
Ls
nx0 n 1 ;
(1 x0 ) x0
n 0
n 0
F ( x0 ) ( n 0
x0 n ) x0
x0 ; 1 x0 Ls M (t ) ;
Ls Ws
Wq Lq
1 ; (1 x0 ) 2
Ws 1 ;
Wq M (t )
Ls
1 . M (t )
Примеры анализа СМО методом вложенных цепей Маркова e Пример 1.Пусть входной поток – пуассоновский, т.е. f t Составим уравнение для определения x0 : D x
77
x;
t
.
xk dk
Dx
xk
k 0
et (
D( x)
0k 0
x
)
dt
0
( t)k e k!
t
e t dt ;
et (
x
x
)
.
x
0
Решаем уравнение
x2 (
x
x
)x
Решением данного уравнения будет x0
0. ; Ls
1
, т.е.
получаем ту же формулу Ls , которая была получена в п. 1.4.1 для пуассоновских систем. Пример 2. Пусть входной поток в СМО – регулярный, т.е. интервал между поступлениями заявок T const . Составляем уравнение для x0 : D x x
( T )k T e k! e T ( x 1) x .
xk
D( x) k 0
e
T ( x 1)
;
Находим x0 из полученного уравнения.
Ls
x0 ; Ws 1 x0
LsT ; Wq Ws
1
; Lq
Ls
1 . T
1.7. СМО с приоритетами В данном классе СМО на вход поступают несколько потоков заявок разного приоритета. Обозначим эти потоки через 1, 2, ..., n) , где i – приоритет. Будем считать, что поток 1 i (i имеет самый высокий приоритет, а
78
n
– самый низкий.
1.7.1. Одноканальные СМО с приоритетами Класс СМО
i
e
it
,
i
(t ), m 1, , PRIOR , где
i
(t ) – плотность
функции распределения времени обслуживания заявок i-го приоритета (произвольный закон). n
Суммарный поток заявок в СМО равен:
i
i
, Pi
– веро-
i 1
ятность того, что на входе СМО поступает заявка i-го приоритета. Получим плотность функции распределения времени обслуживания n
произвольной заявки входного потока:
(t )
i
(t )
i
.
i 1
Математическое ожидание времени обслуживания:
M i (t )
n
1
t i (t )dt
i
для дисперсии: Di (t)
M i (t ) ;
i 1
0
Mi (t 2 ) Mi2 (t) ,
M (t 2 )
n
1
1
t 2 i (t )dt
i
0 i 1 n
M (t 2 ) ,
i 1
1
D(t )
n
i
[Mi (t 2 ) Mi2 (t )] .
i 1
Можно также записать:
M (t 2 ) D(t ) M 2 (t )
1
n i
[Di (t ) Mi2 (t )].
i 1
Рассмотрим задачу определения характеристик обслуживания заявок k-го приоритета. Время ожидания в очереди заявки k-го приоритета будет определяться выражением (рис 1.30): k k ож
k 1
ni qi
0 i 1
ni qi , i 1
79
(1.51)
где
0
– время до окончания обслуживания заявки, находящейся на
обслуживании в момент поступления заявки k-го приоритета, ni – заявки более высокого приоритета, которые надо пропустить на обслуживание, qi – время обслуживания заявок i-го приоритета. 1
n1
n1
2
n2
n2 канал обслуживания
: ni
i
ni
ni
: nn
n
nn
Рис. 1.30. Схема функционирования СМО с приоритетами
ni – число заявок в очереди в момент поступления заявки k-го приоритета, ni – число заявок, поступивших в систему за время ожидания в очереди заявок k-го приоритета. k 1
Сумма
ni qi учитывает тот факт, что надо пропустить на обi 1
служивание заявки более высокого приоритета, которые придут за время ожидания в очереди. Определим математическое ожидание от (1.51): k k
M ( ож ) M ( 0 )
k 1
M (ni )M (qi ) i 1
M (ni )M (qi ) . i 1
80
(1.52)
M ( ожk ) есть не что иное, как среднее время ожидания заявок k-го приоритета Wqk . M (ni ) – среднее число заявок в очереди заявок i-го приоритета: M (ni ) Lqi iWqi . M (qi ) – среднее время обслуживания заявок i-го приоритета: M (qi ) Mi (t ) . Следовательно,
M (ni )M (qi ) Wqi i Mi (t) . Обозначим через i i M i (t ) , тогда: M (ni )M (qi ) iWqi . M (ni ) – среднее число заявок i-го приоритета, поступивших за время ожидания в очереди заявки k-го приоритета. Очевидно, что M (ni ) iWqk , а M (ni )M (qi ) iWqk Mi (t) iWqk . Перепишем (2) с учетом полученных выражений: k 1
Wqk
M( 0)
k
Wqi
i
Wqk
i 1
i
(1.53)
i 1
(последнее слагаемое из первой суммы Wqk перенесли во вторую сумму) или k 1
M( 0)
Wqi
i i 1 k
Wqk 1
.
(1.54)
i i 1
Рассмотрим, как это выражение переписывается для разных приоритетов:
Wq1
M( 0) , 1 1
81
M( 0) Wq2
1
1
1
M( 0) 1 1 1 1 M( 0) 2 )(1 1
1
Wq3
1
M( 0) 1 )(1 1
(1
2
M( 0)
(1
M( 0) 1 1
2
2
M( 0) 1 )(1 1
(1 2
2
3
)
2
)
.
k 1
(k = 2, 3, ...).
k
1
,
3
M( 0)
В общем случае Wqk
)
i
1
i 1
i i 1
k
Обозначим
i
через Sk , тогда:
i 1
M( 0) , 1 S1 M( 0) Wqk (k = 2, 3, ...). 1 Sk 1 1 Sk Остановимся на вопросе определения M ( 0 ) . Wq1
(1.55) (1.56)
Рассмотрим СМО без приоритетов. В этом случае выражение (1.51) принимает вид: n ож
ni qi ,
0 i 1
n
а выражение (1.53) Wq
M ( 0 ) Wq
i i 1
Откуда получим выражение для Wq :
82
.
M( 0)
Wq
.
n
1
(1.57)
i i 1
В СМО без приоритетов в соответствии с формулой (1.50) Хинчина−Поллачека:
Wq
[D(t ) M 2 (t )] 2[1 M (t )]
M (t 2 ) . 2[1 M (t )]
(1.58)
Напомним, что для произвольно выбранной заявки в СМО с приоритетами: n
n i M i (t )
i
i 1
M (t )
i 1
,
(1.59)
n i
M (t 2 )
Mi (t 2 )
1
i 1
n i
[Di (t ) Mi (t )] .
(1.60)
i 1
Выражение (1.58) с учетом (1.59) и (1.60) имеет вид: n n 2 i [ D (t ) M 2 (t )] i i i [ Di (t ) M i (t )] i 1 i 1 Wq . n n 1 21 21 i i i 1 i 1 Если сравнить (1.57) и (1.61), то получаем:
M( 0)
1 2
n i
[Di (t ) M i2 (t )] ,
i 1
а выражение (1.56) примет вид:
Wqk
M( 0) , 1 Sk 1 1 Sk
k
где Sk
i
,
i
i
(1.61)
Mi (t ) .
i 1
83
(1.62)
Для определения остальных характеристик используем формулы Литтла: Lqk Wqk Mk (t) , Lsk Lqk kWqk , Wsk kWsk k. Пример расчета одноканальной СМО с приоритетами Задана СМО, в которую поступают заявки трех приоритетов с интенсивностями 1 5 , 2 2 , 3 1 . Время обслуживания зая-
вок − постоянные величины и равны T1 1 10 − для потока первого приоритета, T2 1 8 − для второго приоритета и T3 1 8 − для третьего. Так как времена облуживания – постоянные величины, то D1 0 , D2 0 и D3 0 . Сначала рассчитаем
1 10 Далее вычислим Sk : 1
5
S1
1
,
2
,
1 ; 2 1 ; S 2 2
3:
2
2
1 8
1 1 4 2
1 ; 4
3
3 ; S 4 3
1
1 1 . 8 8
7 . 8
Отметим, что S3 должна быть меньше 1. Определим M ( 0 ) :
1 5 1 10 2 2 1 8 2 2 Переходим к расчету Wqk : 31 31 Wq1 ,W 640 (1 1 2) 320 q2 640 (1 31 31 Wq3 ; 640 (1 3 4)(1 7 8) 20 31 31 31 31 , Lq2 2 , Lq Lq1 5 320 64 80 40 3 M( 0)
84
1 182
31 . 40
31 1 2)(1 3 4)
1
31 31 . 20 20
31 , 80
Lqk – средняя длина очереди заявок k-го приоритета. 31 1 41 31 1 67 31 1 63 , Ws2 , Ws3 ; Ws1 320 10 320 80 8 80 20 8 40 31 1 63 1 31 1 41 1 , Ls2 , Ls1 1 2 64 2 64 2 40 4 40 4 31 1 67 1 . Ls3 3 20 8 40 8 1.7.2. Многоканальные СМО с приоритетами Класс СМО
i
e
it
,
i
e
it
, m 1, , PRIOR .
Потоки заявок всех приоритетов – пуассоновские, время обслуживания распределено по экспоненциальному закону. Интенсивность обслуживания произвольной заявки определяется по формуле: n i
i
i 1
Введем обозначения:
i
i
; i
. i.
m
i Как и в одноканальной СМО с приоритетами, в данной СМО время ожидания в очереди заявки k-го приоритета равно (см. формулу (1.51)): k k ож
k 1
ni qi
0 i 1
ni qi . i 1
Проделав выкладки, как и для одноканальной СМО, получим:
Wqk
M( 0) , 1 Sk 1 1 Sk
k
где Sk
i. i 1
85
(1.63)
Чтобы определить M ( 0 ) , рассмотрим СМО без приоритетов:
M ( 0)
Wq
m M ( 0) .
n
(1.64)
n
1
m i i i 1 i 1 Среднее время ожидания заявок в очереди для СМО без приоритетов определяется по формуле (см. п. 4.1.2):
P0 m m! (1
Wq m 1
k
k 0
k!
где P0
m
1
m! 1
)2
,
(1.65)
1
.
Приравнивая (1.64) и (1.65), получим:
P0 m . m!(1- )
В результате получаем: M ( 0 ) Если использовать замену
P0 m . m!(1- )2
M( 0) 1
m
, то получим:
P0 m 1 , (m - 1)!(m - )
M( 0)
а Wqk вычислим по формуле (1.63). Далее, используя формулы Литтла, определим:
Lqk
Wqk , Wsk
k
Wqk
1
, Lsk
Wsk
k
Lqk
k.
k
1.8. Оптимизация параметров СМО При проектировании или совершенствовании СМО возникает задача оптимизации ее параметров. От качества обслуживания зависят затраты на СМО и потери в СМО.
86
потери от низкого уровня обслуживания
затраты на функционирование СМО
оптимальный уровень качества
качество обслуживания
Рис. 1.31. Определение оптимального уровня качества СМО
Ставится задача определения оптимального уровня качества обслуживания. Можно сформулировать большое число задач оптимизации СМО, формируя различные целевые функции. В данном разделе в качестве примеров рассмотрено несколько постановок таких задач. Задача оптимальной интенсивности обслуживания в одноканальной СМО с бесконечной очередью Класс СМО
e t , e t , m 1,
.
F ( ) C1Ls C2 – целевая функция, где C1 – потери в единицу времени от пребывания заявки в СМО, C2 – затраты в единицу времени при увеличении интенсивности обслуживания на единицу. С учетом того, что Ls цию: F ( )
C1
, получим целевую функ-
1
C2 . Для определения минимума целевой
функции найдем производную:
F
C1 )2
(
C2 0 .
Искомая оптимальная интенсивность находится из уравнения: C1 C2 ( )2 , 87
C1 C2
опт
.
Задача оптимальной интенсивности в одноканальной СМО без очереди
F ( ) C3
C2
отк
– целевая функция, где C3 – потери от отка-
за в обслуживании (доходы от обслуживания одной заявки), C2 – затраты в единицу времени при увеличении интенсивности обслуживания на единицу (то же, что в предыдущей задаче). Поскольку Pотк
, Pотк
отк
, то
2
F ( ) C3 F
C2 ,
C3
2
C2
)2
(
0,
откуда получим:
C3 C2
опт
.
Задачи оптимизации параметров многоканальной СМО Класс СМО
e t , e t , m 1,
.
Определение оптимального числа каналов. Сформируем целевую функцию: F (m) C1Ls C4m , где C4 – затраты в единицу времени на функционирование одного канала, C1 – то же, что в задачах оптимальной интенсивности, рассмотренных выше. В данном классе СМО не удается аналитически определить оптимальное число каналов. Поэтому необходимо построить зависимость F (m) используя
88
аппарат анализа многоканальных СМО (см. п. 1.4.2) и по F (m) определить оптимальное число каналов. Класс СМО
e t , e t , m 1, N .
Определение оптимального числа мест в очереди Для данного класса СМО целевая функция имеет вид: F ( N ) C1Ls C3Pотк C5 N , где C5 – затраты в единицу времени на поддержание одного места в очереди, C1 , C3 – те же коэффициенты, что в задачах оптимальной интенсивности в одноканальной СМО. В этой задаче тоже не удается аналитически определить оптимальное число каналов. Поэтому необходимо построить зависимость F (N ) и определить оптимальное число мест в очереди. Задачи оптимизации СМО по нескольким параметрам Класс СМО
e t , e t , m 1, N .
Рассмотрим задачу определения оптимального количества каналов m и числа мест в очереди N в многоканальных СМО. Целевая функция имеет вид: F ( N , m) C1Ls C4m C3Pотк C5 N , где коэффициенты
C1, C3 , C4 , C5 интерпретированы в ранее рассмотренных задачах. Для нахождения оптимальных значений m и N следует использовать методы поиска экстремума. Если целевая функция не унимодальна, то следует использовать методы поиска глобального экстремума. На практике ставятся задачи оптимизации параметров не отдельной СМО, а сети СМО. Принципиально их постановка не отличается от задач оптимизации СМО. Вопросы и задачи 1. Для каких классов СМО справедливы формулы Литтла? 2. Информационная система технологии "клиент-сервер" обслуживает клиентов. Поток запросов в систему пуассоновский, интенсивностью 20/мин. Время обработки запроса сервером (поиск и
89
передача по каналам связи) распределено по экспоненциальному закону. Интенсивность обработки сервером запросов равна 30/мин. Определить: а) какую часть времени сервер простаивает; б) среднее время реакции (время ответа) информационной системы. 3. В парикмахерской клиентов обслуживают 4 мастера. Время обслуживания распределено по экспоненциальному закону. Среднее время обслуживания одного клиента 30/мин. Поток клиентов пуассоновский – 6 чел./ч. Определить: а) среднее число клиентов в очереди; б) среднее число занятых мастеров; в) среднее время нахождения клиента в парикмахерской, включая ожидание в очереди. 4. Установка состоит из трех узлов. Поток отказов каждого из узлов пуассоновский с интенсивностью 2/ч. Среднее время ремонта одного узла − 10 мин., время ремонта распределено по экспоненциальному закону. Найти среднюю производительность установки, если при трех исправных блоках ее производительность составляет 100 %, при двух исправных − 70 %, а при одном исправном − 50 %. 5. Имеется одноканальная СМО с отказами с входным пуассоновским потоком интенсивностью 6/ч, время обслуживания подчинено распределению Эрланга третьего порядка. Среднее время обслуживания 15 мин. Определить вероятность отказа, среднее число заявок в системе. 6. Два подъемных крана обслуживают 3 грузовых автомобиля. Интервал времени между поступлениями каждого автомобиля на погрузку распределен экспоненциально со средним значением 20 мин. Время загрузки автомобиля подъемным краном также распределено экспоненциально со средним 12 мин. Вычислить часть времени, в течение которого оба подъемных крана простаивают. Определите среднее число автомобилей, ожидающих очереди. 7. Производственно-технологический процесс состоит из четырех последовательных технологических узлов. На вход процесса поступают детали на обработку в соответствии с пуассоновским распределением с интенсивностью 4 детали в час. В каждом узле время обработки распределено по экспоненциальному закону со сред90
ним временем 12 мин. в первом узле, 15 мин. во втором, 12 мин. в третьем, 15 мин. в четвертом. После обработки в каждом узле осуществляется контроль качества детали: доля качественных деталей на выходе первого узла равна 80 %, на выходе второго узла − 80 %, на выходе третьего узла − 80 %, на выходе четвертого узла − 90 %. Определить долю брака после обработки по всему технологическому процессу, среднее время обработки детали по всему процессу; среднее число деталей, находящихся в очередях на обработку. 8. Задана циклическая пуассоновская сеть СМО. Входной поток интенсивностью − 10 заявок/ч, интенсивность обслуживания в СМО1 − 20 заявок/ч, в СМО2 − 16 заявок/ч, в СМО3 – 18 заявок/ч. СМО1 Выход из сети
0,3 0,4 Источник заявок
0,5 СМО2
СМО3
Определить: а) среднее время пребывания заявок в сети; б) среднее число заявок в сети СМО; в) среднее число заявок, ожидающих обслуживания в очередях сети СМО. 9. Имеется трехканальная СМО с неограниченной очередью: входной поток пуассоновский с интенсивностью 12 заявок/ч, время обслуживания распределено по экспоненциальному закону. Среднее время обслуживания одной заявки одним аппаратом − 10 мин. Выгодно ли с точки зрения среднего числа заявок в системе вводить взаимопомощь между аппаратами и с какой дисциплиной взаимопомощи? 10. На стоянке автомобилей имеется 5 мест. Автомобили пребывают на стоянку в соответствии с пуассоновским распределением с интенсивностью 10 автомобилей в час. Продолжительность
91
пребывания автомобилей на стоянке распределена экспоненциально со средним значением 30 мин. Вычислить: а) среднее число свободных мест на стоянке; б) вероятность того, что автомобиль найдет на стоянке свободное место; в) эффективную частоту прибытия автомобилей на стоянку. 11. В СМО поступают заявки трех категорий. К первой категории относятся заявки, характеризующиеся высшим приоритетом, которые принимаются к исполнению первыми. Заявки третьей категории принимаются к исполнению в том случае, если отсутствуют заявки первой и второй категорий. Выполнение заявок не прерывается. Заявки первой, второй и третьей категорий поступают в соответствии с пуассоновским законом с частотами 5, 10, 5 заявок в час. Интенсивность выполнения заявок фиксирована и равна: 20 заявок для первой категории, 30 заявок для второй категории, 30 заявок для третьей категории. Вычислить для каждой из трех категорий заявок среднее время ожидания в очереди, среднее число заявок в очереди. Определить среднее время ожидания в очереди произвольно выбранной заявки, среднее число заявок, находящихся в системе. 12. В цехе работают три станка. С частотой 3 раза в смену (за 8 ч) производится переналадка станков, время между сроками переналадки распределено по экспоненциальному закону. Бригада наладчиков обслуживает станки в соответствии с экспоненциальным распределением со средним 20 мин. Определить: а) часть времени, которую бригада наладчиков простаивает; б) часть времени, которую все станки простаивают. 13. В автомойке работают три мастера. Мест для стоянки машин нет (очереди не может быть). Входной поток пуассоновский с интенсивностью 10 машин в час, время обслуживания распределено по экспоненциальному закону, среднее время обслуживания одной машины одним мастером – 15 мин. Определите, выгодно ли с точки зрения увеличения среднего числа обслуженных машин в час вводить взаимопомощь между ними и с какой дисциплиной взаимопомощи? 14. Информационная система технологии "клиент-сервер" обслуживает клиентов. Поток запросов в систему пуассоновский, интен92
сивностью 1500/ч. Время обработки запроса сервером (поиск и передача по каналам связи) распределено по экспоненциальному закону. Какова должна быть интенсивность обработки запросов, чтобы время реакции информационной системы была не более двух сек.?
93
2. ТЕОРИЯ ИГР В данном разделе рассматриваются элементы теории игр, связанные с анализом конфликтных ситуаций, когда есть соперничество (конкуренция) участников. Примерами таких задач является конкуренция фирм за рынки сбыта. Другой постановкой является задача выбора партнеров для совместной деятельности, анализ и решение этой задачи относится к коалиционным играм. В этих задачах решается вопрос на основе анализа ситуации выбора потенциальных партнеров для решения общих проблем. Имеются и другие постановки задач в теории игр [6]. 2.1. Основные понятия теории игр Пусть A, B, D – участники игры. Каждый участник имеет в своем распоряжении множество чистых стратегий (возможных ходов в этой игре): A : {S1a , S2a ,...Sna} или {Sia} (i 1, 2,..., n) ;
B : {S jb} ( j 1, 2,..., m) ; D : {Skd} (k 1, 2,...,l ) . Исход – сочетание Sia , S jb , Skd (когда A выбирает одну чистую стратегию, B – другую, а D – третью). Каждый из исходов характеризуется полезностью (выигрышем) для каждого участника: aijk – полезность исхода для участника A ;
bijk – для участника B ; cijk – для участника D . Решить задачу – значит найти оптимальную стратегию выбора стратегий для участников. Возможные критерии оптимальности: – справедливость; – устойчивость (устраивает всех участников).
94
Классификация игр Если для всех участников существует конечное число чистых стратегий Sia (i 1, 2,..., n) , S jb ( j 1, 2,..., m) , где n и m конечны, то такие игры являются конечными. Игры с двумя участниками A и B. Если bij aij , то эти игры называются антагонистическими (выигрыш одного влечет проигрыш другого). В этом случае достаточно задать только одну матрицу aij , поэтому такие игры называются матричными. В общем случае игры с двумя участниками называются биматричными. Если для каждого участника существует только две стратегии, то такие игры называются диадическими. 2.2. Матричные игры с седловой точкой Пусть задана для участника A матрица выигрышей aij , которую называют платежной матрицей. Рассмотрим решение матричных игр данного класса на следующем примере:
S1b S1a S 2a S3a S 4a maxaij i
16 11 6 2 16
S2b S3b S4b 22 10 9 16 16
7 8 6 5 8
14 9 13 3 14
S5b min aij j
8 21 13 4 21
22 8 13 5
Определение 1 (доминирующая стратегия). Если для двух стратегий Sia и Ska выполняется условие aij akj ( j 1, 2,..., m) , и суще-
95
ствует хотя бы одна стратегия Ssb такая, что ais
aks , тогда S ia является доминирующей стратегией по отношению к Ska , а чистая стратегия Ska – доминируемой стратегией. Если для пары стратегий S jb и S lb aij ail (i 1, 2,...,n) , и существует Ssa такая, что asj asl , тогда S j – доминирующая по отношению к Sl , а Sl – доминируемая стратегия. Доминируемые стратегии можно исключить из матрицы aij , так как оптимального решения среди них не будет. * Выбираем оптимальную стратегию S 2a для участника А по принципу:
max min aij i
.
j
Величина определяет нижнюю цену игры. Выбор стратегии по этому принципу гарантирует, что выигрыш будет не меньше, чем . * Для участника B оптимальная стратегия S2a определяется по принципу: min maxaij j
– верхняя цена игры.
i
Игры, у которых
, называются играми с седловой точкой.
Отметим, что всегда
. Действительно, пусть
aik и
asj : aik . aij : . . ask
.
.
.
.
.
aij . . . . asj
aij , так как aik – минимальное в строке i ; aij asj , так как asj – максимальное в столбце j , откуда следует, что aik asj . aik
96
Может быть несколько седловых точек, тогда цена игры во всех этих точках одинакова: , где – цена игры. Пусть существуют две седловые точки aik , asj . Из условий определения седловых точек следует:
aik
aij ; aij
asj ; aik
ask ; ask
asj .
Все эти нестрогие неравенства выполняются только в случае, когда все 4 числа равны: aik aij ask asj . 2.3. Матричные игры без седловой точки В данном классе игр нижняя цена игры строго меньше верхней . Введем понятие смешанной стратегии. Смешанная стратегия – комбинация чистых стратегий с вероятностями выбора Pia : n
Sa {P1a , P2a ,...,Pna} ;
Pia 1 . i 1
Оптимальная смешанная стратегия: Sa*
{Pia*}.
Для любой матрицы aij можно определить оптимальную смешанную стратегию: Sa*
{Pia*}, Sb* {Pjb* }, такую, что выигрыш уча-
стника A , определяемый в соответствии с выражением: n
m
aij Pia* Pjb* ,
aA i 1 j 1
будет в интервале , (для участника B это проигрыш aB ). Теорема о минимаксе. В матричной игре без седловой точки ( ) существует точка равновесия такая, что выигрыш участника
A находится в интервале
, и оптимальные решения для
aA
участников находятся из условий: n
для A – {Pia* } из условия max min j
97
aij Pia , i 1
m
для B – {Pjb* } из условия min max i
aij Pjb , j 1
– цена игры. Доказательство теоремы будет рассмотрено далее.
aA
aB
Определение 2 (активные стратегии). Активные стратегии для участника A – это те стратегии из множества чистых * Sia (i 1, 2,..., n) , для которых Pia 0 . Утверждение 1. Если участник A придерживается оптимальной смешанной стратегии, то его выигрыш не зависит от стратегии участника B в пределах активных стратегий участника B . Доказательство. Пусть участник A придерживается оптимальной смешанной стратегии, а B – произвольной смешанной. Тогда выигрыш участника равен: m
n
m
aij Pia* Pjb
A
n
aij Pia* .
Pjb
j 1 i 1
j 1
i 1
m
Пусть
aij Pia* – выигрыш участника A , если участник B
j j 1
придерживается чистой стратегии S jb , и одновременно
j
– проиг-
рыш для участника B , тогда m A
j
Pjb .
(2.1)
j 1
Поскольку чистая стратегия S jb не является оптимальной стратегией для участника B , то
, j 1, 2,..., m , где j Запишем (2.1) с учетом этого неравенства: m
m j Pjb
A
m
Pjb
j 1
j 1
98
Pjb . j 1
– цена игры.
m
С учетом, что
Pjb 1, получаем нестрогое неравенство j 1
a
. Но так как участник B осуществляет выбор на множестве
активных стратегий, а Pia* – оптимальная стратегия для A, то может быть больше
. Следовательно
a
a
не
.
2.3.1. Решение матричных игр 2 2 Каждый из участников имеет по две чистые стратегии. Матрица выигрышей для A имеет вид:
aij
a11 a12 . a21 a22
Элементы матрицы таковы, что , т.е. седловой точки нет. В качестве решения игры необходимо получить смешанные стратегии {P1*a , P2*a },{P1*b , P2*b }. На основе доказанного выше утверждения для оптимальной стратегии участника A будет выполняться следующее тождество: P1*a a11 P2*a a21 P1*a a12 P2*a a22 . Учитывая, что P2*a
P1*a a11
1 P1*a : (1 P1*a )a21 P1*a a12 (1 P1*a )a22 .
Откуда получим
P1*a
a22
P2*a 1 P1*a
a22 a21 , a11 a12 a21 a11 a12 . a22 a11 a12 a21
Для определения P1b* также составим уравнение:
P1*b a11 P2*b a12 P1*b a21 P2*b a22 ;
99
(2.2) (2.3)
a22 a12 ; a22 a11 a12 a21 a11 a21 . P2*b 1 P1*b a22 a11 a12 a21 Цена игры (выигрыш для участника A ) будет равна: m n a22a11 a12a21 . aij Pia* Pjb* a22 a11 a12 a21 j 1 i 1 P1*b
(2.4) (2.5)
Для того чтобы решения (2.2), (2.3), (2.4), (2.5) были положительными числами (вероятностями), необходимо, чтобы для элементов матрицы
aij
выполнялись следующие неравенства:
a22 a22 a11 a11
a21 a12 a21 a12
0 0 0 0
или
a22 a22 a11 a11
a21 a12 a21 a12
0 0 . 0 0
Пример задачи. Правила игры. Каждый из участников имеет две чистые стратегии: S1 – выбрать число 1,
S 2 – выбрать число 2. Если сумма у двух участников окажется четным числом, то выигрыш A составит эту сумму. Если же сумма окажется нечетной, то выигрывает участник B . Данные правила отражены в следующей платежной матрице:
S1 S2
S1 S2 2 3. 3 4
Найдем оптимальные смешанные стратегии для каждого из участников
100
a22 a21 a11 a12 a21
P1*a
4 3 7 ; 4 2 3 3 12
a22 5 P2*a . 12 Для участника B решением будет: 4 3 7 P1b ; 4 2 3 3 12 5 P2b . 12 42 33 1 Цена игры равна: . 12 12 Поскольку 0 , выигрывает участник В; из этого можно сделать вывод, что правила игры несправедливы. Отметим, что при выборе участником В оптимальной смешанной стратегии его выигрыш
1 не будет зависеть от действий про12
тивника. Это следует из утверждения 1, поскольку у участника А обе чистые стратегии активные. Графическая интерпретация решения игры 2 2. Построим зависимость выигрыша участника A от Pia (рис. 2.1), γ
γ1
где 1 P1a a11 (1 P1a )a21 – выигрыш участника А, если участник придерживается чистой стратегии S1b ,
а11
а22
γ2
а21
2
а12 0
Р*1а
1
Р1а
Рис. 2.1. Графическая интерпретация решения игры за участника А
101
P1a a12 (1 P1a )a22 – ес-
ли участник придерживается чистой стратегии S2b . Приравняв 1 и 2, получим оптимальное значение P1a* , которое соответствует
max min
j
, т.е. A максимизировал свой выигрыш.
j
Теперь рассмотрим решение игры с позиции участника B . Построим зависимость его проигрыша от P1b (рис. 2.2), γ
а11
γ2
где 1 P1ba11 1 P1b a12 – проигрыш участника В, если участник придерживается чистой стратегии S1a ,
а22
γ1
2
а21
участник придерживается чистой стратегии S2a .
а12
0
Р1b
1
Р*1b
P1ba21 1 P1b a22 – если
Оптимальное значение P1b* получается из условия min max i , т.е. он минимизи-
Рис. 2.2. Графическая интерпретация решения игры за участника В
i
рует проигрыш.
2.3.2. Решение матричных игр 2 m графоаналитическим методом Если участник A имеет 2 чистые стратегии, а B – m чистых стратегий, то матрица выигрышей для A имеет вид:
aij : γ
γ3
a23 а22
a11 a12 a1m . a21 a22 a2m
γ1
Построим зависимость выигрыша участника A от P1a при чистых стратегиях
а11
γ2
а12
а12
а13 0
Р*1а
1
участника B
S jb ( j 1, 2,..., m) : j
Р1а
Рис. 2.3. Графическая интерпретация решения игры 2xm 102
a1 j P1a a2 j 1 P1a .
2
Оптимальное
P1a
находим из
условия
max min j
aij Pia i 1
(рис. 2.3). Найденному P1a* соответствуют две чистые стратегии участника B , которые будут для него активными. Таким образом, игру 2 m сводим к игре 2 2 . Если несколько прямых пересекаются в одной точке, то нужно брать две стратегии, которые имеют более острый угол, это обеспечит более устойчивое решение. Пример. Дана платежная матрица, необходимо найти оптимальные смешанные стратегии:
aij : 6
2 4
1 2
Строим зависимость от P1a : выбираем j
3
стратегии S2b и S3b по принципу
1
4
2
2
0 1
6 3,2 . 3 1
max min j
1 P1a
aij Pia . i 1
Переходим к матрице
2 2 - aij
1 2
6 и 3
рассчитываем оптималь* ные P1a* и P2a :
P1a* P2a*
3 2 5 ; 3 1 2 6 12
7 . Решением игры для участника В является: 12
103
3 6 9 12 12
P2*b
3 * ; P 4 3b
1 * ; P 4 1b
0; P4*b
0.
2.3.3. Решение матричных игр n 2 графоаналитиским методом Участник A имеет n чистых стратегий, а B – 2 чистые стратегии, платежная матрица имеет вид:
a11 a12 a21 a22 . an1 an 2 Построим зависимость проигрыша участника B от P1b при чистых стратегиях A Sia (i
1, 2,..., n) : ai1 P1b ai 2 1 P1b . i
γ
а22
γ1
Оптимальное P1b* находим из условия
а11
γ2 a32 а12
2
а21 а31
γ3 0
Р*1b
1
Р1b
Рис. 2.4. Графическая интерпретация решения игры nx2
aij Pjb , после
min max i
j 1
чего выделяем две активные стратегии для участника A и переходим к игре 2 2.
2.3.4. Решение матричных игр n m Задана aij
– матрица выигрышей для игрока A . Необходимо
найти оптимальные смешанные стратегии:
104
Sa*
* P1*a ,, Pia* ,, Pna
Sb*
* * P1*b ,, Pjb ,, Pmb .
Рассмотрим решение игры для игрока A. Выигрыш игрока A , если B принимает фиксированную чистую стратегию S jb , будет равен: n j
aij Pia j 1, 2,, m .
(2.6)
обозначим его через
min j . Будем
i 1
Найдем минимум из * ia
искать P
j,
j
из условия max .
– минимальное. Поэтому j 1, 2,, m , так как j (2.6) перепишем в виде неравенств: n aij Pia ( j 1, 2,, m) . (2.7) i 1 Для вероятностей Pia выполняется условие: Все
n
Pia 1 .
(2.8)
i 1
Нахождение max
равносильно поиску min
хождения Pia введем переменную xi
Pia
1
. Для удобства на-
, тогда (2.7) перепишется
n
n
aij xi 1 ( j 1, 2,, m) , а (2.8) – в виде
в виде:
xi
1
.
i 1
i 1 n
Определяем xi* из условия, что min
xi при ограничениях: i 1
105
n
aij xi 1 ( j 1, 2,, m); i 1
xi
0,
0.
Для
0 необходимо, чтобы все j были положительные. Это обеспечивается, если все aij 0 . Поэтому, если в матрице есть отрицательные
C
элементы,
увеличим
abs(min(aij )) . При этом i, j
все
элементы
aij
на
также увеличивается на C .
В результате решения поставленной задачи линейного програмn
xi* . После
мирования найдем xi* и значение целевой функции i 1
* ia
чего можем определить искомые P по формуле:
xa*
Pia
.
n * k
x k 1
Выигрыш игрока A (цена игры) будет равен:
1
C.
n * i
x i 1
Алгоритм решения игры n x m для участника А 1. Переходим к положительным элементам матрицы: aij C . 2. Решаем задачу линейного программирования: n
min
xi ; i 1
n
при ограничениях
aij xi 1 ( j 1,2,...,m), xi i 1
106
0.
xi* ( ЦФ – значение целевой ЦФ
3. Находим вероятности: Pia*
функции). Выигрыш участника A определяется в соответствии с выражением:
1 C. ЦФ
Решение игры для игрока B Перейдем к матрице aij с неотрицательными элементами так же i (i 1, 2,, n) обознапри фиксированной стратегии игрока A :
как и при решении для участника А. Через чим проигрыш игрока B
m
aij Pjb .
i j 1
m
Для вероятностей Pjb выполняется условие:
Pjb 1 . j 1
Введем обозначение ~
max i . Задача минимизации ~ эквиваi
1
лентна поиску max ~ . Произведем замену переменных:
Pjb ~ .
yj
Получаем задачу линейного программирования: m
max
yj j 1
1 ~ y
m
при ограничениях:
aij y j 1 (при y j j 1
107
0 ).
Решив задачу линейного программирования, получим y *j и значение целевой функции ( ЦФ ). Цена игры – ~ роятности – Pjb*
1 , а искомые веЦФ
y*j ~ .
Алгоритм решения игры n x m для участника В 1. Переходим к положительным элементам платежной матрицы: aij C . 2. Решаем задачу линейного программирования: m max y j ; j 1 m aij y j 1 (i 1, 2,..., n), y j 0. j 1 3. Интерпретируем результаты:
1 , P* ЦФ jb 4. Корректируем
y*j
.
:
C. Вернемся к теореме о минимаксе (см. п. 2.3). Теорема о минимаксе. В матричной игре без седловой точки ( ) существует точка равновесия такая, что aA , и , aA оптимальные решения для участников находятся из условий: n
для A – {Pia* } из условия max min j
aij Pia , i 1
m
для B – {Pjb* } из условия min max i
aA
aB
– цена игры.
108
aij Pjb , j 1
Доказательство. В соответствии с рассмотренным алгоритмом существует решение для участника А Pia* , определяемое из условия: n
max min j
aij Pia
aA ;
i 1
и существует решение для участника В ловия:
Pib* , определяемое из ус-
m
min max i
aij Pjb
aB .
j 1
Из теоремы о прямой и двойственной задачах линейного программирования следует, что aA aB . 2.4. Биматричные игры В биматричных играх задаются матрицы выигрышей для обоих участников: aij – матрица n m выигрыша для игрока A
bij – матрица n m выигрыша для игрока B . Необходимо найти оптимальные смешанные стратегии
Pia* и
Pjb* . 2.4.1. Принципы решения биматричных игр Пусть Sa
Pia – стратегия для игрока A , а Sb гия для игрока B .
Pjb – страте-
Определение 3 (приемлемая стратегия) Смешанная стратегия S a является приемлемой для игрока A , если для любой другой смешанной стратегии Sa и фиксированной смешанной стратегии S b полезность для игрока A стратегии S a больше, чем полезность стратегии
109
S a . Таким образом, для любой смешанной стратегии S b можно определить приемлемую стратегию S a . Можно условно графически представить зависимость приемлемой стратегии S a как функцию от Sb , представленной на рис. 2.5. Смешанная стратегия S b игрока B является приемлемой, если при любой другой смешанной стратегии Sb и фиксированной смешанной стратегии S a выполняется:
b Sa , Sb Sb
b Sa , Sb . Sb
Fa
Gb
Sa
Sa
Рис. 2.5. Множество приемлемых стратегий для участника А
Рис. 2.6. Множество приемлемых стратегий для участника B
Зависимость приемлемой стратегии S b от S a также можно условно представить в виде функции Gb (рис. 2.6). Пересечение двух множеств Fa и Gb дает решение биматричной игры (рис. 2.7):
110
Sb Fa
Gb S*b
S*a
Sa
Рис. 2.7. Определение оптимальных смешанных стратегий
Проиллюстрируем принцип решения биматричных игр на задаче размерности 2 2 . 2.4.2. Решение биматричных игр 2 2 В качестве исходных данных заданы две матрицы:
aij
bij Смешанные
Sb
стратегии
S1b S2b a11 a12 a21 a22
S1a , S2a
S1b S2b b11 b12 S1a . b21 b22 S2a P1a , P2a , для A : S a
P1b , P2b . Выигрыш участника A равен:
111
для
B:
a S a , Sb С учетом P2a
a11P1a P1b a12P1a P2b a21P2a P1b a22P2a P2b . 1 P1a и P2b 1 P1b :
a Sa , Sb a11P1a P1b a12P1a 1 P1b a21 1 P1a P1b a22 1 P1a 1 P1b . После упрощения получим:
a Sa , Sb P1a P1b a11 a22 a12 a21 P1b a21 a22 a22.
a12 a22
Так как в нашем случае смешанная стратегия S a определяется одной вероятностью P1a , а Sb
P1b , то условие приемлемой страте-
гии для S a запишется в виде:
a P1a , P1b
a P1a , P1b .
Чистая стратегия S1a будет приемлемой (лучшей), когда P1a 1 или когда P1b a11 a22 a12 a21 a12 a22 0 . Из данного неравенства можем сделать вывод, что чистая стратегия S ia – приемлемая, если P1b P1*b :
a22 a12 P1*b a11 a22 a12 a21 при знаменателе C a11 a22 a12 a21 0 . a22 a12 Если же C 0 , то тогда P1b , и S1a – приемa11 a22 a12 a21 лемая при P1b P1*b . Напротив, стратегия S 2 a приемлема при P1a 0 , т.е. при условии, P1b
что 112
P1b a11 a22 a12 a21 a12 a21 Таким образом, при C 0 стратегия S 2 a a22 a12 P1b P1*b , а при C 0 – если a11 a22 a12 a21 На рис. 2.8 приведены зависимости при C 0 и C P1b 1
P1b 1
C>0
0. приемлема, если
P1b
P1*b .
0.
C