С.А. Прохоров
МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ И МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ
Уральск 2001 г.
Об авторе
Прохоров Сергей Антонович – доктор технических наук, профессор, академик Международной академии информатизации, членкорреспондент Российской академии естественных наук, заслуженный работник высшей школы Российской Федерации, декан факультета информатики, заведующий кафедрой информационных систем и технологий Самарского государственного аэрокосмического университета, директор Самарского филиала Российского НИИ информационных систем. В качестве председателя Головного Совет Минвуза России по автоматизации научных исследований в период 1988-1996 г.г. руководил разработкой и выполнением шести научно-исследовательских программ и подпрограмм АН СССР, Минэлектронпрома СССР, Минвуза России. Результаты его работы нашли отражение в 180 научных трудах, в том числе, 5 монографиях, 40 авторских свидетельствах, 6 работах опубликованных за рубежом, выступлениях более чем на 50 международных, всесоюзных и республиканских конференциях и симпозиумах.
УДК 681.518.3, 514:681.323/043.3/ ББК 32.965 П5 Рецензенты: Заслуженный деятель науки РФ, член-корреспондент РАН, д.т.н., профессор Сойфер В.А.; д.ф-м.н., профессор Жданов А.И. Прохоров С.А. П 5 Математическое описание и моделирование случайных процессов/Самар. гос. аэрокосм. ун-т, 2001. 209 с.: ил. ISBN 9965-01-957-6 Рассматриваются методы описания, алгоритмы и программные средства генерирования случайных процессов, потоков событий, неэквидистантных временных рядов с заданными вероятностными характеристиками, а также методы и средства оценки качества генерирования, основанные на аппроксимативном подходе и анализе фазовых портретов. Приводится описание разработанных автоматизированных информационных систем для генерирования и аппроксимативного анализа случайных процессов, временных рядов. Предназначена для научных сотрудников, инженеров, аспирантов и студентов в качестве руководства по моделированию случайных процессов с заданными свойствами и имитационному моделированию алгоритмов и средств оценивания вероятностных характеристик случайных процессов, потоков событий и неэквидистантных временных рядов. Издание монографии поддержано грантом 4 Г/2001 76/01/Б по программе «Поддержка важнейших разработок научных коллективов и отдельных учёных на основе системы грантов» по разделу «Важнейшие научные и технические разработки, соответствующие концепции социально-экономического развития Самары». ББК 32.965 Печатается по решению издательского совета Самарского научного центра Российской академии наук.
П
2402000000 00 (05) − 01
ISBN 9965-01-957-6
© Самарский научный центр Российской академии наук, 2001 © Самарский государственный аэрокосмический университет, 2001 © Прохоров С.А., 2001
СОДЕРЖАНИЕ СПИСОК СОКРАЩЕНИЙ ПРЕДИСЛОВИЕ ВВЕДЕНИЕ 1. МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ 1.1. Основные понятия и определения 1.2. Математическое описание случайных величин 1.3. Функции случайных аргументов 1.4. Системы случайных величин 1.5. Математическое описание случайных сигналов 1.6. Корреляционные характеристики 1.7 Спектральные характеристики 1.8 Математическое описание случайных потоков событий 1.9 Математическое описание неэквидистантных временных рядов 1.10 Типовые модели неэквидистантных временных рядов 2. МОДЕЛИРОВАНИЕ НЕКОРРЕЛИРОВАННЫХ ВРЕМЕННЫХ РЯДОВ 2.1. Моделирование временных рядов типа "белого" шума 2.2. Моделирование ПСП с заданным законом распределения 2.2.1. Метод обратной функции 2.2.2. Приближенный метод моделирования 2.3. Моделирование потоков событий с заданными свойствами 2.4. Проверка качества генерирования псевдослучайных последовательностей 2.5. АИС для генерирования псевдослучайных последовательностей с заданными законами распределения 2.5.1. Описание подсистем 2.5.2. Описание интерфейса программ 2.5.3 Порядок работы с системой 3. МОДЕЛИРОВАНИЕ КОРРЕЛИРОВАННЫХ ВРЕМЕННЫХ РЯДОВ 3.1. Моделирование временных рядов с заданным видом корреляционной функции 3.2. Анализ методических погрешностей генерирования ПСП с заданным видом корреляционных функций 3.3. Экспериментальные исследования точностных характеристик программных генераторов ПСП с заданным видом корреляционных функций Проверка качества генерирования псевдослучайных последова3.4. тельностей с заданным видом корреляционных функций Моделирование N ПСП с заданным видом корреляционных 3.5. функций, некоррелированных между собой Генерирование 2-х ПСП с заданным видом корреляционной и 3.6 взаимной корреляционной функций Генерирование ПСП с заданным видом корреляционной функ3.7 ции и законом распределения отличным от нормального Генерирование неэквидистантных временных рядов 3.8 Генерирование нестационарных временных рядов 3.9
Стр. 3 5 8 10 17 17 23 25 26 30 36 45 50 58 66 78 78 81 81 83 90 95 99 99 101 110 111 111 114 121 125 132 133 138 143 147
3
4.
.
4
АВТОМАТИЗИРОВАННЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ ДЛЯ МОДЕЛИРОВАНИЯ И АППРОКСИМАТИВНОГО КОРРЕЛЯЦИОННО-СПЕКТРАЛЬНОГО АНАЛИЗА СЛУЧАЙНЫХ ПРОЦЕССОВ 4.1. Учебно-исследовательская система для корреляционноспектрального анализа 4.2. Учебно-исследовательская система для моделирования и аппроксимативного анализа взаимных корреляционноспектральных характеристик 4.3. Применение имитационного моделирования для исследования статистических характеристик временных рядов 4.4. Анализ методических погрешностей результатов измерений вероятностных характеристик неэквидистантных временных рядов методом имитационного моделирования Анализ составляющей погрешности конечной разрядности 4.5. процессора методом имитационного моделирования ЗАКЛЮЧЕНИЕ СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ ПРИЛОЖЕНИЯ П. 1. Типовые законы распределения П. 2. Характеристические функции П. 3. Функции распределения П. 4. Обратные функции законов распределения П. 5. Характеристики типовых законов распределения (Рд=0,999) П. 6. Таблица значений коэффициента λ к критерию Колмогорова П. 7. Таблица χ2 распределения П. 8. Импульсные характеристики формирующих фильтров для генерирования псевдослучайных последовательностей с заданным видом корреляционных функций методом нерекурсивной фильтрации П. 9. Импульсные характеристики формирующих фильтров для генерирования псевдослучайных последовательностей с заданным видом корреляционных функций методом рекурсивной фильтрации П.10. Обобщенные спектральные характеристики П.11. Блок - схема автоматизированной информационной системы аппроксимативного корреляционно-спектрального анализа.
150
150 162 168 171 180 184 185 188 188 193 195 198 199 202 202
203
204 205 207
СПИСОК СОКРАЩЕНИЙ АЦП - аналого-цифровой преобразователь; БРП - блок регулировки параметров; ВУ - вычитающее устройство; ИП - измерительный преобразователь (датчик); К - коммутатор; КВ - квадратор; КФ - корреляционная функция; МУ - масштабирующее устройство; МУ - множительное устройство; НКФ - нормированная корреляционная функция; ПО - процессор обработки; УУ - усредняющее устройство; ФНЧ - фильтр нижних частот; A Θ {x€(t k ) } - алгоритм оценки вероятностной характеристики Θ; A s {x€( t k )} - алгоритм оценки сигнала; C x (J ) - интервальная корреляционная функция; d - араметр усреднения (время T, совокупность реализаций N или время и совокупность реализаций TN ); € x - оценка дисперсии; D ent[ ] - операция взятия целой части числа; Fa (x, α1 ,...α m ) - аппроксимирующее выражение функции распределения вероятностей; F{ } - функциональное преобразование полученных оценок вероятностных характеристик; f а (x , α1 ,...α m ) - аппроксимирующее выражение плотности распределения вероятностей; F′′(x ) max - максимум модуля второй производной функции распределения;
Fx (x ) - функция распределения вероятностей; fx(x) - плотность распределения вероятностей; g[ ] - оператор, представляющий собой преобразования, лежащие в основе определе-
ния вероятностной характеристики Θ; h (τ, α 1 , ...α n ) - импульсная характеристика фильтра с регулируемыми параметрами; K a (τ, α 1 , ... α n ) - аппроксимирующее выражение корреляционной функции; k a - коэффициент асимметрии; k ε - коэффициент эксцесса; Kф - коэффициент формы; K x (τ ) - корреляционная функция стационарного случайного процесса; Kx(t, t ′ ) - корреляционная функция случайного процесса; K xy (τ ) - взаимная корреляционная функция;
K xy - корреляционный момент; 5
L k (τ, α ) - ортогональная функция Лагерра k-го порядка; M[ ] - оператор математического ожидания; Mо - мода; Mе - медиана; € x - оценка математического ожидания; m p€ j - частота попадания анализируемой случайной величины в j-ый дифференциальный коридор; Px (τ ) - полярная (знаковая) корреляционная функция; R x (τ ) - релейная корреляционная функция; Sd - оператор усреднения; Signu - знаковая функция; o
S xн (ω) - нормированная спектральная плотность мощности процесса x (t ) ; o
S x (ω) - спектральная плотность мощности процесса x (t ) ;
S xy (ω) - взаимная спектральная плотность мощности; Т ф - постоянная времени ФНЧ; W ( jω) - частотная характеристика фильтра с регулируемыми параметрами; W1 ( jω) - частотная характеристика ФНЧ; Wk ( jω) - частотная характеристика фильтра Лагерра k-го порядка; r x (Θ,t ) - реализация случайного процесса; x j (t ) - j-ая реализация случайного процесса; α 1 ,...α m - параметры аппроксимирующего выражения; αk - начальный момент k-го порядка; β k - коэффициент разложения ортогонального ряда; χ - коэффициент вариации; Δ - погрешность аппроксимации; Δω ϕ - полоса пропускания фильтра; δ - квадратическая погрешность аппроксимации; δ(t) - δ-функция Дирака; Δti - интервал дискретизации; δ ji - индикатор состояния; Δω c - эквивалентная ширина спектра мощности сигнала; Δ x - ширина дифференциального коридора; γ см - погрешность от смещенности оценки; γ см доп , γ м доп - допустимые значения погрешностей; η- пикфактор; μ - показатель колебательности; μrk - центральный момент k-го порядка;
Ω - вектор информативных параметров объекта исследований;
6
€ j [X(t )] - j-текущая оценка вероятностной характеристики; Θ € t [X(t )] - t-текущая оценка вероятностной характеристики; Θ Θ[X(t )], Θ - измеряемая вероятностная характеристика; € ср [X(t )] - средняя оценка вероятностной характеристики; Θ
r Θ - вектор информативных параметров случайного процесса;
€[X(t )] - оценка измеряемой вероятностной характеристики; Θ ρ a (τ, α1 , ... α n ) - аппроксимирующее выражение нормированной корреляционной функции; ρ x (τ ) - нормированная корреляционная функция стационарного случайного процесса; ρ x (t , t ′ ) - нормированная корреляционная функция случайного процесса; ρ xy (τ ) - взаимная нормированная корреляционная функция;
ρ xy - коэффициент корреляции; τ k - интервал корреляции; τ k max - максимальный интервал корреляции.
7
ПРЕДИСЛОВИЕ Предлагаемая Вашему вниманию монография написана для научных сотрудников, инженеров, аспирантов и студентов как руководство по основам моделирования случайных процессов с заданными свойствами. Материалы, представленные в монографии, получены в результате выполнения научно-исследовательских работ на кафедрах «Информационно-измерительная техника», «Информационная техника» Самарского государственного технического университета (СГТУ), «Информационные системы и технологии» Самарского государственного аэрокосмического университета (СГАУ), Самарском филиале Российского НИИ информационных систем, математическом факультете Загребского университета и «Центре исследования моря» института «Руджер Бошкович» (г. Загреб, Хорватия), выполненных под руководством и при непосредственном участии автора. Отдельные разделы монографии использовались при чтении лекций по ряду дисциплин при подготовке студентов по специальностям «Информационноизмерительная техника», «Автоматизированные системы обработки информации и управления» в СГТУ, СГАУ, а также для научных сотрудников и аспирантов в «Центре исследования моря» института «Руджер Бошкович», на естественноматематическом факультете Загребского университета, международном университете подготовки аспирантов (г. Дубровник, Хорватия), Пекинском техническом университете. В первом разделе, посвященном математическому описанию сигналов, приводятся основные модели случайных процессов, потоков событий, временных рядов, в том числе неэквидистантных, и их основные характеристики, используемые как при моделировании, так и оценивании вероятностных характеристик исследуемых сигналов. Во втором разделе рассматриваются особенности моделирования некоррелированных временных рядов, случайных потоков событий, описывается разработанная автоматизированная информационная система для моделирования и оценки вероятностных характеристик сигналов. Моделирование коррелированных временных рядов, анализ методических погрешностей генерирования рассматриваются в третьем разделе. В этом же разделе рассматриваются особенности генерирования некоррелированных между собой случайных процессов, имеющих заданный вид корреляционной функции, неэквидистантных временных рядов. В четвертом разделе описываются автоматизированные информационные системы для моделирования и аппроксимативного анализа случайных процессов, а также методика и результаты имитационного моделирования временных рядов и анализа составляющей погрешности конечной разрядности процессора. В разработке и моделировании аппаратно-программных средств на разных этапах работы принимали участие аспиранты и студенты указанных кафедр, выполнявшие под руководством автора кандидатские диссертации, курсовые и дипломные проекты: Белолипецкий В.Н., Зеленко Л.С., Дмитриева Е.В., Иванов С.Г., Крупец Н.Г., Мирзоев Р.К., Сухинин В.П., Снигерева-Давыденко Л.Б., Кудрина М.А., Новиченкова И.Ю., Козлов А.Н., Учеватов С.В., Шевченко Д., Иващенко А.В. и многие др. Автор выражает благодарность всем сотрудникам, аспирантам и студентам кафедры информационных систем и технологий СГАУ за обсуждение материалов мо8
нографии, критические замечания, которых по мере возможности были учтены, особенно профессору Коварцеву А.Н. и доценту Иоффе В.Г. Большую благодарность автор выражает академику АН СССР Ильичёву В.И., профессорам Виттиху В.А., Григоровскому Б.К., Куликовскому К.Л., Кловскому Д.Д., Курочкину Е.П., Мартяшину А.И., Иванову В.Н., Рожкову В.А., Трапезникову Ю.А., Хуснутдинову Г.Н., Тельскнису Л.А. (Литва), М. Бранице (Хорватия), И. Ружичу (Хорватия), Л. Ефтичу (Хорватия), Б. Чосович (Хорватия), Д. Р. Кушину (Австралия), Ф. Вайде (Венгрия) - за обсуждение работы на различных её этапах. Особую благодарность автор выражает своим учителям: доценту Волкову И.И., профессорам Карпову Е.М., Куликовскому Л.Ф., Самарину Ю.П., Фремке А.В., Цветкову Э.И., Б. Соучеку (Хорватия), - за постоянное внимание, консультации и особенно за то, что привели в чудесный мир теории вероятностей и случайных процессов. Автор считает своим долгом выразить глубокую признательность ректору СГАУ член-корреспонденту РАН, профессору Сойферу В.А. за постоянную поддержку, рецензию и неоценимую помощь при издании монографии, а также д.ф-м.н., профессору Жданову А.И. за ценные замечания. Неоценимую помощь в редактировании монографии оказала инженер кафедры «Информационные системы и технологии» СГАУ Муравьёва Е.В., которой автор выражает свою благодарность. Издание монографии поддержано грантом 4 Г/2001 76/01/Б по программе «Поддержка важнейших разработок научных коллективов и отдельных учёных на основе системы грантов» по разделу «Важнейшие научные и технические разработки, соответствующие концепции социально-экономического развития Самары», за что автор выражает глубокую признательность губернатору Самарской области Титову К.А., а также президенту Самарского научного центра РАН академику РАН Шорину В.П. И, наконец, но не в последнюю очередь, я благодарен своей семье за понимание и поддержку в работе. Замечания и пожелания по книге, а также вопросы по информационным системам просьба направлять по адресу: Россия, 443086, г. Самара, Московское шоссе, 34, Самарский государственный аэрокосмический университет имени академика С.П. Королёва, факультет информатики, кафедра «Информационных систем и технологий», декану факультета информатики, заведующему кафедрой Прохорову С.А. E-mail: INTERNET:
[email protected] 9
ВВЕДЕНИЕ На пути создания образцов новой техники, технологических процессов научные исследования являются первым шагом, в процессе которого исследователь открывает новые законы, закономерности, совершает научные открытия. Научные исследования представляют собой сложный, итерационный процесс, представляющий сочетание теоретических, включая методы моделирования, и экспериментальных методов [3, 35]. Не умаляя достоинств теоретических методов исследования, значение экспериментальных методов трудно переоценить. Только с помощью эксперимента возможно получение достоверной информации об исследуемом объекте в реальном масштабе времени, после обработки которой возможно построение её модели. Открыв новый эффект, новое явление экспериментальным путем, которые невозможно объяснить на базе существующих теорий, экспериментатор стимулирует развитие фундаментальной науки. В то же время, получив новый теоретический научный результат, исследователь, с целью подтверждения основных положений новой теории, нуждается в его экспериментальной проверке. При проведении экспериментальных научных исследований исследователь: 1. ставит задачу исследований в терминах предметной области; 2. строит модель исследуемого объекта и определяет вектор информативных r параметров Ω , адекватно описывающий ее в рамках поставленной задачи; 3. с помощью технических средств осуществляет измерение, регистрацию и r r обработку мгновенных значений наблюдаемых процессов Χ (Θ, t ) , с целью определеr ния вектора информативных параметров Θ , описывающих модель процесса; 4. по результатам обработки информации устанавливает взаимно однозначное r r соответствие между векторами Ω и Θ : r r Ω = Φ( Θ ) , используемое для построения искомой модели объекта; 1. анализирует полученные результаты; 2. если результаты его устраивают - эксперимент окончен, в противном случае необходимо повторить пункты 3,4 (точность полученных результатов неудовлетвориr тельна), или пункты 2-4 (вектор параметров Ω не полно описывает поведение объекта), а иногда и пункты 1-4 (ставится другая задача). Следует отметить, что задачи 1, 2 и 4, 5, как правило, решает специалист данной предметной области, формулируя и интерпретируя ее в терминах предметной области, а 3 задачу - специалисты в области измерения и обработки измерительной информации. Такое разделение функций между исследователем и специалистом в области измерения и обработки измерительной информации позволяет последнему абстрагиr роваться от конкретных физических объектов и вектора физических параметров Ω и непосредственно перейти: 1. к математическому описанию исследуемых процессов и определению вектора параметров Θ , достаточных для решения поставленной задачи; 2. сбору информации с помощью первичных преобразователей; 3. оценке вектора параметров Θ с помощью технических средств; 4. анализу точности полученных результатов; 10
5. аппроксимации полученных функциональных зависимостей с помощью параметрических моделей. Каждая из перечисленных задач имеет свои специфические особенности, а эффективность решения четвертой и пятой - зависит от применяемых технических средств, построенных, как правило, на базе современных средств информационноизмерительной и вычислительной техники. Основной подсистемой любого технического средства, предназначенного для получения и обработки измерительной информации: автоматизированных систем научных исследований (АСНИ), информационно-измерительных систем (ИИС), процессорных измерительных систем (ПРИС), - является измерительно-вычислительный канал. Под измерительно-вычислительным каналом понимается совокупность аппаратно-программных средств, предназначенных для измерения мгновенных значений соответствующей физической величины, обработки результатов измерения и представления конечных результатов в форме, удобной для дальнейшего использования. Рассмотрим структуру отдельного измерительно-вычислительного канала.
Рисунок В.1. Измерительно-вычислительный канал
На рис. В.1 приняты следующие обозначения. - ИП - измерительный преобразователь (датчик); - К - коммутатор; - АЦП – аналого-цифровой преобразователь: - МУ - масштабирующее устройство; - ПО - процессор обработки. Рассмотрим преобразования, происходящие с сигналами в измерительновычислительном канале. Независимо от природы измеряемой физической величины на выходе ИП получаем электрический сигнал. При этом, каждому значению физической величины ставитr ся в соответствие вполне определенное значение электрической величины: x(t, Θ ) →
u(t). Основным требованием, предъявляемым к ИП, является линейность: r
u(t) = k x(t, Θ ), где k = const - коэффициент преобразования.
(В.1)
r
Следует отметить, что если связь между u(t) и x(t, Θ ) нелинейная, то производят линеаризацию функции преобразования, воспользовавшись, например, методом наименьших квадратов [8]. После ИП исследуемый сигнал поступает на вход коммутатора. В коммутаторе непрерывный сигнал u(t) преобразуется в последовательность отсчетов, отстоящих друг от друга на интервале Δti = ti+1 − ti . Т.е. выполняется операция дискретизации: 11
∞
u(ti) = ∫ u(t) δ(t-ti) dt,
(В.2)
−∞
⎧∞, если t = t i - δ-функция Дирака. 0 , если t t ≠ ⎩ i
где δ(t) = ⎨
(В.3)
Отметим, что при коммутации возможны два варианта: Δti = const - регулярная дискретизация; - Δti = random - нерегулярная дискретизация. После коммутации сигнал поступает на аналого-цифровой преобразователь, где последовательно подвергается процедурам квантования и кодирования. Квантование - процедура отнесения непрерывного значения процесса u (ti) к ближайшему разрешенному целому уровню.
⎡ u( t i ) ⎤ + λ ⎥ Sign u(ti), L(ti) = ent ⎢ ⎣ Δu ⎦ где - ent[ ] - операция взятия целой части числа; - Δu - шаг квантования по уровню; ⎧ 0, при усечении; - λ =⎨ . ⎩0,5, при округлении ; ⎧ 1, если u > 0 ; ⎪ - Sign u= ⎨ 0, если u = 0 ; - знаковая функция. ⎪− 1, если u < 0 . ⎩
(В.4)
(В.5)
В результате квантования сигнала получим целое число квантов, которое может кодироваться различными способами. При использовании двоичной системы счисления с весами 8-4-2-1 число двоичных разрядов, необходимых для представления L (ti) определяется выражением: n = log2 max|L(ti)|. (В.6) Следует подчеркнуть, что в случае одноканальной системы операции коммутации и аналого-цифрового преобразования совпадают. В многоканальных же системах, как правило, применяется один коммутатор на несколько каналов. После аналого-цифрового преобразователя сигнал поступает на вход масштабирующего устройства, выходной сигнал которого равен:
x€( t k ) =
L( t k )Δu . k
(В.7)
Т.е. при этом происходит обратное преобразование: приведение электрического сигнала к измеряемой физической величине. Далее сигнал поступает в процессор обработки - устройство, реализующее r тот или иной алгоритм получения оценки параметров физического процесса x(t, Θ ). При r этом возможны два подхода к решению задачи оценки Θ : - в режиме экспресс-анализа с помощью алгоритма AΘ оценивают вектор неr известных параметров Θ = A Θ {x€(t k ) }; - в режиме r контроля и регистрации с помощью алгоритма As получают оценку сигнала x€ (t, Θ ) = A s {x€( t k )}, записывают его на какой-либо промежуточный но12
ситель, а затем обрабатывают. При этом происходит задержка в обработке информации и, следовательно, в получении результата. Первый подход будем называть статистическими измерениями, второй - статистической обработкой. Под статистическими измерениями будем понимать измерение вероятностных характеристик случайных процессов с помощью специальных технических средств, работающих в реальном масштабе времени. Под статистической обработкой будем понимать оценку вероятностных характеристик случайных процессов на ЭВМ, записанных на промежуточный носитель, с задержкой в обработке информации. С целью повышения эффективности научных исследований, особенно при исследовании новых объектов, возникает необходимость в разработке и исследовании r новых алгоритмов оценки вектора неизвестных параметров - Θ = A Θ {x€(t k ) }. Следует отметить, что исследование алгоритмов возможно как аналитическими методами, так и методом имитационного моделирования на ЭВМ, суть которого заключается в анализе их метрологических характеристик с использованием псевдослучайных последовательностей, сгенерированных с помощью ЭВМ. Появилось большое количество интересных и важных монографий и статей, посвященных методологии, планированию, конструированию и выполнению моделирования [10, 11, 20, 36, 37, 57, ]. Большинство их них описывает метод, который носит название метода МонтеКарло. Современное толкование этого термина базируется на работе Неймана и Улама, выполненной в конце сороковых годов, в которой они применили специальный математический метод для решения проблемы ядерной физики, экспериментальные исследования которых очень дороги, а аналитическое решение очень сложно. Как правило реализация этого метода включает следующие основные блоки: • имитации входных процессов и внешних воздействий; • реальных и идеальных моделей, а также их разности; • формирования изменения параметров модели: - под воздействием внешних факторов; - в случае технологического разброса на множестве экземпляров; - в случае временной нестабильности; • первичной статистической обработки для определения статистических характеристик наблюдаемых процессов при данных испытаниях; • вторичной статистической обработки и управления машинным экспериментом: - совокупной обработки множества результатов экспериментов; - определения необходимого числа прогонов модели и принятия решений при последовательном планировании о продолжении или окончания эксперимента; - управления параметрами модели и значениями внешних факторов; -управления системным временем; • датчик системного времени; • управляющую программу, синхронизирующую процесс моделирования. Функциональная схема системного моделирования, поясняющая взаимодействие отдельных блоков представлена ни рис. В.2.
13
Датчик системного времени
Имитация входных процессов
Изменение параметров модели
Управление экспериментом
Реальное средство измерения Блок разности
Блок статистической обработки
Результат статистич. обработки
Идеальное средство измерения
Рисунок В.2. Функциональная схема имитационного моделирования
Сложность имитационной модели и затраты машинного времени при ее исследовании во многом будут зависеть от принципа имитационного моделирования. Учитывая, что основным принципом проектирования автоматизированных систем для автоматизации научных исследований, ИИС, процессорных средств измерения является агрегатное проектирование [4], наиболее целесообразно при конструировании модели использовать принцип блочного моделирования, суть которого сводится к следующему: • на основании декомпозиции АСНИ, ИИС, ПРИС cоздается библиотека моделей стандартных блоков для моделирования входных воздействий, дестабилизирующих факторов, блоков реальных систем. • на основании разработанных моделей блоков конструируется модель системы в соответствии с ее структурой, с возможностью контроля промежуточных последовательностей, соответствующих реальным физическим точкам системы. Достоинствами блочных моделей являются: • гибкость, простота изменения конфигурации модели системы, возможность прослеживания промежуточных результатов; соответствие математической модели; • возможность унификации процедур моделирования путём создания библиотеки стандартных процедур; • единообразие и простота построения моделей разнообразных структур; • возможность автоматизации процедуры построения моделей систем. К недостаткам блочного моделирования следует отнести: • увеличение времени моделирования; • необходимость большого объёма памяти для хранения библиотеки моделей. 14
Следует подчеркнуть, что затраты на моделирование, достоверность полученных результатов во многом зависят от принятых решений на этапе планирования эксперимента, особенно при определении необходимого числа испытаний, выборе входных воздействий и т.д. Согласно методике, изложенной в РТМ 25139-74 [29], в качестве метрологической характеристики может выбираться максимальное значение модуля погрешно^
стей оценки Θ :
{ }
Δ = max Δ j j = 1,... N ,
(В.8)
где N-число испытаний, зависящее от доверительной информации Pд. Так, если Pд =0,95, то число испытаний равно 29 независимо от закона распределения погрешностей. Структура пакета прикладных программ имитационного моделирования алгоритмов оценивания характеристик неэквидистантных временных рядов, содержащего как обрабатывающие, так и управляющие программы, состоит из следующих основных блоков: • задания входных воздействий с требуемыми характеристиками; • первичной статистической обработки информации ; • вторичной статистической обработки информации; • алгоритмов оценивания вероятностных характеристик; • сервисных; • определения методической погрешности и ее составляющих; • определения инструментальных составляющих погрешности. Одним из важных этапов имитационного моделирования является выбор, обоснование и моделирование сигналов, используемых в модельном эксперименте. Решение этой задачи определяется целевой функцией моделирования, назначением исследуемой системы и т.д. Так как при моделировании АСНИ, ИИС, ПРИС основной задачей является определение метрологических характеристик при определенных ограничениях на технико-экономические показатели, то существенным требованием, предъявляемым к образцовому (испытательному или тестовому) сигналу, является возможность оценки с его помощью погрешности результата измерения данным средством на заданном классе входных воздействий. Учитывая большое разнообразие решаемых задач и соответствующих им средств измерения, однозначного ответа о виде образцового сигнала быть не может. Окончательное решение о выборе вида образцового сигнала для конкретных типов средств измерения должно приниматься по результатам лабораторных исследований. В самом общем виде выбор образцового сигнала осуществляется: • выбором наихудшего сигнала из множества возможных входных сигналов, для обеспечения гарантированной погрешности результата измерения; • формированием набора типовых сигналов, то есть наиболее часто встречающихся входных сигналов или сигналов, наиболее интересующих исследователя; • формированием набора типовых сигналов, включающих в себя наихудший сигнал. Основными требованиями, предъявляемыми к образцовым сигналам, являются следующие: • заданный вид вероятностных характеристик; 15
• принадлежность к классу входных сигналов, для которых предназначено данное средство; • стабильность во времени; • отклонение текущих характеристик от расчетных не должно быть более допустимого. В некоторых случаях, кроме случайных сигналов, возникает необходимость в применении детерминированных образцовых сигналов. Количество входных сигналов, одновременно обрабатываемых в модели системы, определяется сложностью системы, сложностью модели, количеством каналов и т.д. Т.е. в системе моделирования должна быть предусмотрена возможность генерирования N сигналов как с одинаковыми, так и различными характеристиками. Отметим, что используемые в монографии термины «генерирование случайных процессов» и «моделирование случайных процессов» являются синонимами.
16
1.
МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ 1.1.
Основные понятия и определения
Источником информации r r об измеряемой физической величине является электрический сигнал x(t, Θ ), где Θ - вектор неизвестных параметров, подлежащий определению с помощью специальных технических средств. Состав этого вектора зависит от класса решаемой задачи и определяется в каждом конкретном случае. Сигналом или процессом считается любая функция времени. При фиксированном моменте r времени t= ti получим мгновенное значение измеряемой величины x(ti, Θ ). В зависимости от характера этой величины: детерминированной или случайной, - исследуемые процессы можно разделить на два класса: детерминированные, случайные процессы (сигналы). Детерминированным является такой сигнал, который представляет собой известную функцию времени. Для детерминированного сигнала, задав модель и числовые значения её параметров, можно определить его мгновенное значение для любого произвольного момента времени, например (см. рис. 1.1):
⎛ −⎞ x⎜ t ,Θ ⎟ = Am sin(ω 0 t + ϕ ) , (1.1) ⎝ ⎠ где Θ = [ Am ,ω 0 ,ϕ ] - вектор параметров
1,5 1 0,5 x(t)
0 -0,5
0
5
10
15
20
-1 -1,5 t
Рисунок 1.1.
25
30
модели. В свою очередь, детерминированные сигналы делятся на непрерывные и импульсные. Непрерывные сигналы характеризуются тем, что в заданном диапазоне изменения они могут иметь бесконечное число значений. Для непрерывных сигналов справедливо следующее утверждение:
lim x( t )= lim x( t )= x(t 0 ). t → t0 − 0 t → t0 + 0
(1.2)
Импульсные сигналы существуют на ограниченном интервале времени x(t ) = h( t )1(t1 0 - множитель; с ≥ 0 - приращение; m - модуль (m>x0, m>a, m>c). Обычно m задается на единицу больше максимального числа, которое можно записать в машинном слове. Такая последовательность называется линейной конгруэнтной последовательностью. Для получения равномерно распределенной в интервале [0,1] последовательности необходимо выполнить преобразование:
un =
xn . m
(2.2)
Конгруэнтные последовательности всегда «зацикливаются». Это свойство присуще всем последовательностям вида xn+1 =f(xn). Повторяющийся цикл называется периодом. Если C=0,то процесс генерации случайных чисел происходит несколько быстрее, но в то же время ограничение C=0 уменьшает длину периода. Методы генерирования с C=0 и C≠0 называют соответственно: мультипликативным конгруэнтным и смешанным конгруэнтным методами. Рекомендации по выбору числа m сводятся к следующему - m необходимо выбрать достаточно большим, так как длина периода не может быть больше m . Другой фактор, влияющий на выбор m, - это скорость выработки чисел. Так как деление сравнительно медленная операция, то ее можно избежать. Для этого необходимо выбрать m равным размеру слова. При выборе m, равному максимальному целому числу, размещающемуся в машинном слове, младшие разряды числа x намного менее случайны случайных старших. Если m равно максимальному целому числу в машинном слове ±1, то такой ситуации не возникает. Но для большинства приложений младшие разряды не существенны, и выбор m равном максимальному целому числу в машинном слове является вполне удовлетворительным, т.е. можно принять m=2l, где l - длина машинного слова. Выбор множителя a: для любой последовательности, предназначенной для использования в качестве источника случайных чисел, важен большой период. Теорема 1. Длина периода линейной конгруэнтной последовательности равна m тогда и только тогда, когда 1. C и m - взаимно простые числа; 2. b = a − 1 - кратно p для любого простого p, являющимся делителем m; 3. b кратно 4, если m кратно 4. Замечание: когда период имеет длину m, каждое число от 0 до m-1 встречается за период ровно один раз, следовательно выбор x0 не влияет в этом случае на длину периода. Мультипликативный метод: x n +1 = a x n (mod m ) ; (2.3)
79
при m= 2 l−2 получается последовательность с max периодом, алгоритм построения которой приведен ниже [26]: 1. выбрать в качестве x0 произвольное нечетное число; 2. a=8t±3, где t - любое целое положительное число; 3. вычислить ax0; полученное число содержит не более 2l значащих разрядов; взять l младших значений разрядов в качестве x1, остальные отбросить;
4. u1 =x1/m; 5. xi+1 = l младших разрядов axi; вернуться к пункту 4.
Смешанный метод: Преимущество данной процедуры в том, что можно так подобрать a и c , что эта формула определит последовательность, пробегающую все целые значения от 0 до m-1. Т.е. если выполняются условия теоремы 1, то можно получить ПСП с периодом =2l. С вычислительной точки зрения смешанный метод сложнее на одну операцию сложения мультипликативного метода. Однако свобода выбора параметра c открывает дополнительные возможности уменьшения сериальной автокорреляции. Общие рекомендации по выбору параметров сводятся к следующему: 1. множитель a не должен быть близок к простому рациональному кратному модуля m, в противном случае возникает сериальная корреляция пар чисел; 2. множитель a не должен быть близок к простому рациональному кратному квадратного корня модуля m; эта близость приведет к сериальной корреляции троек чисел; 3. не следует выбирать множитель a так, чтобы он содержал мало единиц в двоичном представлении; 4. множитель a должен быть достаточно велик; 5. особенно внимательно надо относиться к выбору множителя a при реализации генератора на ЭВМ с малой длиной слова; для того, чтобы обеспечить хорошие статистические характеристики генератора, в этом случае может понадобиться представление чисел с двойной точностью. Период линейной конгруэнтной последовательности чрезвычайно велик. Обычно, если m приближается к длине машинного слова, то период ≈ 109 и больше. Так как генератор «белого шума» является базовым генератором при решении разнообразных задач, связанных с генерированием случайных величин , процессов и последовательностей с заданными статистическими характеристиками проведем его исследование. На рис 2.1. представлена гисто1,2 грамма генератора «белого шума» с 1 равномерным законом распределения в 0,8 диапазоне [0,1], построенная для 0,6 N=10000. Результаты обработки данных и 0,4 закона распределения предпараметры 0,2 ставлены в таблице 2.2. Вычисленное 0 1 3 5 7 9 11 13 15 17 19 значение χ2 соответствует достоверности P=0,6. Рисунок 2.1. Гистограмма «белого» шума 80
Результаты экспериментальных исследований генератора «белого» шума Таблица 2.2. xmin xmax mx Dx a b χ2 Δ 0,05 0,00002 0,9999 0,4999 0,0834 -0,0003 1,003 15,66 1,2 1 0,8 0,6 0,4 0,2 0 -0,2
1
3
5
7
9
11
13
15
Нормированная корреляционная функция генератора «белого» шума представлена на рис. 2.2. Результаты исследования показывают неидеальность генератора «белого шума». Однако, как показывает практика, точностные характеристики генератора являются достаточными при решении разнообразных задач моделирования входных воздействий [62].
Рис. 2.2. Корреляционная функция «белого шума»
2.2. Моделирование ПСП с заданным законом распределения Для генерирования ПСП с заданным законом распределения (основные виды моделей приведены в приложении П1) применяются различные методы [11, 26, 47, 62]: • метод нелинейного преобразования (обратной функции); • приближенный метод (метод кусочно-линейной аппроксимации закона распределения); • метод исключения (метод Неймана) и т.д. Рассмотрим более подробно первые два. 2.2.1. Метод обратной функции Для решения задачи моделирования ПСП с заданным законом распределения случайный процесс подвергается нелинейному преобразованию. Теоретической базой для определения вида и характеристик нелинейной функции является теория функций случайного аргумента [40]. Допустим, случайная величина X имеет плотность распределения вероятности fx (x), а необходимо получить выходную величину Y с плотностью распределения вероятностей fy(y). Таким образом, мы должны определить вид нелинейной функции преобразования y=g(x). Известно, что f x (x )dx = f y (y )dy . (2.4) Отсюда
dx f y (y ) = . dy f x (x )
(2.5)
Допустим, что обратная функция преобразования x = t (y ) . Тогда
(2.6)
81
t ′(y ) =
f y (y )
f x (x )
.
(2.7)
Если в качестве входной ПСП выбрать «белый шум» с f x (x ) = 1 , то x = t (y ) = Fy (y ) .
(2.8)
Отсюда можно определить вид нелинейной функции преобразования y = g(x ) = Fy−1 (x ) . (2.9) Графическая интерпретация метода инверсного преобразования представлена на рис. 2.3. x
x
1
1
Fy(Y) 1
1
0,8 0,6 0,4 0,2 0
0
1
f(x)
0
0
t
2
4
0
yy y
0
t
fy(y)
0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0
1
2
3
4
y
Рисунок 2.3. Моделирование ПСП с заданным видом закона распределения вероятностей
Обычно можно найти аналитическое решение Fy−1 ( x) только для ограниченного числа случаев. Примеры интегральных функций распределения и обратных им функций приведены в приложении П.3. 82
2.2.2. Приближенный метод моделирования Для большинства случаев интегральную функцию нельзя найти аналитически и тогда применяют приближенный метод моделирования, который основан на использовании ПСП с равномерным законом распределения, кусочно-линейной интерполяции функции распределения и решении задачи обратной интерполяции. При кусочно-линейной интерполяции функцию распределения представим в виде:
⎧ ⎫ y −y Fy ( yi ) = ∑⎨Fy ( yl−1) + i l−1 Fy ( yl ) − Fy ( yl−1) ⎬1( yl−1 ≤ yi < yl ) , yl − yl−1 l=1 ⎩ ⎭
[
L
]
(2.10)
где i=1,2,...N. Отсюда найдем обратную функцию:
⎡ ⎤ Fy ( yi ) − Fy ( yl−1) yi = ∑⎢yl−1 + ( yl − yl−1)⎥1 Fy( yl−1) ≤ Fy( yi ) < Fy( yl ) . Fy ( yl ) − Fy ( yl−1) ⎥⎦ l=1 ⎢ ⎣ С учётом того, что при генерировании ПСП x l = Fy ( y l ) получим,
[
L
]
(2.11)
L ⎡ ⎤ x − x l−1 y i = ∑ ⎢ y l −1 + i (2.12) y l − y l −1 )⎥ 1( x l−1 ≤ x i < x l ) . ( x − x l =1 ⎣ ⎦ l l −1 Так как координаты узловых точек F( y l ) рассчитываются заранее, окончатель-
но получим: L
[ l=1
]
y i = ∑ y l−1 + ( x i − x l−1 ) A l 1( x l−1 ≤ x i < x l ) , где A l =
(2.13)
y l − y l −1 . x l − x l −1
Отсюда следует, что необходимо, задавшись допустимой погрешностью восстановления Fy(y) δ , видом интерполяции, определить узловые точки {yl - Fy(yl)} и Al. Затем, воспользовавшись формулой (2.11), сгенерировать ПСП с требуемым законом распределения. Для удобства дальнейших расчётов в приложении П.4. приведены Fy(y), для типовых законов распределения, представленные в виде рядов. Такое представление позволяет определить значения Fy(y) с заданной погрешностью и уменьшить время решения задачи. Выбор допустимой погрешности аппроксимации функции распределения Fy(y) определяется в зависимости от N - числа генерируемых чисел ПСП, допустимого уровня значимости P, выбранного критерия и его значения. Наиболее целесообразно в этом случае применить критерий Колмогорова [12], связанный с погрешностью восстановления: N δ = max F( ) ( y) − F y , (2.14) y
y
( )
N где Fy( ) ( y) - функция распределения, определяемая экспериментально на выборке
размером N; Fy(y)- теоретическая функция распределения. 83
Для определенной погрешности восстановления δ и объёма выборки N определяется
λ=δ N.
(2.15)
Гипотеза принимается, если для заданного уровня значимости P λ < λ1− P .
(2.16)
В приложении П.7. приведены результаты расчёта λ для различных δ и N. Задавшись допустимым уровнем значимости, например P=0,3, определим λ=0,97. Гипотеза принимается, если λ 0 , ⎪ n ⎪ Г⎛⎜ ⎞⎟ ⎪⎩ ⎝ 2⎠
(2.20)
где y2
⎛ n y2 ⎞ Г⎜ ; 2 ⎟ = ⎝ 2 2σ ⎠
2σ 2
∫
e −t t
⎛n ⎞ ⎜ −1⎟ ⎝2 ⎠
dt .
(2.21)
0
Для генерирования ПСП необходимо задать параметры распределения. Пусть σ= 1, n=4. Тогда выражение (2.20) примет вид:
F( y) =
y2 / 2
∫
e − t t dt
(2.22)
0
85
Результаты расчёта координат узловых точек для приведенной погрешности интерполяции 1% приведены в таблице 2.3. Координаты узловых точек. Таблица 2.3 y 0 0,7 1,3 2,5 3,1 3,9 4,2 4,3 F(y) 0 0,026 0,207 0,819 0,952 0,996 0,998 0,999 Из таблицы 2.3 видно, что кривая распределения имеет восемь узлов и семь линейных участков. Гистограмма сгенерированной ПСП 0,6 приведена на рис. 2.5. Для проверки достоверности результа0,5 тов генерирования использовался критерий 0,4 Пирсона [10], а сами результаты представлены 0,3 в таблице 2.4. 0,2 0,1 0 1
2
3
4
5
6
7
8
9 10 11
Рисунок 2.5. Гистограмма ПСП
Результаты расчётов.
J
pi
p *i
p *i
/h
(p
Таблица 2.4 * i
)
− pi / pi
(0- 0,4) 0,00316 0,015 0,036 0,0114335 (0,4 - 0,8) 0,039 0,036 0,091 0,0001030 (0,8 - 1,2) 0,121 0,126 0,316 0,0002900 (1,2 - 1,6) 0,215 0,181 0,450 0,0056300 (1,6 - 2,0) 0,217 0,205 0,512 0,0007500 (2,0 - 2,4 ) 0,192 0,205 0,512 0,0008920 (2,4 - 2,8) 0,115 0,118 0,295 0,0000900 (2,8 - 3,2) 0,061 0,088 0,222 0,0012608 (3,2 - 3,6) 0,026 0,032 0,080 0,0010600 (3,6 - 4,0) 0,008 0,010 0,025 0,0003000 (4,0 - 4,4) 0,001 0,0009 0,0013 0,0020000 2 Рассчитанное значение χ = 1,54 , число степеней свободы k=11-3 = 8. В приложении П.6 при выбранном уровне значимости α = 0,05 находим χ 2k,α = 15,51 . Так как χ 2 < χ 2k,α , сгенерированная ПСП согласуется с требуемым законом распределения. Для сокращения времени генерирования увеличим погрешность интерполяции до тех пор, пока критерий согласия χ2 перестанет выполняться. Численные значения узлов интерполяции для приведенной погрешности 2% представлены в таблице 2.5.
86
Узлы интерполяции. Таблица 2.5. Y F(y)
0 0
0,98 0,080
2,55 0,850
3,75 0,985
4,3 0,999
Проведя аналогичные расчёты, получим, что χ2 =6,55, и условие χ 2 < χ 2k,α выполняется. Результаты расчёта χ2 = 12,9 для приведенной погрешности 3% (узлы функции распределения представлены в таблице 2.6), показывают, что условие χ 2 < χ 2k,α выполняется. Узлы интерполяции. Таблица 2.6. Y 0 1,1 3,0 4,3 F(y) 0 0,12 0,94 0,999 При дальнейшем увеличении приведенной погрешности интерполяции критерий согласия нарушается. Проведем исследование генераторов ПСП, распределенных по экспоненциальному закону. В отличие от предыдущего примера, в этом случае возможно применения метода инверсного преобразования (см. приложение П.3). Результаты сравним с приближенными методами генерирования. На рис. 2.6 а) приведены результаты моделирования ПСП, распределенной по экспоненциальному закону с использованием инверсной функции. В этом случае χ2 = 7,579, r = 7, P = 0,4. На рис. 2.6 б) приведены результаты моделирования ПСП, распределенной по экспоненциальному закону с использованием приближенного метода генерирования ПСП Δx = const. Для рассматриваемого примера χ2 = 7,054, r = 7 , P = 0,4. 0,9
0,8
0,8
0,7
0,7
0,6
0,6
0,5
0,5
0,4
0,4
0,3
0,3 0,2
0,2
0,1
0,1
0
0 1
2
3
4
5
6
7
8
9 10
1
2
3
4
5
6
7
8
9
10
а) б) Δx=const Рисунок 2.6. Гистограммы экспоненциального распределения
На рис. 2.7 а) приведены результаты моделирования ПСП, распределенной по экспоненциальному закону с использованием приближенного метода генерирования Δy = const. Для рассматриваемого примера χ2 = 7,33 , r = 5, P = 0,2. 87
0,9
1
0,8
0,8
0,7 0,6
0,6
Ряд1
0,5
0,4
Ряд2
0,4
Ряд3
0,3
0,2
0,2
0
0,1
1
2
3
4
5
6
7
0 1
2
3
4
5
6
7
8
9
а) Δy=const б) Рисунок 2.7. Гистограммы экспоненциального распределения
На рис. 2.7 б) приведены все три гистограммы, полученные в ходе генерирования с использованием различных методов ПСП, распределенных по экспоненциальному закону. Ряд 1- инверсный метод преобразования, ряд 2 - Δx=const , ряд 3 - Δy = const. Таким образом, результаты экспериментальных исследований различных генераторов экспоненциального распределения подтверждают возможность применения приближенного метода генерирования ПСП. Проведенные исследования для других законов распределения показали, что для обеспечения требуемого качества генерирования ПСП (в смысле критерия Пирсона) достаточно осуществить интерполяцию функции распределения с приведенной погрешностью 1%. В этом случае количество узлов интерполяции для большинства законов меньше 10, что значительно уменьшает общее время моделирования. Следует отметить, что в ряде случаев при генерировании ПСП более целесообразно применять более простые методы. Так, например, при генерировании ПСП, распределенной по нормальному закону, можно воспользоваться теоремой Ляпунова [12]. Практика показала, что ПСП можно определить в виде n
y=
∑ xi − n / 2 i =1
(n / 2 )1/ 2
,
(2.23)
где x i - случайная величина, распределенная по равномерному закону, а n находится в диапазоне 6 ≤ n ≤ 12 . Для получения временного ряда из сгенерированной ПСП необходимо задать интервал дискретизации Δt 0 . Так как отсчёты ПСП некоррелированны (см. рис. 2.2), интервал дискретизации может быть любым. Его величина устанавливается исследователем самостоятельно в зависимости от характера решаемой задачи. На рис. 2.9 приведены примеры реализаций ПСП с заданными законами распределения, полученные с помощью автоматизированной системы [2] и соответствующие им гистограммы. Забегая вперед, отметим, что с помощью этой системы возможно определение аналитических выражений законов распределения сгенерированной ПСП и проверка качества генерирования с помощью критериев согласия. 88
Рисунок 2. 8. ПСП с заданным видом закона распределения 89
2.3. Моделирование потоков событий с заданными свойствами Приведенные основные соображения, рассмотренные в подразделе 2.2, позволяют легко генерировать на ЭВМ реализации различных однородных потоков событий. Формально моделирование подобных потоков мало чем отличается от моделирования случайных величин. Для этого необходимо сгенерировать случайные величины {ξ i }i=1,...N с законом расНачало пределения f ξ (ξ ) . Суммирование получаемых
реализаций позволит определить и моменты наступления событий в системе (см. рис. 2.9): t i+1 = t i + ξ i (2.24) Отметим, что подобные потоки относятся к классу потоков с аддитивной дискретизацией. В качестве законов распределения f ξ (ξ )
Генерирование ПСП типа «белого» шума
Формирование ПСП с заданными характеристиками {ξ i }i =1,...N
в зависимости от решаемой задачи могут использоваться самые различные законы: • экспоненциальный; • распределение Эрланга; • равномерное распределение; • треугольное распределение 1-го и 2го типов и т.п. Для простейшего потока событий или потока Пуассона, широко применяемого на практике, число событий k, наступивших на интервале времени [0, t] - дискретная случайная величина, определяемая законом распределения Пуассона:
i=0 ti=0
ti+1=ti+ξi i=i+1 да
a k −a P[ k ] = e : k = 1,2,3,... (2.25) k! с параметром a=λt, λ - интенсивность или па-
i 0, ξ > 0 ,
(2.27)
что дает более простой способ генерирования простейшего потока, - формирование на ЭВМ дискретной случайной величины с законом распределения (2.27). Следует заметить, что нередко моделирование случайных величин, определяющих поток событий в системе, проводится с использованием специальных методов. Так, например, моделирование случайных величин, распределенных по нормальному закону, законам Симпсона, более целесообразно проводить путем суммирования случайных величин, распределенных по равномерному закону, а для закона Эрланга - суммированием случайных величин, распределенных по экспоненциальному закону. Рассмотрим особенности генерирования типовых рекуррентНачало ных потоков, модели которых представлены в подразделе 1.8. Генерирование ПСП • Значение j+1-ого отсчёта типа «белого» шума регулярного потока с pпреобразованием (периодическая дискретизация со случайными проФормирование ПСП с пусками наблюдений) определяется заданными характеристиками выражением:
{ξ i }i
j
1 N
t j = Δt 0 ∑ Yi , i =1
i=1, j=1, k=1 tj =0 да
ξi>p
(2.28)
k=k+1
t j+1 = t j + kΔt 0 , j=j+1, k=1
i=i+1
где Δt 0 - интервал принудительной дискретизации; Y- случайная величина, распределенная по сдвинутому на единицу закону Паскаля с параметром p [13]: P(Y = m ) = pq m −1 , m=1, 2, (2.29) Выражение для генерирование удобнее представить в следующем виде t j+1 = t j + kΔt 0 , (2.30)
где k – случайная величина (см. рис. 2.10). да • Значение i+1-ого отсчёта реI 0, β > 0
Параметры функции распределения μ = α1 ;
(
μ3; ka ;
[Г(1+ 3 / α) − − 3Г(1 +1 / α)× × Г(1 + 2 / α) + + 2Г3 (1+1 / α)]×
× β −2 / α
× β −3 / α ; μ3 / μ32/ 2 ;
Рэлея
α1
7 σ π 2
≈ 1,25σ
⎧ 0, (− ∞ < x < 0); ⎪ 2 ⎨ x exp⎛⎜ − x ⎞⎟, (o < x < ∞ ) ⎪σ2 ⎜ 2σ 2 ⎟ ⎝ ⎠ ⎩ μ2 μ3; ka ; 4−π 2 σ ≈ 2 ≈ 0 , 43 σ
π
2
×
× σ3 2;
≈ 0,63; ⎧ 0, (− ∞ < x < 0); ⎨ − αx , (0 < x < ∞ ) ⎩αe
Экспоненциальный 8
2
(π − 3)
)
μ4; kε;
[Г(1 + 4 / α) − − 4Г(1 + 3 / α) × × Г(1 + 1/ α) + + 6Г(1 + 2 / α) × × Г 2 (1 + 1/ α) − − 3Г 4 (1 + 1 / α)]× × β−4 / α ;
μ 4 / μ 22 − 3;
⎧ 0, (− ∞ < x < 0); ⎪ 2 ⎨1 − exp⎛⎜ − x ⎞⎟, (o < x < ∞ ) ⎪ ⎜ 2σ 2 ⎟ ⎝ ⎠ ⎩ Параметры μ4; функции расkε;
пределения
2
32 − 3π σ4 ; 4 ≈ −0,3;
σ ≈ 0,8α1
⎧ 0, (− ∞ < x < 0 ); ⎨ − αx ⎩1 − e , (0 < x < ∞ )
α1
μ2
μ3; ka ;
μ4; kε;
Параметры функции распределения
1/ α
1/ α2
2 / α3; 2;
9 / α4; 6;
α = 1 / α1 189
№
9
Название закона
f x (x )
sec h 2 x
a sec h 2 ax 2 μ3; ka ;
α1
μ2
0
π2
1
Нормальный
12
190
1 1 + thax 2 2 μ4; kε; 7π 4
(
exp − (x − a )2 / 2σ 2
)
240a 4 4,2; 1
μ2
μ3; ka ;
μ4; kε;
a
σ2
0; 0;
3σ 4 ; 0;
0, (− ∞, x < 0); ⎧ ⎪ ⎨ 2 exp − x 2 / 2σ 2 , x > 0 ⎪ πσ 2 ⎩
(
)
Параметры функции распределения a=
;
∫ exp(− (t − a )
x
2π σ −∞
α1
Односторонний нормальный 11
2π σ
Fx (x )
0; 0;
12a 2
10
Продолжение приложения 1
π
2 3μ 2 2
)
/ 2σ 2 dt
Параметры функции распределения a = α1 ;
σ = μ2 ; 0, (− ∞, x < 0);
⎧ ⎪ x ⎨ 2 exp − t 2 / 2σ 2 dt , x > 0 ⎪ πσ 2 ∫ 0 ⎩
(
α1
μ2
μ3; ka ;
μ4; kε;
≈ 0,8σ
≈ 0,36σ 2
≈ 0,22σ 3 ; ≈ 1;
≈ 0,54σ 4 ; ≈ 0,85;
Пирсона
⎧0, (− ∞ < x < 0 ); ⎪ λ ⎨ α x λ −1e −αx ; ⎪ Г(λ ) ⎩ λ = n / 2 (n = 1, 2, ...)
α1
μ2
μ3; ka ;
μ4; kε;
λ/α
λ / α2
2λ / α 3 ; 2 / λ;
3λ(λ + 2 ) / α 4 ; 6 / λ;
)
Параметры функции распределения σ = 1,25α1
⎧ 0, (− ∞, x < 0 ); ⎪ Г(λ, αx ) ⎨ , (0 < x < ∞ ) ⎪⎩ Г(λ )
Параметры функции распределения α = α1 / μ 2 ; λ = α12 / μ 2 ;
№
f x (x )
Название закона
⎧ 0, (− ∞ < x < 0 ); ⎪ (x + a ) ⎡ − (x − a ) − ⎪⎪ 1 ⎢ 2σ 2σ −e e ⎨ ⎢ ⎪ 2π σ ⎢ ⎣ ⎪ ⎪⎩ (0 ≤ x < ∞ )
Распределение модуля нормальной случайной величины
2
2
α1 σ
13
2 π (n − 1 )!!
2 n / 2 Г (n / 2 ) (n = 2 k ) ⎛ n −1⎞ σ 2π ⎜ ⎟! ⎝ 2 ⎠ ; Г (n / 2 ) (n = 2 k + 1 )
2
2
μ2 ;
Продолжение приложения 1
Fx (x )
⎤ ⎥ ⎥; ⎥⎦ μ3; ka ;
⎡ σ ⎢ n− ⎢ ⎣ ⎛ n + 1⎞ Г2⎜ ⎟ 2 ⎠ ⎝ −2 ⎛n⎞ Г2⎜ ⎟ ⎝2⎠ 2
⎤ ⎥ ⎥ ⎥⎦
2
14 B(x i ) =
μ4; kε;
⎡ n⎛n ⎞ 4σ 4 ⎢⎢ ⎜ + 1⎟ + 2⎝2 ⎠ ⎢⎣ ⎛ n + 1⎞ Г2 ⎜ ⎟ 2 ⎠ ⎝ + (n + 2 ) − 2⎛ n ⎞ Г ⎜ ⎟ ⎝2⎠ ⎛ n + 1⎞ Г4 ⎜ ⎟ ⎤ 2 ⎠ ⎥ ⎝ −3 ⎛n⎞ ⎥ Г 4 ⎜ ⎟ ⎥⎦ ⎝2⎠ 2 μ 4 / μ 2 − 3;
⎡ σ 3 2 ⎢ (1 − 2n ) × ⎢ ⎣ ⎛ n + 1⎞ Г⎜ ⎟ 2 ⎠ ⎝ × + ⎛n⎞ Г⎜ ⎟ ⎝2⎠ ⎛ n + 1⎞ Г3 ⎜ ⎟ ⎤ 2 ⎠ ⎥ ⎝ +4 ⎥; 3⎛ n ⎞ Г ⎜ ⎟ ⎥⎦ ⎝2⎠ 3/ 2 μ3 / μ2 ;
⎧ 0, (− ∞ < x ≤ x1 ); (x−a ) ⎪ − ⎪ A e 2σ , (x1 < x ≤ x 2 ); ⎨ ⎪ 2π σ ⎪0, (x1 < x < x 2 ); ⎩ 1 A= , 1 [B(x 2 ) − B(x1 )] 2π
Усечённый нормальный
0, (− ∞ < x < 0 ) ⎧ ⎪ ⎛ n x2 ⎞ ⎟ ⎪⎪ Г⎜ , 2⎟ ⎜ 2 2σ ⎠ ⎨ ⎝ , (0 ≤ x < ∞ ) ⎪ n ⎛ ⎞ ⎪ Г⎜ ⎟ ⎪⎩ ⎝2⎠
⎧0, (− ∞ < x ≤ x1 ); ⎪⎪ B(x ) − B(x1 ) , (x1 < x ≤ x 2 ); ⎨ ( ) ( ) B x − B x 2 1 ⎪ ⎪⎩0, (x1 < x < x 2 );
x i −a u2 σ − e 2 du
∫
0
a + E σ; D(x ) = E=
α1
μ2
⎛ D (x ) ⎞ x −a ⎟; ; C(x ) = exp⎜ − ⎜ ⎟ 2 σ ⎝ ⎠
C(x1 ) − C(x 2 ) ; B(x 2 ) − B(x1 )
2
A ⎧ [D(x 2 )C(x 2 ) − σ 2 ⎨1 − E 2 − 2π ⎩ ⎫ − D(x 1 )C(x 1 )] ⎬ ⎭
191
№
Название закона Эрланга
15
f x (x )
⎧ 0, (− ∞ < x < 0 ); ⎪ α α −1 ⎨β x −βx ⎪ (α − 1)! e , (0 < x < ∞ ) ⎩
α1 α/β
Продолжение приложения 1
μ2 α / β2
16
μ4; kε;
2α / β 3 ;
3α(α + 2 ) / β 4 ; 6 / α;
⎧ 0, (− ∞ < x < 0); x ⎪ − ⎪ 1 α β x e , (0 < x < ∞ ), ⎨ α +1 ⎪ β Г(α + 1) ⎪α > −1, β > 0 ⎩
α1
μ2
μ3; ka ;
(α + 1)β
(α + 1)β 2
2(α + 1)β 3 ; 2
α + 1; Показательностепенной 17
⎧ 0, (− ∞ < x < 0 ); ⎪ m ⎨x −x ⎪⎩ m! e , (0 < x < ∞ )
α1
μ2
m +1
m +1
Максвелла
μ3; ka ;
α1 ≈ 1,6σ
192
)
⎧ 0, (− ∞ < x < 0 ); ⎪⎪ ⎛ x⎞ ⎨ Г⎜⎜ α + 1; β ⎟⎟ ⎠ , (0 < x < ∞ ) ⎪ ⎝ ⎪⎩ Г(α + 1) Параметры μ4; функции расkε; пределения 3(α + 3)(α + 1)β 4 α2 α = 1 − 1; 6 μ2 ; α +1 μ β= 2; α1
μ4; kε;
2(m + 1) ; 2 ; m +1 ⎧ 0 , (− ∞ < x < 0 ); x ⎪⎪ − 4 2 σ ⎨ 2 x e ⎪ 2 3/2 ⎪⎩ π 2 σ
(
Параметры функции распределения α = α12 / μ 2 ; β = α1 / μ 2 ;
⎧0, (− ∞ < x < 0); ⎪ Г(m + 1, x ) ⎨ , (0 < x < ∞) ⎪⎩ Г(m + 1)
2
18
⎧0, (− ∞ < x < 0 ); ⎪⎪ α −1 e −βx (βx )k , ⎨1 − ∑ k ! ⎪ k =0 ⎪⎩ (0 < x < ∞ )
μ3; ka ;
2 / α;
«Гаммараспределение»
Fx (x )
2
Параметры функции распределения 3(m + 3)(m + 1); m = α1 − 1 6 ; m +1 ⎧ 0 , (− ∞ < x < 0 ); ⎪ 2 ⎨ 2 Г ⎛⎜ 3 ; x ⎞⎟ ⎪ π ⎜ 2 2σ 2 ⎟ ⎝ ⎠ ⎩
μ2
μ3; ka ;
μ4; kε;
≈ 1,73σ 2
≈ 0,15σ 3 ; ≈ 0,07;
≈ 13,5σ 4 ; ≈ 1,55;
Параметры функции распределения σ ≈ 0,625α1
Приложение 2 Характеристические функции №
⎧ 0, (− ∞ < x < a ); ⎪ 1 , (a < x < b ); ⎨ − b a ⎪ ⎩ 0, (b < x < ∞ ); ⎧0, (− ∞ < x < a ); ⎪ 4(x − a ) , (a < x < (a + b) / 2); ⎪ ⎪ (b − a )2 ⎨ 4(b − x ) ⎪ , ((a + b) / 2 < x < b); ⎪(b − a )2 ⎪0, (b < x < ∞); ⎩
1
Равномерный
2
Симсона
3
Арксинуса
4
Коши
π (x − μ )2 + a 2
5
Лапласа
λ − λ x −μ e 2
6
ϕ x (u )
f x (x )
Название закона
e iub − e iua iu (b − a )
−
⎧0, (− ∞ < x < −a ), ⎪⎪ 1 , (− a < x < a ), ⎨ 2 2 π a − x ⎪ ⎪⎩0, (a < x < ∞ ), a
[
(
α > 0, β > 0
u (b − a )
2
(e
iub / 2
− e iua / 2
)
1 a e iux dx ∫ π −a a 2 − x 2
]
exp[iμu − a u ] exp(iuμ )
1 + u 2 / λ2
⎧ 0, (− ∞ < x < 0 ); ⎨ α −1 α ; αβ − β x exp x ⎩
Вейбулла
4 2
)
∞
1+ ∑
k =1
(iu )2 β −k / α Г⎛1 + k ⎞ ⎜ ⎝
k!
⎟ α⎠
1− 7
Рэлея
⎧ 0, (− ∞ < x < 0); ⎪ 2 ⎨ x exp⎛⎜ − x ⎞⎟, (o < x < ∞ ) ⎪σ2 ⎜ 2σ 2 ⎟ ⎝ ⎠ ⎩
8
Экспоненциальный
⎧ 0, (− ∞ < x < 0); ⎨ − αx , (0 < x < ∞ ) ⎩αe
9
sec h 2 x
a sec h 2 ax 2 1
10
Нормальный
2π σ
(
exp − (x − a )2 / 2σ 2
)
(−1)k k! (uσ uσ ∞ (2k +1)! − ∑
2
)2k+2 +
(
)
2 k=0 uσ π +i exp − u 2σ2 / 2 2 α α − iu uπ uπ 2a sh 2a exp iua − u 2 σ 2 / 2
(
)
193
Продолжение приложения 2
(
)
exp u 2 σ 2 / 2 × 11
12
13
14
15
194
Односторонний нормальный
Пирсона
Эрланга
«Гаммараспределение»
Показательностепенной
0, (− ∞, x < 0); ⎧ ⎪ ⎨ 2 exp − x 2 / 2σ 2 , x > 0 ⎪ πσ 2 ⎩
(
)
⎧0, (− ∞ < x < 0 ); ⎪ λ ⎨ α x λ −1e −αx ; ⎪ Г(λ ) ⎩
λ = n / 2 (n = 1, 2, ...) ⎧ 0, (− ∞ < x < 0 ); ⎪ α α −1 ⎨β x −βx ⎪ (α − 1)! e , (0 < x < ∞ ) ⎩
⎧ 0, (− ∞ < x < 0); x ⎪ − ⎪ 1 α β x e , (0 < x < ∞ ), ⎨ α +1 ⎪ β Г(α + 1) ⎪α > −1, β > 0 ⎩
⎧ 0, (− ∞ < x < 0 ); ⎪ m ⎨x −x ⎪⎩ m! e , (0 < x < ∞ )
⎡ ⎛ iuσ ⎞⎤ × ⎢1 + Ф⎜ ⎟⎥ ; ⎝ 2 ⎠⎦ ⎣ 2 z Ф(z ) = exp − t 2 dt ∫ π0
( )
1
(1 − iu / α )λ ⎛ iu ⎞ ⎜⎜1 − ⎟⎟ β⎠ ⎝
−α
1
(1 − iuβ )α+1 1
(1 − iu )m+1
Приложение 3 Функции распределения Логарифмически-нормальный закон
Нормальный закон
Усеченный нормальный закон
x
F(x)
x
F(x)
x
F(x)
1,0000 2,5000 4,0000 5,5000 7,0000 8,5000 10,0000 11,5000 13,0000 14,5000 16,0000 17,5000 19,0000 20,5000 22,0000 23,5000 25,0000 26,5000 28,0000 29,5000 31,0000 32,5000 34,0000 35,5000 37,0000 38,5000 40,0000 41,5000 43,0000 44,5000 46,0000 47,5000 49,0000 50,5000 52,0000 53,5000 55,0000 56,5000 58,0000 59,5000
0,1586 0,4666 0,6504 0,7596 0,8280 0,8730 0,9037 0,9255 0,9413 0,9531 0,9619 0,9688 0,9742 0,9785 0,9818 0,9846 0,9869 0,9888 0,9903 0,9916 0,9926 0,9935 0,9943 0,9951 0,9957 0,9962 0,9965 0,9969 0,9972 0,9975 0,9978 0,9980 0,9983 0,9985 0,9986 0,9987 0,9988 0,9989 0,9989 0,9991
0,0000 0,5000 1,0000 1,5000 2,0000 2,5000 3,0000 3,5000 4,0000 4,5000 5,0000 5,5000 6,0000 6,5000 7,0000 7,5000 8,0000 8,5000 9,0000 9,5000 10,0000 10,5000 11,0000 11,5000 12,0000 12,5000 13,0000 13,5000 14,0000 14,5000 15,0000 15,5000 16,0000 16,5000 17,0000 17,5000 18,0000 18,5000 19,0000 19,5000
0,0000 0,2652995Е-01 0,9021267Е-01 0,1733 0,2643 0,3553 0,4122 0,5221 0,5939 0,6575 0,7127 0,7603 0,8008 0,8352 0,8642 0,8882 0,9085 0,9251 0,9388 0,9503 0,9595 0,9672 0,9735 0,9785 0,9827 0,9860 0,9887 0,9909 0,9927 0,9941 0,9954 0,9963 0,9972 0,9976 0,9978 0,9987 0,9985 0,9989 0,9995 0,9984
0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,9000 1,0000 1,1000 1,2000 1,3000 1,4000 1,5000 1,6000 1,7000 1,8000 1,9000 2,0000 2,1000 2,2000 2,3000 2,4000 2,5000 2,6000 2,7000 2,8000 2,9000 3,0000 3,1000 3,2000 3,3000 3,4000 3,5000 3,6000 3,7000 3,8000
0,0000 0,4987596Е-02 0,1980038Е-01 0,4400352Е-01 0,7688675Е-01 0,1175 0,1647 0,2173 0,2738 0,3330 0,3935 0,4539 0,5132 0,5704 0,6247 0,6754 0,7219 0,7642 0,8021 0,8356 0,8646 0,8896 0,9112 0,9292 0,9437 0,9561 0,9662 0,9737 0,9803 0,9850 0,9886 0,9920 0,9938 0,9959 0,9968 0,9979 0,9990 0,9984 0,9998
195
Продолжение приложения 3 «Распределение Накагами»
196
Усечённый нормальный
Распределения модуля многомерного вектора
x
F(x)
x
F(x)
x
F(x)
0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,9000 1,0000 1,1000 1,2000 1,3000 1,4000 1,5000 1,6000 1,7000 1,8000 1,9000 2,0000 2,1000 2,2000 2,3000 2,4000 2,5000 2,6000 2,7000 2,8000 2,9000 3,0000 3,1000 3,2000 3,3000 3,4000 3,5000 3,6000 3,7000 3,8000 3,9000
0,0000 0,7965665Е-01 0,1585 0,2358 0,3109 0,3829 0,4515 0,5161 0,5763 0,6319 0,6827 0,7287 0,7699 0,8064 0,8384 0,8664 0,8905 0,9108 0,9281 0,9426 0,9546 0,9642 0,9721 0,9786 0,9836 0,9875 0,9908 0,9930 0,9948 0,9964 0,9972 0,9981 0,9988 0,9989 0,9995 0,9994 0,9998 0,9997 1,0000 0,9998
0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,9000 1,0000 1,1000 1,2000 1,3000 1,4000 1,5000 1,6000 1,7000 1,8000 1,9000 2,0000 2,1000 2,2000 2,3000 2,4000 2,5000 2,6000 2,7000 2,8000 2,9000 3,0000 3,1000 3,2000 3,3000 3,4000 3,5000 3,6000 3,7000 3,8000 3,9000 4,0000
0,0000 0,3454 0,4730 0,5615 0,6291 0,6829 0,7269 0,7635 0,7943 0,8205 0,8429 0,8622 0,8789 0,8934 0,9059 0,9169 0,9266 0,9351 0,9425 0,9490 0,9547 0,9598 0,9643 0,9683 0,9718 0,9749 0,9777 0,9801 0,9823 0,9842 0,9860 0,9875 0,9889 0,9900 0,9911 0,9921 0,9929 0,9937 0,9944 0,9951 0,9956
0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,9000 1,0000 1,1000 1,2000 1,3000 1,4000 1,5000 1,6000 1,7000 1,8000 1,9000 2,0000 2,1000 2,2000 2,3000 2,4000 2,5000 2,6000 2,7000 2,8000 2,9000 3,0000 3,1000 3,2000 3,3000 3,4000 3,5000 3,6000
0,0000 0,7967Е-01 0,1586 0,2358 0,3109 0,3830 0,4516 0,5162 0,5764 0,6320 0,6829 0,7289 0,7700 0,8066 0,8387 0,8666 0,8906 0,9111 0,9284 0,9428 0,9547 0,9645 0,9725 0,9788 0,9838 0,9879 0,9909 0,9933 0,9952 0,9965 0,9976 0,9983 0,9989 0,9993 0,9995 0,9998 0,9999
Продолжение приложения 3 Распределение Пирсона (A=1)
Распределения модуля нормальной случайной величины
Гамма- распределение
x
F(x)
x
F(x)
x
F(x)
-2,5000 -2,3000 -2,1000 -1,9000 -1,7000 -1,5000 -1,3000 -1,1000 -0,9000 -0,7000 -0,5000 -0,3000 -1,0000 0,1000 0,3000 0,5000 0,7000 0,9000 1,1000 1,3000 1,5000 1,7000 1,9000 2,1000 2,3000 2,5000 2,7000 2,9000 3,1000 3,3000 3,5000 3,7000 3,9000 4,1000 4,3000
0,1642406Е-03 0,4325211Е-03 0,8091927Е-03 0,1686186Е-02 0,3364801Е-02 0,6141722Е-02 0,1056147Е-01 0,1776525Е-01 0,2857542Е-01 0,4446378Е-01 0,6667840Е-01 0,9671339Е-01 0,1355 0,1840 0,2419 0,3085 0,3821 0,4602 0,5398 0,6179 0,6915 0,7581 0,8160 0,8645 0,9033 0,9333 0,9555 0,9714 0,9822 0,9894 0,9939 0,9966 0,9983 0,9992 0,9996
0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,9000 1,0000 1,1000 1,2000 1,3000 1,4000 1,5000 1,6000 1,7000 1,8000 1,9000 2,0000 2,1000 2,2000 2,3000 2,4000 2,5000 2,6000 2,7000 2,8000 2,9000 3,0000 3,1000 3,2000 3,3000 3,4000 3,5000 3,6000 3,7000 3,8000 3,9000 4,0000 4,1000 4,2000 4,3000
0,4601441Е-01 0,9199205Е-01 0,1381 0,1843 0,2306 0,2768 0,3230 0,3691 0,4148 0,4598 0,5041 0,5474 0,5892 0,6296 0,6682 0,7047 0,7391 0,7711 0,8006 0,8277 0,8522 0,8743 0,8938 0,9111 0,9262 0,9392 0,9504 0,9597 0,9677 0,9743 0,9797 0,9841 0,9876 0,9906 0,9927 0,9944 0,9959 0,9967 0,9976 0,9981 0,9984 0,9994 0,9997
-1,5000 -1,4000 -1,3000 -1,2000 -1,1000 -1,0000 -0,9000 -0,8000 -0,7000 -0,6000 -0,5000 -0,4000 -0,3000 -0,2000 -0,1000 0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,9000 1,0000 1,1000 1,2000 1,3000 1,4000 1,5000 1,6000 1,7000 1,8000 1,9000 2,0000 2,1000 2,2000 2,3000 2,4000 2,5000
0,0000 0,0063 0,0138 0,0229 0,0336 0,0462 0,0608 0,0776 0,0967 0,1183 0,1424 0,1640 0,1981 0,2297 0,2635 0,2994 0,3372 0,3765 0,4170 0,4583 0,5000 0,5417 0,5830 0,6235 0,6623 0,7006 0,7365 0,7703 0,8019 0,8310 0,8576 0,8817 0,9033 0,9224 0,9392 0,9538 0,9664 0,9771 0,9862 0,9937 1,0000
197
Приложение 4 Обратные функции законов распределения Закон распределения Симпсона
Арксинуса
Коши
⎧ ⎪ ⎪⎪ ⎨ ⎪ ⎪ ⎪⎩
a ,y = 0 ( b − a )* b −
y 1 + a ,( 0 < y < ) 2 2
1− y 1 * ( b − a ), [ < y −1, β > 0 2
n −1
m
2m x «m- распределение» (Накагами)
(σ
2 x
e 3,085σ
)
+ ln x − a ,
x
+a
2 m −1
Г(m ) σ 2xm
e
−
6,9078 α 4 α
α2
x e x2 2 σ 2x
−
mx 2 σ 2x
, m ≥ 1/ 2
)α−1 e −(α−
4,1357σ x
x2 2 σ 2x
, n = 1,2,3...
)λ −2 e −(λ −1−
β 2 Г(α + 1)
( )
π 2σ 2x
[ σx
3/ 2
(
( )
n/2 2σ 2x Г
(n / 2 )
−
(
α
λ −1
)
9,5β
)
4,1σ x
e −0, 2192
n − 0,5 1 + 8n − 7
×e
11
2σ
2 x
x = e a −1,5σ m 0,25σ 4x + 1
α λ λ −1 −αx n x e , λ = , (n = 1,2,3...) Г(λ ) 2
Максвелла
Распределение модуля многомерного вектора
−
α e − αx
π 10
2σ
1
−
2 x
Экспоненциальный Пирсона
e
2 x
(ln x −a )
2
2
−
dx
) ]n −2 [
n − 0,5 1+ 8n − 7 2
]
8n − 7 − 1 ×
3,8σ x
)
2 e −1 / 2 m = 1 / 2, π σ 2x 6 m = 1, 2 e −3 / 2 σx
2,33σ x m
№
Название
f x (x )
12
Показательностепенной
x m −x e m!
(m − m
13
Эрланга
β α x α −1 −βx e , α = 1,2,3... (α − 1)!
β2 α − 1 α − 1 − α − 1 (α − 1)!
14
Гиперэкспоненциальный
F′′(x )
N
∑ α n λ n e −λ
n =1
n
x
(
m m!
N
)m+1 e −(m−
∑ α n λ2n
n =1
dx m
)
)α−2 e −(α−1−
α −1
)
Приложение 6
2
Таблица χ распределения r\p 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
0,90 0,016 0,211 0,584 1,064 1,610 2,20 2,83 3,49 4,17 4,86 5,58 6,30 7,04 7,79 8,55 9,31 10,08 10,86
0,80 0,064 0,446 1,005 1,649 2,34 3,07 3,82 4,59 5,38 6,18 6,99 7,81 8,63 9,47 10,31 11,15 12,00 12,86
0,70 0,148 0,713 1,424 2,20 3,00 3,83 4,67 5,53 6,39 7,27 8,15 9,03 9,93 10,82 11,72 12,62 13,53 14,44
0,50 0,455 1,386 2,37 3,36 4,35 5,35 6,35 7,34 8,34 9,34 10,34 11,34 12,34 13,34 14,34 15,34 16,34 17,34
0,30 1,074 2,41 3,66 4,88 6,06 7,23 8,38 9,52 10,66 11,78 12,90 14,01 15,12 16,22 17,32 18,42 19,51 20,60
0,20 1,642 3,22 4,64 5,99 7,29 8,56 9,80 11,03 12,24 13,44 14,63 15,81 16,98 18,15 19,31 20,50 21,60 22,80
0,10 2,71 4,60 6,25 7,78 9,24 10,64 12,02 13,36 14,68 15,99 17,28 18,55 19,81 21,10 22,30 23,50 24,80 26.00
Приложение7 Таблица значений коэффициента λ к критерию Колмогорова δ\Ν 0,0025 0,005 0,01 0,02 0,03 0,04 0,05
202
500 0,0559 0,1118 0,2236 0,4472 0,6708 0,8972 1,1208
1000 0,0790 0,1581 0,3162 0,6324 0,9486 1,2648 1,5810
2000 0,1118 0,2236 0,4472 0,8944 1,3416 1,7888 2,2360
5000 0,1767 0,3535 0,7071 1,4142 2,1213 2,8284 3,5355
8000 0,2236 0,4472 0,8944 1,7889 2,6833 3,5777 4,4721
10000 0,25 0,5 1 2 3 4 5
Приложение 8 Импульсные характеристики формирующих фильтров для генерирования псевдослучайных последовательностей с заданным видом корреляционных функций методом нерекурсивной фильтрации
K x (τ )
h (τ )
kα e −ατ
σ 2x e
−α τ
σ 2x e
−α τ
(1 + α τ )
kα 2 τ e − ατ
σ 2x e
−α τ
(1 − α τ )
kα e − ατ (1 − ατ )
σ 2x e
−α τ
(1 + α τ + α
σ 2x e
−α τ
σ 2x e
−α τ
σ 2x e
−α τ
K
τ /3
2 2
)
cos ω 0 τ
σx σx σx
kα 3 τ 2 e − ατ
kα e
⎛
− ατ ⎜
⎜ ⎝
cos ω 0 τ +
⎛ ⎞ α ⎜⎜ cos ω 0 τ + sin ω 0 τ ⎟⎟ ω0 ⎝ ⎠
kα α 2 + ω 02
⎛ ⎞ α ⎜⎜ cos ω 0 τ − sin ω 0 τ ⎟⎟ ω0 ⎝ ⎠
kα e
ω0 −α τ
σx
e
− ατ
α 2 + ω 02 − α ω0 sin ω 0 τ
⎛ ⎞ α ⎜⎜ cos ω 0 τ − sin ω 0 τ ⎟⎟ ω0 ⎝ ⎠
⎞ sin ω 0 τ ⎟ ⎟ ⎠
σx
1 απ 2 απ 2 απ 2 3απ 1 απ
σx
2 απ
σx
2 απ
Приложение 9 Импульсные характеристики формирующих фильтров для генерирования псевдослучайных последовательностей с заданным видом корреляционных функций методом рекурсивной фильтрации Вид модели Моделирующий Параметры алгоритма алгоритм
σ 2x e
−α τ
σ 2x e
−α τ
σ 2x e
σ 2x e
−α τ
−α τ
(1 + α τ ) cos ω 0 τ
⎛ ⎞ α ⎜⎜ cos ω 0 τ + sin ω 0 τ ⎟⎟ ω0 ⎝ ⎠
y n = a 0 x n + b1 y n −1
γ = αΔt; p = e − γ ; a 0 = 1 − p 2 ; b1 = p
y n = a 0 x n + a 1 x n −1
γ = αΔt; p = e − γ ; α 0 = p 3 (1 + γ ) − p(1 − γ ); α 1 = 1 − 4p 2 γ − p 4 ;
+ b1 y n −1 + b 2 y n − 2 y n = a 0 x n + a 1 x n −1 + b1 y n −1 + b 2 y n − 2 y n = a 0 x n + a 1 x n −1 + b1 y n −1 + b 2 y n − 2
a0 =
(α
2 1
)
± α 12 − 4α 02 / 2 ; a 1 = α 0 / α 1 ; b1 = 2p; b 2 = − p 2
(
)
γ = αΔt; γ 0 = ω 0 Δt; p = e − γ ; α 0 = p p 2 − 1 cos γ 0 ; α1 = 1 − p 4 ; a0 =
(α
2 1
)
± α 12 − 4α 02 / 2 ; a 1 = α 0 / α 1 ; b1 = 2p cos γ 0 ; b 2 = − p 2
(
)
γ = αΔt; γ 0 = ω0 Δt; p = e −γ ; α 0 = p p 2 − 1 cos γ 0 + α1 = 1 − p 4 − 4p 2
(α
α sin γ 0 cos γ 0 ; a 0 = ω0
2 1
(
)
α 1 + p 2 p sin γ 0 ; ω0
)
± α12 − 4α 02 / 2;
a 1 = α 0 / α1 ; b1 = 2p cos γ 0 ; b 2 = −p 2 σ 2x e
−α τ
⎛ ⎞ α ⎜⎜ cos ω 0 τ − sin ω 0 τ ⎟⎟ ω0 ⎝ ⎠
y n = a 0 x n + a 1 x n −1 + b1 y n −1 + b 2 y n − 2
(
)
γ = αΔt; γ 0 = ω0 Δt; p = e −γ ; α 0 = p p 2 − 1 cos γ 0 − α1 = 1 − p 4 + 4p 2
α sin γ 0 cos γ 0 ; a 0 = ω0
a 1 = α 0 / α1 ; b1 = 2p cos γ 0 ; b 2 = −p 2
(α
2 1
(
)
α 1 + p 2 p sin γ 0 ; ω0
)
± α12 − 4α 02 / 2;
Приложение 10 Обобщенные спектральные характеристики K x (τ )
№ 1
σ 2x e
−α τ
2
σ 2x e
−α τ
3
σ 2x e
4 5
6
7
0
−α τ
(1−α|τ|)
α 2
σ 2x e
−α τ
(1+α|τ|+α2τ2/3)τ
0
σ 2x
−α τ
σ 2x e
σ 2x e
−α τ
−α τ
σ 2x πα 2σ 2x πα 2σ 2x 9πα 8σ 2x 3πα
0 (1+α|τ|)
e
S x (ω э )
ωэ
Cosω0τ
(Cosω0τ+α/ω0Sinω0τ)
(Cosω0τ-α/ω0Sinω0τ)
2ω 0
ω 02
2
+α −
(
ω 02
+α
2
)
α 2 + ω 2э + ω 02 σ 2x α ⎧⎪ ⎨ π ⎪⎩ α 2 + (ω э − ω 0 ) 2 α 2 + (ω э + ω 0 ) 2
[
][
⎫⎪ ⎬ ⎪⎭
]
ω 02 − α 2
α 2 + ω 02 2σ 2x α 2 2 π ⎡ 2 ⎛ 2 2 ⎞⎟ ⎤ ⎡α 2 + ⎛⎜ ω 2 − α 2 + ω ⎞⎟ ⎤ α + ω − α − ω ⎜ ⎢ ⎥⎢ ⎥ 0 0 0 0 ⎝ ⎠ ⎦⎣ ⎝ ⎠ ⎦ ⎣
ω 02 + α 2
α 2 + ω 02 2σ 2x α 2⎤⎡ 2⎤ π ⎡ 2 ⎛ 2 2 2 ⎛ 2 2 ⎞ ⎞ α + ω + α − ω α + ω + α + ω ⎜ ⎜ ⎢ 0 0⎟ ⎥⎢ 0 0⎟ ⎥ ⎝ ⎠ ⎦ ⎝ ⎠ ⎦⎣ ⎣
№ 1 2 3 4 5
6
σ 2x 2S x (ωэ ) πα 2 πα 4 9πα 4 3πα 16 2 2 π α + ( ω э − ω 0 ) α 2 + (ω э + ω 0 ) 2 Δω′э =
[
][
(
2α α 2 + ω 2э + ω 02
(
]
ωэ +
(
)
2⎤ ⎡ 2⎤ ⎡ 2 ⎛ 2 2 2 ⎛ 2 2 ⎞ ⎞ π ⎢ α + ⎜ ω 0 + α − ω 0 ⎟ ⎥ ⎢ α + ⎜ ω 0 + α + ω0 ⎟ ⎥ ⎝ ⎠ ⎦⎣ ⎝ ⎠ ⎦ ⎣ 4 α α 2 + ω02
(
)
[
)
][
(
4α α 2 + ω 2э + ω 02
)
]
+
ω02 − α 2 + 2⎤ ⎡ 2⎤ ⎡ π⎢α 2 + ⎛⎜ ω02 − α2 − ω0 ⎞⎟ ⎥ ⎢α2 + ⎛⎜ ω02 − α 2 + ω0 ⎞⎟ ⎥ ⎠ ⎦⎣ ⎝ ⎠ ⎦ ⎝ ⎣
+
ω02 + α2 + 2⎤ ⎡ 2⎤ ⎡ 2 ⎛ 2 2 2 ⎛ 2 2 ⎞ ⎞ π⎢α + ⎜ ω0 + α − ω0 ⎟ ⎥ ⎢α + ⎜ ω0 + α + ω0 ⎟ ⎥ ⎝ ⎠ ⎦ ⎝ ⎠ ⎦⎣ ⎣
2⎤⎡ 2⎤ ⎡ π ⎢α 2 + ⎛⎜ ω 02 − α 2 − ω 0 ⎞⎟ ⎥ ⎢α 2 + ⎛⎜ ω 02 − α 2 + ω 0 ⎞⎟ ⎥ ⎠ ⎦ ⎝ ⎠ ⎦⎣ ⎝ ⎣
4α α 2 + ω 02
7
)
Продолжение приложения 10 Δω′э Δω′э = ωэ + 2 πα 2 πα 4 α 2 2 + 9π 4 3πα 16 2 π α + (ω э − ω 0 ) 2 α 2 + ( ω э + ω 0 ) 2
(
8α α2 + ω02
(
8α α2 + ω02
)
)
Приложение 11 Блок- схема автоматизированной информационной системы аппроксимативного корреляционно-спектрального анализа. Начало
Да
Блок №1 Формирование входных данных для отсчётов с РД Ввод с клавиатуры
Чтение из файла
Данные вида:
Δt 0 ; M ; x i , i = 1, M Отсчёты КФ
Моделирование СП с заданным видом КФ
РД
Нет
Блок №1-а Формирование входных данных для отсчётов с НРД Ввод с клавиатуры
Первичная стат. обработка: (нормирование, центрирование СП)
Данные вида:
M ; {x i ; Δti ( либо ti )}
i = 1, M
Оценка КФ
Отсчёты КФ
1
2
Чтение из файла
3
Моделирование СП с заданным видом КФ
Первичная стат. обработка: (нормирование, центрирование СП) Применение алгоритмов НРД
Оценка КФ
4
3
2
1
Блок №2: Идентификация КФ для отсчётов с РД Вид модели определяется самостоятельно
Конкретный вид модели (1 из 6 основных)
Да
4
Блок №2-а: Идентификация КФ для отсчётов с НРД
Анализ фазовых портретов
Вид модели определяется самостоятельно
Εидент