У'ЧЕБМОЕ
А . И -
ПОСОБИЕ
П е р о в
СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОТЕХНИЧЕСКИХ СИСТЕМ
РАДИОТЕХНИКА
УДК 6 2 1 J 7
П26 ...
121 downloads
486 Views
190MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
У'ЧЕБМОЕ
А . И -
ПОСОБИЕ
П е р о в
СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОТЕХНИЧЕСКИХ СИСТЕМ
РАДИОТЕХНИКА
УДК 6 2 1 J 7
П26
Б Б К 32. 965
Учебное
пособие
Рецензенты докт. техн. наук, профессор В.Н. Юдин; канд. техн. наук, профессор A.M. Бонч-Бруевич
Перов А.И. П26
С т а т и с т и ч е с к а я т е о р и я радиотехнических систем. Учеб. пособие вузов. - М.: Радиотехника, 2003,400 е., ил.
для
ISBN 5-93108-047-3
PaccMOipeiibi проблемы статистической теории радиосистем. Кратко изложены основы статистаческого описания событии и процессов: приведены статистические модели сигна10в. сообщений и помех, используемые в радиолокации, связи, навигации, радиоуправлении: ланы основы теории статистических решений; предстаапены рамичные типы задач синтеза опти.чальных устройств и систем, решаемые статистической теорией (обнаружение, различение, согласованная фильтрация, оценка параметров сигналов, линейная и нелинейная фильтрация, экстрапатящ1я и интерполяция информационных процессов); ихюжеиы основы оптимальной прос грансгвенно-временной обработтсн сигналов. Для студентов радиотехнических спещ1а1Ьностей ву зов: .может быть полезн аспиранта.^ и инженера.», занимающи.мся аттезо.м радиотехнически.х устройст и cucme.li.
УДК 621.37 Б Б К 32. 965
ISBN 5-93108-047-3 © Перов А. И., 2003 © Издательство "Радиотехника", 2003
ОГЛАВЛЕНИЕ Предисловие Введение Глава 1. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СОБЫТИЙ И ПРОЦЕССОВ 1.1. Понятие вероятности 1.2. Элементарные события. Случайная величина 1.3. Вероятностное описание случайных величин 1.4. Многомерные случайные величины 1.5. Условные функции распределения и плотности вероятности случайных величин 1.6. Случайные процессы 1.7. Гауссовские случайные процессы 1.8. Марковские случайные процессы 1.8.1. Марковские случайные последовательности 1.8.2. Цепи Маркова 1.8.3. Марковские процессы Глава 2. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ, СООБЩЕНИЙ И ПОМЕХ 2.1. Общие определения 2.2. Узкополосные сигналы 2.3. Статистические модели сигналов 2.4. Статистические модели сообщений 2.5. Статистические модели помех Глава 3. ОСНОВЫ ТЕОРИИ СТАТИСТИЧЕСКИХ РЕШЕНИЙ 3.1. Общие положения 3.2. Решения, функция потерь, риск 3.3. Оптамальные решения 3.4. Оптимальные решения при наличии случайных неинформативных параметров сигнала 3.5. Оптимальные решения при наличии случайных параметров сообщения Глава 4. ОБНАРУЖЕНИЕ СИГНАЛОВ 4.1. Постановка задачи обнаружения сигналов 4.2. Обнаружение детерминированного сигнала 4.2.1. Байесовское решение. Простая функция потерь 4.2.2. Байесовское решение. Обобщенная функция потерь ... 4.2.3. Небайесовское решение. Критерий Неймана—^Пирсона 4.2.4. Формула для отношения правдоподобия
9 10 13 13 14 15 22 26 27 34 41 41 43 45 51 51 54 55 63 67 70 70 71 76 79 81 83 83 84 84 86 88 3
4.2.5. Структура оптимального обнаружителя 4.2.6. Характеристики обнаружения 4.2.7. Обнаружение сигнала при коррелированной помехе ... 4.3. Обнаружение сигнала со случайными параметрами 4.3.1. Общее решение задачи обнаружения сигнала со случайными параметрами 4.3.2. Оптимальный приемник обнаружителя сигнала со случайной начальной фазой 4.3.3. Оптимальный приемник обнаружителя сигнала со случайными амплитудой и начальной фазой 4.3.4. Оптимальный приемник обнаружителя сигнала со случайными начальной фазой, амплитудой, временем запаздывания и смещением частоты 4.4. Обнаружение сигнала по дискретной выборке 4.5. Обнаружение сигнала на фоне негауссовских помех 4.5.1. Обнаружение детерминированного сигнала 4.5.2. Обнаружение сигнала со случайными параметрами .... 4.6. Обнаружение пространственно-временного сигнала 4.6.1. Отношение правдоподобия для пространственновременного сигнала 4.6.2. Оптимальный алгоритм обнаружения пространственно-временного сигнала Глава 5. ОПТИМАЛЬНАЯ СОГЛАСОВАННАЯ ФИЛЬТРАЦИЯ СИГНАЛОВ 5.1. Общие положения теории согласованной фильтравд1и сигналов 5.2. Согласованные фильтры для некоторых типов сигналов 5.2.1. Согласованный фильтр для когерентной пачки радиоимпульсов 5.2.2. Согласованный фильтр для когерентной пачки радиоимпульсов с фазовой манипуляцией Глава 6. РАЗЛИЧЕНИЕ СИГНАЛОВ 6.1. Различение двух детерминированных сигналов 6.2. Различение двух квазидетерминированных сигналов 6.3. Различение т детерминированных сигналов Глава 7. ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА 7.1. Постановка задачи оценки параметров сигнала 7.2. Общее решение задачи оптимального оценивания параметров сигнала на основе теории статистических решений 7.3. Оценки максимального правдоподобия 4
92 94 97 102 102 104 107 110 113 119 119 121 123 124 126 134 134 137 137 140 144 144 150 152 158 158 159 160
7.4. Свойства оценок максимального правдоподобия 7.4.1. Несмещенность 7.4.2. Эффективность 7.4.3. Достаточность 7.5. Свойства оценок случайных параметров 7.5.1. Смещенность оценок случайного параметра 7.5.2. Граница Рао—^Крамера для оценки случайного параметра 7.6. Оценка параметров сигнала, принимающих дискретные значения 7.6.1. Байесовское решение 7.6.2. Небайесовское решение. Оценки максимального правдоподобия 7.7. Оценка параметров сигнала с непрерывной областью значений 7.7.1. Прямые методы решения задач оценки параметров сигнала 7.7.2. Оценка параметров сигнала с помощью дискриминаторов 7.8. Потенциальная точность оценок параметров сигнала 7.9. Оценка параметров сигнала по наблюдениям дискретной выборки 7.10. Оценка информативных параметров сигнала при наличии случайных неинформативных параметров 7.10.1. Оценка параметров сигнала со случайной начальной фазой 7.10.2. Оценка параметров сигнала со случайными амплитудой и начальной фазой 7.11. Оценка параметров сигнала, наблюдаемого на фоне коррелированного шума Глава 8. РАЗРЕШЕНИЕ СИГНАЛОВ 8.1. «Разрешение - обнаружение» сигналов 8.2. «Разрешение - измерение» сигналов 8.3. Функция неопределенности сигнала по задержке и частоте .. Глава 9. ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ 9.1. Уравнение для апостериорной плотности вероятности непрерывных процессов 9.2. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов
162 162 162 167 168 168 168 173 173 177 177 177 182 184 195 197 197 200 201 204 204 206 209 216 218 223
9.3. Рекуррентаое уравнение для апостериорной плотности вероятности дискретных процессов при наличии случайных неинформативных параметров сигнала 9.4. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов при наличии случайных неинформативных параметров сигнала 9.5. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов, зависящих от случайных параметров 9.6. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов, зависящих от случайных параметров Глава 10. ОПТИМАЛЬНАЯ ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ 10.1. Оптимальная линейная фильтрация непрерывных процессов 10.1.1. Общие уравнения оптимальной линейной фильтрации 10.1.2. Некоторые обобщения алгоритмов оптимальной линейной фильтрации 10.1.3. Использование теории оптимальной линейной фильтрации для синтеза сглаживающих цепей следящих измерителей 10.1.4. Примеры синтеза оптимальных линейных систем фильтрации 10.1.5. Оптимальный фильтр Винера 10.2. Оптимальная линейная фильтрация дискретных процессов 10.2.1. Рекуррентные алгоритмы оптимальной дискретной линейной фильтрации 10.2.2. Пример синтеза оптимальной дискретной системы фильтрации 10.2.3. Некоторые обобщения алгоритмов оптимальной дискретной линейной фильтрации 10.2.4. Дискретный фильтр Винера 10.3. Оптимальная комбинированная калмановско-винеровская фильтрация 10.3.1. Непрерывно-дискретная калмановско-винеровская фильтрация 10.3.2. Дискретная калмановско-винеровская фильтрация ... 10.4. Оптимальная линейная экстраполяция и интерполяция 10.4.1. Оптимальная линейная экстраполяция 10.4.2. Оптимальное линейное интерполяция
225
227 229 232 236 236 236 241 242 245 249 257 257 264 266 268 270 271 275 278 278 280
10.5. Оптимальная линейная фильтрация при коррелированных шумах наблюдения Глава 11. ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ 11.1. Уравнения оптимальной нелинейной фильтрации в гауссовском приближении 11.2. Дискриминатор и фильтр в оптимальной системе фильтрации 11.3. Уравнения дискретной нелинейной фильтрации в гауссовском приближении 11.4. Оптимальная непрерывно-дискретная фильтрация и дискретная фильтрация с оптимальным накоплением И .4.1. Оптимальная непрерывно-дискретная фильтрация ... 11.4.2. Дискретная фильтрация с оптимальным накоплением 11.5. Оптимальная нелинейная фильтрация при случайных неинформативных параметрах сигнала 11.5.1. Общие алгоритмы оптимальной фильтрации в гауссовском приближении 11.5.2. Оптимальная фильтрация информационных процессов, переносимых сигналом со случайной начальной фазой 11.5.3. Оптимальная фильтрация информационных процессов, переносимых сигналом со случайными начальной фазой и амплитудой 11.5.4. Оптимальная фильтрация при переменных неинформативных параметрах сигнала 11.6. Оптимальная фильтрация информационных процессов в присутствии дополнительных узкополосных помех 11.7. Оптимальная фильтрация при негауссовских помехах Глава 12. ОПТИМАЛЬНАЯ КОМПЛЕКСНАЯ ФИЛЬТРАЦИЯ 12.1. Радиолокационный двухдиапазонный комплексный измеритель дальности 12.2. Комплексный измеритель дальности и радиальной скорости 12.3. Модифицированный вариант комплексирования Глава 13. АДАПТИВНАЯ ФИЛЬТРАЦИЯ СООБЩЕНИЙ ... 13.1. Постановка задачи адаптивной фильтрации 13.2. Показатели качества адаптивных систем фильтрации 13.3. Общее решение задачи адаптивной фильтрации 13.4. Многоканальные адаптивные системы фильтрации
286
292 292 298 306 309 309 315 317 317 319 322 325 328 330 333 333 338 344 350 350 352 358 361
13.5. Алгоритмы скользящей адаптации 13.5.1. Общее решение задачи по методу скользящей адатадии 13.5.2. Алгоритм скользящего адаптивного приема в непрерывном времени 13.5.3. Понятие контура адапташ1и 13.5.4. Алгоритм скользящего адаптивного приема в дискретном времени Глава 14. ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ПРИ ПРИЕМЕ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ СИГНАЛОВ 14.1. Оптимальная фильтращм при приеме пространственновременного сигнала на фоне внутренних шумов 14.1.1. Оптимальная фильтрация при известном направлении на источник сигнала 14.1.2. Оптимальная фильтрация при неизвестном направлении на источник сигнала 14.2. Оптимальная фильтрация при наличии пространственнораспределенных помех Литература
3 68 368 370 375 376 380 380 380 384 389 398
ПРЕДИСЛОВИЕ Предлагаемая вниманию читателя книга является учебным пособием по курсу «Статистическая теория радиотехнических систем». Этот курс, в соответствии с Государственным образовательным стандартом высшего профессионального образования (2000 г.) по направлению подготовки дипломированного специалиста 654200, «Радиотехника», входит в раздел «Специальные дисциплины» (СД), СП.01 - 200700 «Радиотехника», курс СД.05, объемом 100 часов. В предыдущих стандартах образования данного курса не было, а отдельные его разделы входили в различные курсы: «Радиоавтоматика», «Радиотехнические системы», «Радиолокация», «Радиоуправление» и др. При работе над книгой автор опирался на опыт чтения лекций на радиотехническом факультете Московского энергетического института (технического факультета). Учебник включает 14 глав, каждая из которых посвящена отдельной проблеме в общей статистической теории радиосистем. В первой главе дается краткое изложение основ статистического описания событий и процессов. Если читатель хорошо знаком с теорией вероятностей и теорией случайных процессов, то данная глава при изучении может быть опущена. Во второй главе приводятся статистические модели сигналов, сообщений и помех, которые часто используются в радиотехнических приложениях: радиолокации, связи, навигации, радиоуправлении. Третья глава посвящена основам теории статистических решений, которая является методологической базой, четко определяющей понятие оптимальности принимаемых решений (алгоритмов обработки). В последующих десяти главах рассматриваются основные типы задач, решаемые статистической теорией радиосистем: обнаружение, различение, разрешение, согласованная фильтрация, оценка параметров сигналов, фильтрация информационных процессов. Порядок изложения материала данных глав принят таким, чтобы последующий материал мог использовать те или иные положения и формулы, полученные в предшествующем материале. В то же время, данные главы написаны достаточно «автономно», что допускает их изучение в произвольном порядке, используя ряд необходимых формул как справочный материал. Автор надеется, что данное пособие окажется полезным не только студентам радиотехнических специальностей вузов, но и аспирантам и инженерам, занимающихся вопросами синтеза радиотехнических устройств и систем.
ВВЕДЕНИЕ Радиотехнические системы (РТС) являются информационными системами, осуществляющими передачу, прием и обработку информации в интересах потребителя с использованием радиосигнала в качестве переносчика. Отличительной особенностью условий функционирования РТС является наличие радиоканала, под которым понимают совокупность источника радиосигнала, среды его распространения и приемника. Основное тре^вание, предъявляемое к радиосистеме, состоит в достоверном и своевременном получении необходимой информации потребителем. Однако достоверному приему и извлечению информации мешают реальные физические свойства приемопередающих устройств и среды распространения сигнал, суть которых заключается, во-первых, в случайных изменениях их параметров, а, во-вторых, в возникновении помех, тоже имеющих случайную природу. Действительно, при распространении радиосигнала через турбулентную атмосферу и ионосферу, обладающих случайными коэффициентами поглощения и преломления, происходит случайная модуляция радиосигнала по амплитуде, частоте и фазе. Внешние естественные помехи создаются различными электромагнитными процессами, происходящими в атмосфере, ионосфере и космическом пространстве, которые также имеют случайный характер. В приемных устройствах возникают случайные процессы (шумы), обусловленные тепловым хаотическим движением электронов и т.д. Таким образом, задача приема и извлечения информации в РТС решается в условиях искажений сигнала и информации случайного характера. Очевидно, что такие искажения снижают достоверность извлекаемой информации, а, следовательно, надо принимать меры по ослаблению влияния данных факторов, т.е., по сути, решать задачу оптимизации РТС. Математическим аппаратом, позволяющим оперировать случайными величинами и случайными процессами, является теория вероятностей и математическая статистика. На возможность и целесообразность использования статистических методов в радиотехнике одними из первых указали работы А.Н. Колмогорова (1939 г.) и Н. Винера (1942 г.) по синтезу оптимальных линейных систем фильтрации [2, 17]. Фундаментальной работой, посвященной систематическому применению методов математической статистики в задачах радиосвязи, является теория потенциальной помехоустойчивости В.А. Котельникова (1946 г.). За прошедшие более чем 60 лет статистические методы настолько прочно вошли в теорию РТС, что ни одна новая разработка не начинается без детального анализа функционирования проектируемой системы в условиях влияния случайных процессов и синтеза отдельных устройств и под10
систем статистическими методами. Все наиболее совершенные радиосистемы, такие, например, как системы мобильной связи, спутниковой радионавигации, спутникового телевидения, дистанционного зондирования Земли и планет, базируются на рекомендациях и выводах, полученных в статистической теории РТС. Задачи анализа радиотехнических устройств и систем, подверженных случайным воздействиям, рассматриваются в курсах «Радиотехнические цепи и сигналы», «Радиоавтоматика» и др. В настоящем курсе основное внимание уделяется методам статистического синтеза оптимальных, т.е. в том или ином смысле наилучших, систем. Конечно, после синтеза оптимальной системы естественно встает вопрос об анализе характеристик полученной системы. Другими словами, синтез не исключает необходимости анализа. Однако для проведения анализа в учебнике не рассматриваются какие-либо новые методы, а используются уже известные. Задачи синтеза РТС классифицируются не по типу радиосистем (радиолокационные, радионавигационные, радиоуправления или радиосвязи), а по смыслу решаемой задачи: обнаружение, распознавание, разрешение, оценка параметров сигнала и т.д. Такой подход позволяет дать решение соответствующей задачи с единых теоретических позиций, а особенности ее применения в той или иной РТС (характер априорных данных, статистика распределений, тип сигнала и др.) иллюстрируются на примерах. Итогом синтеза РТС и конечной его целью являются: оптимальный алгоритм обработки принимаемых сигналов в РТС; структура оптимальной РТС, реализующая синтезированный алгоритм; количественная оценка качества работы РТС. Все задачи синтеза РТС рассматриваются с единых позиций, основанных на рассмотрении апостериорных плотностей вероятности информационных процессов и байесовской методологии, предусматривающей использование априорных сведений о сигналах, помехах и информационных процессах. Если априорных сведений для решения задачи статистического синтеза оказывается недостаточно, то используется методология параметрической априорной неопределенности, также допускающая рассмотрение апостериорных плотностей вероятности, но в другом пространстве состояний. В рамках такого подхода естественным образом возникают адаптивные РТС, которые в процессе работы приспосабливаются к параметрической априорной неопределенности условий работы. Для достижения наилучших характеристик РТС в условиях априорной неопределенности адаптивные системы являются более 11
предпочтительными перед другими, такими, например, как инвариантные или робастные системы. Для решения отдельных задач (например оценки постоянных параметров сигнала) рассматриваются небайесовские методы (например, метод максимального правдоподобия), которые хорошо зарекомендовали себя на практике. В учебнике рассматриваются задачи синтеза РТС как в непрерывном, так и в дискретном времени. Последние приобретают все большее значение в связи с бурным развитием вычислительных средств, позволяющих в реальном времени реализовывать сложные оптимальные алгоритмы обработки сигналов. Так, например, в цифровых приемниках спутниковых радионавигационных систем (ГЛОНАСС, GPS) обрабатываются сигналы 12 спутников и реализуются оптимальные корреляционные алгоритмы, алгоритмы поиска, обнаружения и слежения за фазой, частотой и задержкой сигнала. Различным аспектам проблем статистического синтеза РТС посвящена обширная литература (статьи, монографии, научные доклады на конференциях и симпозиумах) как отечественная, так и зарубежная, и число публикаций постоянно растет. Поэтому в списке литературы к учебнику даны лишь основные (по мнению автора) отечественные работы, в которых отдельные вопросы синтеза рассматриваются более подробно, чем в учебнике, и с которыми будет целесообразно ознакомиться особо заинтересовавшемуся читателю.
12
Глава
1
СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СОБЫТИЙ И ПРОЦЕССОВ 1.1. Понятие вероятности Результаты многих физических измерений, опытов, наблюдений меняются (возможно, незначительно) от одного сеанса их проведения к другому. В этих случаях говорят о том, что интересующее нас событие (результат) является случайным. При этом подразумевается, что оно в принципе может быть осуществимо неограниченное число раз. Для математического описания случайных событий вводят понятие вероятности. Пусть некоторое случайное событие А може: принимать конечное число исходов Ai,A2,...,A„ . Практическое понятие вероятности заключается в том, что относительная частота того или иного исхода случайного события в каждой последовательности независимых повторных испытаний приближается к соответствующей вероятности. Таким образом, если имеется JV результатов экспериментов, среди которых событие А = Aj наступило л^ («) раз, то вероятность такого события определяется как Р{А = 4 ) = "А ( 0 / ^ • в строгой математической теории вероятностями называют значения некоторой действительной функции Р{А), определенной на множестве (классе) некоторых событий Ае А, которые представляют собой результаты испытаний (опыта или наблюдения). Вероятности (т.е. функцию Р(А)) вводят посредством определенных аксиом. Пусть имеем множество событий А , которое обладает следующими свойствами: если Ае А и 5 е А , т о данному множеству событий принадлежат также события АВ — произведение событий, заключающееся в наступлении обоих событий А и В , (А+В) — сумма событий, под которой понимаю событие, состоящее в наступлении хотя бы одного из событий А и В А-В) — разность событий, т.е. событие, состоящее в том, что А происходит, а 5 не происходит; множество А содержит достоверное / и недостоверное О события. Вероятностью Р{А) события А называется определенная на А однозначная действительная функция, удовлетворяющая трем аксиомам: 13
А к с и о м а ! . Р(А)>0
для любого Ае А,
А к с и о м а 2. Р{1) = 1 для достоверного события А = 1, А к с и о м а 3.
U
и....) =
для любой по-
следовательности попарно несовместных событий Ai,A2 Из аксиом 1—следует, что 0 < Р ( . 4 ) < 1 . Если А = 0 — невозможное событие, то Р(0) = О . Дополнительно к трем основным аксиомам вводится четвертая, которая связывает «абсолютную» вероятность Р ( А ) , относящуюся к данному испытанию, и условную вероятность Р(^А bJ, относящуюся к испытанию, ограниченному дополнительным условием осуществления события 3 . Условная вероятность
определяется следующей
аксиомой. А к с и о м а 4. Вероятность совмещения событий АпВ Р(АПВ) = Р(В)Р(Х\В}.
равна (1.1)
Формулу (1.1) иногда называют правилом умножения вероятностей. Если /'(J9) = О, то вероятность Р[Аг\В) не определена. Два события А и В называются независимыми (по вероятности), если Р{АпВ)^Р{А)Р{В). 1.2. Элементарные события. Случайная величина Каждое множество событий А = множество G = ^Xj
} может быть представлено как
попарно несовместных событий X j
, так что
каждое событие Aj есть объединение некоторого подмножества событий Xj е Xj из G . Тогда Xj называется элементарныл1 событием, а G = X y j — множеством элементарных событий (или пространством выборок). Каждое множество X^t элементарных событий из G соответствует некоторому событию Af^ из множества А . В частности, само G соответствует достоверному событию, а пустое множество из G — невозможному событию. 14
Пусть Ai,A2,...,A„ — последовательность попарно несовместных событий, образующих полную группу, т.е. Ai KJA2
= I. Тогда
из (1.1) для каждой пары событий Д , В имеет место формула Байеса
^^
^
р{в)
~Ър{А)р{в\а^-
Случайная величина (СВ) есть любая переменная х, значения которой X образуют множество элементарных событий, или, другими словами, обозначают точки в пространстве выборок. В дальнейшем будем полагать, что все рассматриваемые случайные величины заданы на интервале (— 1.3. Вероятностное описание случайных величии Если СВ X принимает конечное (или счетное) число значений {д:,}, I = l,iV, то она называется дискретной, и ее вероятностное описание задается
соответствующими
вероятностями
{Pj = Р{Х = Xi)],
i = l,N, совокупность которых называют законом распределения вероN
ятностей. Очевидно, что X ^ = ^ • 1=1 Если область возможных значений СВ непрерывна, то говорят о непрерывной СВ, для которой аналогом закона распределения вероятностей является функция распределения F^ (jc) = F [х) = Р{Х < х). Другим определением непрерывной СВ может быть следующее: действительная случайная величина X называется непрерывной, если ее функция распределения -F(jc) непрерывна по х и имеет кусочнонепрерывную производную, которая называется плотностью распределения вероятностей случайной величины (кратко — плотностью вероятности (ПВ)) р{Х = х)= lim Дх-^О
Р(хг) О — произвольное положительное число. Таким образом, дисперсия характеризует меру рассеяния (разброса) значений СВ относительно математического ожидания. Примеры распределений и плотностей вероятностей случайных величин. П р и м е р ! . Равномерное распределение (рис. 1.1): p{x) = \l{b-a),x^{a,b).
(1.4)
Среднее значение, второй момент и дисперсия равномерного распределения равны тх=М[х]
= ^{а + Ь),
М Dy=M
Рис. 1.1. График ПВ равномерного распределения
Равномерное распределение используется в радиотехнике, например, для описания случайной фазы сигнала, принимающей значения на интервале [-rt,7c]. Пример
2. Нормальное (гауссовское) распределение (рис. 1.2) ч2 (х-тх) 1I I Y — т гехр 2Dx
где т х = Л/ [х] — среднее значение; Dx — дисперсия. Момент 2-го порядка определяется выражением
МГУ с БИБЛ&ЮТЕКА
УК
м
=
Dx+m/
Гауссовское распределение широко используется в радиотехнике, например, для описания флуктуационных явлений в аппаратуре. П р и м е р 3. Хи-квадрат распределение {рж. 1.3). Рис. 1.2. График ПВ нормального распределения
Пусть Xj, i = \,n — совокупность независимых гауссовских случайных величин, имеющих нулевые МО и одинаковые дисперсии а^ . Рассмотрим случайную величину (1.5)
Y=lXf. /=1
Распределение случайной величины Y называют хи-квадрат распределением с п степенями свободы. Плотность вероятности такого распределения описывается формулой Р{У) =
^ (\ —п 2
где Г(д') —гамма-функция, определяемая как при g > 0 ,
о
(1.6)
Г(9) = ( ^ - 1 ) !,при q>0 и 9 - целое число. Например: Г
ГП
2 2 W/ На рис. 1.3 приведены графики ПВ хи-квадрат распределения для некоторых значений я при о = 1. Случай, когда /1=2, определяет экспоненциальное распределение. Первые два начальных момента и дисперсия хи-квадрат распределения соответственно равны 18
М
Если случайные величины Xi, i = \,n имеют ненулевые математические 15 У ожидания т ^ , то распределение случайной величины Рис. 1.3. График ПВ хи-квадрат распределения Y, определяемой (1.13), называется нецентральным хи-квадрат распределением, а соответствующая ПВ имеет вид р{у)-
1
ch
yjlnya
где ch(z) = ^e^+e
, >'>0,
(1.7)
—гиперболический косинус.
Первые два начальных момента и дисперсия ПВ (1.7) равны ту =М [У] = пст^ + птх, М Y^ = Ino^ + Ао^пшх + Dy =
+ '""Х f»
+4с^птх •
Хи-квадрат распределение с двумя степенями свободы описывает, например, распределение квадрата огибающей (или мощности) радиосигнала. П р и м е р 4. Рэлеевское распределение (рис. 1.4) Рассмотрим частный случай (1.5), а именно Y = х1 +Х2, где ЛГ, , г = 1,2 — независимые гауссовские случайные величины, имеющие нулевые МО и одинаковые дисперсии а ^ . Определим новую случайную величину Z=
y/Y=ylxf+^
•
(1-8)
Данная случайная величина имеет рэлеевское распределение с ПВ 19
,
(1.9)
z>0.
На рис. 1.4 приведен график рэлеевской ГШ при а = 1. Первые моменты и дисперсия рэлеевской ПВ равны т2
(1.10)
М Dz={2-n/2)a\ Рис. 1.4. График ПВ рэлеевского распределения
В общем случае рассматривается СВ Z = ylY, где СВ Y определена в соответствии с (1.5). При этом ПВ СВ Z определяется выражением =
2{«-2)/V ;
—п 2
..О,
Для момента к -го порядка данной ПВ (1 ^ —и 2
М а дисперсия распределения Dz =М
-ml.
П р и м е р 5. Распределение Райса (рис. 1.5) Данное распределение является обобщением рэлеевского распределения на случай, когда случайные величины Л",-, / = 1,2 в (1.5) имеют ненулевые математические ожидания т х . , в общем случае неравные. Плотность вероятности для распределения Райса определяется в виде
20
ZS о"
s^
Z>0,
(1.11)
где /o(v) — модифицированная функция Бесселя нулевого порядка, которую можно представить рядом
v>0. На рис. 1.5 приведены ПВ распределения Райса при а = 1 и s = l;4. Распределение Райса можно обобщить, если СВ Y определяется в соответствии с (1.5), а СВ Z = л/у . Плотность вероятности в этом случае определяется соотношением
г Рис. 1.5. Графики ПВ распределения Райса
ZS /=1
где / а (v) — модифицированная функция Бесселя порядка а , которая представляется рядом ча+2»
Распределения Рэлея и Райса часто используют для описания амплитудных флуктуаций радиосигнала, в том числе в многолучевых каналах распространения радиосигнала. Преобразование случайных величии и их плотностей вероятностей. При рассмотрении примеров различных распределений и соответствующих им ПВ уже использовались функциональные преобразования СВ, например (1.5), (1.7). Рассмотрим общий случай. Пусть СВ X с заданной плотностью вероятности рх (д:) подвергается функцио-
21
нальному преобразованию Y = f ( Z ) , где / ( * ) — однозначная детерминированная функция. Найдем ПВ ру (;>) СВ Y. Поскольку преобразование СВ детерминированное и однозначное, то из того факта, что значение СВ X заключено в интервале {x,x + dx\, следует,
что
значение
f{x),f[x-¥dx)
+
СВ
Y где
будет
находится
в
интервале
= / ' ( j c ) d r . Положим, что сущест-
вует однозначная функция h{*) = / " ' ( * ) . Тогда можно утверждать, что вероятности указанных двух событий равны. Поэтому запишем Pr{y)dy
= Px{x)dx
или PY (у) - Рх {x)\dxldy\ = Рх
•
(1-12)
Если функция А (*) = / " ' ( * ) — неоднозначная (например, двузначная), тогда одному значению у
соответствует два значения
JC] = /!] (j) и X2=h2 (у) • При этом выполнению события y')!+ РХ {h2 (>'))И (З')! •
•
Обобщение на более сложные случаи (многозначные функции h (*) =
(*)) проводится аналогично.
1.4. Многомерные случайные величины Пусть имеется совокупность случайных величин Xj, i = l,n . Если нас интересует вся совокупность в целом, то удобно ввести понятие векторной случайной величины Х = {Хх,Х2 -^л}- По аналогии с обычной СВ, векторная случайная величина (ВСВ) описывается вероят22
ностями
= Р ( Х = X,)}, i = \,N, если множество возможных значе-
ний всех СВ Xj конечно (или счетно), или функцией распределения FX(x) = F ( x ) = F ( ^ I < j : , , ^ 2 < ^ 2 . -
(1.16)
если множество возможных значений СВ непрерывно. В первом случае говорят о дискретной векторной СВ, а во втором — о непрерывной ВСВ. Для непрерывной ВСВ вводится ГШ Ах] ...Ах„
Дх,-»0
Эх1 ...дх„
Дг2->0
Дг„-»0 (1.17) функция распределения (1.16) обладает следующими свойствами: 1) Fx (х) О, когда хотя бы одна из компонент вектора х стремиться к -оо и Fx (х)
1, когда все компоненты вектора х стремятся
к +00; 2)
Fx (х) — неубывающая и непрерывная слева функция по каж-
дой из компонент вектора х ; Плотность вероятности (1.17) удовлетворяет следующим условиям: 1) / ' W S O ; ов
во
2) I ... j p{xi,...,x„)dxi...dx„=l
;
—оо —ее
3) p{xi,...,x„)
симметрична относительно любых перестановок ар-
гументов Xj; 4) при любом т =
•••>y„,t„) =
... ,x„,t„)p{^yx,t\; ...;y„,i„\xx,ti; ...
(1.31) 29
Для независимых СП (1.31) переходит в (1.30). Наряду с ПВ, для описания случайного процесса могут быть использованы характеристические функции (1.19). Стационарные и нестационарные процессы. Случайный процесс называется стационарным в узком (строгом) смыане, если все конечномерные функции распределения вероятностей (и плотности вероятности) любого порядка инвариантны относительно сдвига по времени, т.е. p{xi,tx-to;x2,t2-to-,
...
p{x],ii;x2,t2'^
При решении ряда технических задач многомерные ПВ не рассматривают, а оперируют только МО и корреляционными функциями (корреляционная теория). В связи с этим вводят понятие стационарности в широком смысле. Случайный процесс с конечной дисперсией называется стационарным в широко.» смысле, если его МО и корреляционная функция инвариантны относительно сдвига по оси времени. Из этого определения следует, что для таких процессов const,
=
Два стационарных случайных процесса X{t)
и У (г) называются
стационарно связанными в широком смысле, если их взаимная корреляционная функция инвариантна относительно сдвига по времени RxY{h,t2) = M[X{ti)Y{t2j =
= =
(1-32)
Заметим, что, если каждый из процессов X ( t ) и У(/) является стационарным в широком смысле, то это вовсе не означает, что они являются стационарно связанными в широком смысле. Корреляционная функция случайного процесса. Ввиду важности корреляционных функций (КФ) стационарных процессов при исследовании радиотехнических систем, приведем некоторые их свойства. 1. Абсолютное значение КФ при любом х = /2 ~ значения при т = О, т.е. Rx (х) < Rx (0) = Dx • 30
превышает ее
2. Корреляционная функция вещественного стационарного процесса X(t) является четной функцией своего аргумента, т.е. 3. Взаимная КФ двух вещественных СП свойством: Rxy (f) = Ryx
и У(г) обладает
•
4. Если КФ непрерывна при t = О, то она непрерывна при всех других значениях х. 5. Для многих стационарных СП выполняется условие lim % ( т ) = 0. 6. Преобразование Фурье от КФ есть неотрицательная функция, которую принято называть спектральной плотностью случайного процесса
—оо
Обратное преобразование Фурье от спектральной плотности СП дает корреляционную функцию =
(1.34) —оо
На практике бывает удобно пользоваться нормированной КФ
которая при т = О принимает значение гх (0) = 1 • Для упрощенного описания нормированной КФ часто указывают лишь интервал х^ , при котором два значения СП X [ t ) и Д'(/±Тк) в среднем имеют заметную корреляцию. В качестве определения т^ можно принять fx
= О
Геометрически х^ равно основанию прямоугольника с высотой 1, имеющего ту же площадь, что и площадь между кривой гх (х) и осью абсцисс. 31
Спектральная плотность случайного процесса. Спектральная плотность СП определяется в соответствии с (1.33) как преобразование Фурье от КФ. Полагая в (1.34) t = О, получаем Rx{0) = Dx = ] Sx{i0)df,
(1.36)
—oe
где (О = 2it/. Следовательно, дисперсия стационарного СП равна интегралу от спектральной плотности. Так как корреляционная функция СП четная относительно аргумента т , то из (1,33) следует, что спектральная плотность (to) — четная функция относительно своего аргумента. Из определений (1.33), (1.34) и свойства четности функций Rx (х) и Sx (ftj) следует оо
5^((o)= I
(x)(cos((OT)-jsin((OT))i/T =
—«в оо
оо
= J %(т)СО8(ОЭТ)Л = 2|Лд'(Т)СО8(ШТ)^/Т,
о
Rx
=
(27^)cos(27i/t)rf/ .
(1.37) (1.38)
О
Спектральная плотность 5х{>) определена на положительных и отрицательных частотах, т.е. является некоторой «математической» конструкцией. В отличие от такого двустороннего спектра введем одностороннюю («физическую») спектральную плотность N x (to) = = 25^- (со). При этом выражения (1.37), (1.38) принимают вид iV^-(«)) = 4j/?;f(T)cos(2rt/T)jT,
о
Rx
/SO,
^ I n x (/)cos(27c/T)rf/, / > о.
о
(1.39)
в радиотехнике «протяженность» спектральной плотности по оси частот часто характеризуют термином ширина спектра или эффективная ширина спектра. Ширину спектра Д/ можно определять поразному, например, 32
\Sx{2irf)df A/•=-^
,
Sxi-^^o) где /о —некоторая характерная частота. Иногда в качестве ДГ выбирают ширину Д/"о 5 спектральной плотности на уровне 0,5Nx ( / 0 ) • По параметру «ширина спектра» среди всех СП выделяют узкоподосные. Узкополосным называется СП, спектральная плотность которого сконцентрирована в узкой полосе частот А/" около частоты /о » А/". Если данное условие не выполняется, то процесс не является узкополосным. Рассмотрим СП, спектральная плотность которого приведена на рис. 1.6 и рассчитаем Рис. 1.6. Спектральная плотность СП КФ такого СП Л(т) = J JV(/)cos(27t/T)rf/ =
=
О
M / t
smiiiMx)
,
,
где Dx = Л^оА/^ — дисперсия (мощность) СП (1.36). Эргодические и неэргодические стационарные процессы. Для некоторых стационарных процессов рассмотренные выше статистические характеристики (МО, моментные функции, КФ и др.), полученные в результате усреднения по большому числу реализаций, могут быть найдены путем усреднения соответствующих величин по одной реализации большой длительности. Стационарные случайные процессы, для которых это обстоятельство справедливо, называют эргодическими: I г
=
J г
2
J i m l i m - J C j c C O - m A - ) 1 ^
Rx ( t ) =\M-j{x{t T^I Q
2—2041
+
T)-mx){x{t)-mx)dt. 33
1.7. Гауссовские случайные процессы Как отмечалось выше, для вероятностного описания СП необходимо использовать совокупность соответствующих ПВ. Рассмотрим случайную последовательность
/ = 1,2,..., развивающуюся во вре-
мени. В момент времени t\ имеем СВ
для вероятностного опи-
сания которой необходимо задать ПВ /'(jCb^i). В момент времени t j для описания всего СП, т.е. совокупности СВ задавать совокупность трех ПВ— /'(^b^i).
X{t2), следует )•
В следующий момент времени t^ полное вероятностное описание задается системой ПВ p{xi,ti),
p{x2,t2),
p{xi,ti;x2,t2 ),
) . p{x2>hix3,t3 ) , p{xi,ti-,x2,t2-,x;i,t^ ) . Для последующих моментов времени вероятностное описание СП будет все более и более сложным. На практике использовать такую математическую конструкция неудобно. Поэтому целесообразно найти СП, для вероятностного описания которых в любой момент времени
требуется ограни-
ченное число ПВ, например, одномерной p{x^,t{)
и/или двумерной
p[x\,t^\x2,t2 ) . Простейшим примером такой СП является случайная последовательность
j = l,2,...
с независимыми значениями
X (t,), для которой можно записать p(x,,ti;x2,t2;
..•;x„,t„ ) =
л (=1
Такая СП задается совокупностью одномерных ПВ p(x, ,t, ), а для стационарной СП требуется задание одной ПВ p(x,t). Другим классом СП, для описания которых необходимо задавать ограниченное число ПВ, являются гауссовские случайные последовательности (ГСП), для которых ПВ любой конечной совокупности СВ X{ti), / = 1,2,...,л в произвольные моменты времени Ц,12,...,1„ имеет совместную гауссовскую (нормальную) ПВ . (1.40) (27c)72^det(R;,) 34
где х = \х^х2...х„\\
R^^=A/[(x-A/[X])(x-A/[X]f
— корреляци-
онная матрица, элемент которой определяется как Rij=M
(1.41)
здесь т х . =Л/
) .
Для гауссовского процесса характеристическая функция записывается в виде 4'(j0) =
е/2 (1.42)
= ехр
v=l
•^v=ln=l
Определения, приведенные для ГСП, остаются справедливыми и для гауссовского случайного процесса, поэтому в дальнейшем для простоты будут рассматриваться только ГСП. Свойства гауссовских случайных последовательностей. 1. ГСП X{tj), / = 1,2,... полностью определяется заданием МО M [ x { t i ) ] и КФ Rx{ti,tj)
(СМ.(1.40Н1-42)).
2. Для ГСП некоррелированность значений последовательности, т.е. выполнение условия Действительно,
тождественна их независимости.
рассмотрим
... ,x„,t„).
Так
как
Rx ( t j О для любых tj Ф t j , то матрица R;t- будет диагональной. Таким образом, соотношение (1.40) можно записать в виде 1 "
ехр
п
1
ехр
2,ti
А
(xi-'nxS Di
1=1
где Dj = Rjj — дисперсия СВ X j . 35
Справедливо и обратаое утверждение: если значения ГСП независимы, то они и некоррелированы. 3. Для ГСП понятие стационарности в широком и узком смысле совпадают. 4. Условные ПВ значений совместно гауссовских последовательностей X{ti) и Y{ti) или значений одной ГСП являются также гауссовскими. Это следует из формулы Р{Х\У) = Р{Х,У)1Р{У).
(1.43)
Пусть имеем два вектора: X — п -мерный, Y — т -мерный. Тогда (1.43) принимает вид p{X\Y)
= p{X,Yyp{Y).
(1.44)
5. При линейных преобразованиях ГСП свойство «гауссовости» сохраняется. Если на вход линейной системы с импульсной характеристикой h{ti^,tj) воздействует ГСП X{ti), то при выполнении надлежащих к условий интегрируемости процесс получаю/=1 щийся на выходе системы, будет также гауссовским. Справедливо и обратное утверждение: если каждый линейный функционал от X ( t / ) есть ГСП y ( ( i ) , то также является ГСП. Это важное свойство часто принимается за исходное определение гауссовской последовательности X ( t i ) . 6. При нелинейных преобразованиях свойство гауссовости утрачивается. Если ГСП X{ti) подвергается нелинейному преобразованию, например, вида
= / , А ' ) ) , где / ( • ) - нелинейная функция
относительно X , то последовательность
будет негауссовской.
Однако, если негауссовская случайная последовательность с интервалом корреляции t^ воздействует на инерционную линейную систему (с постоянной времени t g » т ^ ), то процесс на выходе такой системы приближается к гауссовскому (ПВ стремится к нормальной). Это приближение тем лучше, чем сильнее выполняется неравенство т ^ . » т^ . 7. С помощью линейного преобразования коррелированные значения ГСП можно привести к некоррелированным. Заметим, что, если корреляционная матрица Rjj- диагональная, то совместно гауссовские 36
св - некоррелированные. Поэтому линейное преобразование, в результате которого корреляционная матрица для преобразованных величин будет диагональной, приводит к совместно гауссовским некоррелированным величинам. Методика приведения матрицы к диагональной форме с помощью линейного преобразования известна. 8. Гауссовские случанйные последовательности с дробно-рациональной спектральной плотностью являются одновременно марковскими (марковские случайные порследовательности будут более подробно описаны в п. 1.8). 9. При заданной дисперсии (средней мощности) ГСП обладает максимальной энтропией, т.е. максимальной степенью неопределенности. Гауссовские случайные последовательности наиболее часто встречаются на практике, поэтому занимают особое место среди других случайных последовательностей. Большинство встречающихся на практике электрических явлений, таких, например, как дробовой шум, тепловые флюктуации, собственный шум типового радиоприемника до детектора, атмосферные и космические шумы, представляют собой суммарный эффект большого числа сравнительно слабых элементарных импульсов, возникающих в случайные моменты времени. Согласно центральной предельной теореме теории вероятностей плотность вероятности суммы СВ неограниченно приближается к нормальной с увеличением числа слагаемых, независимо от того, какие ПВ имеют отдельные слагаемые. При этом важно лишь, чтобы влияние отдельных слагаемых на сумму было равномерно малым (приблизительно одинаковым). Белый гауссовский шум. В дальнейшем будет часто использоваться идеализированный случайный процесс — белый гауссовский шум (БГШ). Приведем его определение и укажем специфические свойства. Под БГШ n{t) понимается стационарный гауссовский СП с нулевым МО и дельтаобразной корреляционной функцией: /г(т) = Л/[й(/)й(?+х)] = ^ 8 ( т ) ,
(1.45)
где Nq — односторонняя спектральная плотность. Преобразование Фурье от (1.45) дает равномерную спектральную плотность 5 „ ( / ) = Л^о/2 для всех частот - о о < / < о о . Такой процесс имеет бесконечную дисперсию (мощность), поэтому является физически нереализуемым, т.е. некоторой математической моделью. Однако такая математическая модель оказывается очень удобной и широко используется в статистической теории радиосистем. 37
Модель белого шума может быть получена из модели случайного процесса, имеющего равномерную спектральную плотность в некоторой полосе частот (рис. 1.6) и, следовательно, конечную дисперсию. Введем для спектральной плотности (рис. 1.6) /min = / о " 4 / ^ / 2 и /max = = /о + А/'/2 . Корреляционная функция для такого процесса, в соответствии с (1.39), описывается выражением fmax NQCos{2Krx)df,f>0.
(1.46)
fmin Используя представление cos(jc) = — условия
^ О, / п ^
2 о
и введя в (1.46)
оо, получаем
2
2
С другой стороны, условия о, f j j ^ оо соответствуют тому, что полосовая спектральная плотность (рис. 1.6) переходит в равномерную с физическим уровнем Щ для положительных частот / > О. Поэтому, оперируя в дальнейшем в статистической теории радиосистем с белым шумом, определенным в соответствии с (1.45) и имеющим равномерную двустороннюю спектральную плотность Nq/2, необходимо помнить, что Nq — уровень спектральной плотности физического шума, определенного лишь для положительных частот. Наряду с БГШ, определенным как случайный процесс, можно рассматривать белую гауссовскую последовательность, которую часто называют дискретным белым гауссовским шумом (ДБГШ). Последний термин, строго говоря, противоречит определениям, данным в п. 1.7, где термин «дискретный» характеризует тот факт, что СП в каждый фиксированный момент времени может принимать лишь конечное (счетное) число значений. Когда говорят о ДБГШ, то имеют в виду, что дискретны моменты времени, а значения процесса в каждый момент времени принимают значения в некоторой непрерывной области. Тем не менее, в учебной и научной литературе термин «дискретный белый гауссовский шум» устоялся, поэтому в дальнейшем он и будет использоваться. Для ДБГШ КФ задается в виде R,j=M 38
fl, i = j, _2 . где % = •{[О, J,
дисперсия процесса.
Мгновенные значения ДБГШ, т.е. случайные величины п {ti), имеют гауссовскую ГШ
2а2
(1.47)
Дискретный белый гауссовский шум п (/,•) может быть получен из непрерывного и (О с помощью его усреднения на интервале Т =
Очевидно, что среднее значение СВ п {tj) равно нулю, а дисперсия ]
M[n{t)n{s)\dtds=^.
(1.48)
ti-x U-\
Возможен и обратный переход от дискретного времени к непрерывному при Г О. Однако здесь возникает некоторая сложность с представлением (1.47), так как в этом случае . Для преодоления этой трудности для непрерывного БГШ определяют не ПВ мгновенного значения процесса, а ПВ отрезка реализации, например длительностью Т^, т.е. p{n{t)) = p\ri{s),sB
t,t + T^ j . Тогда, записав совместную (гаус-
совскую) ПВ p{xx,tx-,xx,t2-,...-,x„,t„) для совокупности дискретных отсчетов и выполнив предельный переход при Г—>0, л—»», Тр =пТ = = const, можно получить следующее выражение: - А
I
(1.49)
Формулу (1.49) можно трактовать как гауссовский закон распределения для отрезка реализации БГШ. Следствия для условных плотностей вероятности. Пусть имеем два гауссовских вектора: X — я-мерный, Y — ?и-мерный. Для данных векторов можно записать 39
=
. I
;j(Y) =
j
exp|-l(X-mv)^Rv'(X-mv)
exp | - - ( Y - my Y Ry' (Y - m y )
(1.50)
Положим также, что X и Y — совместно гауссовские процессы, т.е. совместная плотность вероятности - гауссовская 1
где Z =
X , «"z =
™х
exp|-l(Z-mzrRz'(Z-inz)
, Rz =
, (1.51)
RXY
Y Шу Rxy RY Из свойства (1.44) следует, что условная плотность вероятности / > ( X | Y ) — гауссовская, т.е. можно записать
(2jt)72^det(Rx|y)
I ^
^
J (1.52)
Подставляя (1.50)—(1.52) в (1.44) и проделав несложные преобразования, можно получить следующие соотношения >-1, (1.53) ™X|Y = ' П х + R x y R Y ( Y - m y ) , (1.54) Из (1.53) следует, что условное математическое ожидание 1Пх|у является линейной функцией от величин, входящих в условие, т.е. от Y . Но условное математическое ожидание, как будет показано далее, является оптимальной оценкой вектора X при квадратичной функции потерь. Отсюда вытекает еще одно следствие. Пусть наблюдаем случайную выборку xi,x2, ... ,х„.
Определим
X = дг,, Y — все остальные наблюдения. Будем интересоваться оценкой Xj =А/ x, |Y . Тогда из (1.53) следует, что данная оценка является линейной функцией от остальных наблюдений. 40
Определим теперь вектор X = Х-1Пх|у . Докажем, что вектор X не зависит от Y , имеет нулевое МО и корреляционную матрицу Rx ~ '^х - RxyRY'RYX Действительно, подставляя (1.53), получаем М
= 0.
=М
Аналогично рассматривается М X(Y-mYf
= Л/
X - т х - RxyRY ( Y - my)}( Y - m y f
Это доказывает некоррелированность рассматриваемых процессов, а, следовательно, и их независимость. 1.8. Марковские случайные процессы 1.8.1. Марковские случайные последовательности Пусть имеем моменты времени Г),/2
для которых опреде-
лена последовательность случайных величин Xi = X{ti),X2 = X(12), ... ,Х„ =X(t„)
Рассмотрим ПВ p(xj,ti;x2,t2''
-'^n''n) ивыразимее
через условную ПВ
Случайная х„ =x(t„),... Р {^п. 'л
последовательность
= x(ti),x2 = x(t2), ...,
называется марковской, если для любого п условная ПВ , ; JC2, ; •••;
. 'л-l) зависит только от х
), т.е.
Рассмотрим три произвольных момента времени 't-i./jt.^A^+l. На основании (1.55) можно записать Р(-^it+i.h.tk;.'t-l)
= Р{^М.tk+\ h'tk)-
(1 -56)
41
Анализируя (1.56), можно сказать, что, если известно состояние марковской последовательности (МПС) в момент времени tj^, то будущее МПС (т.е. ее значение при ) не зависит от прошлого состояния МПС (при ). Это характерное свойство МПС часто принимают за определение. Дадим еще одно возможное определение. Рассмотрим Р (-^i+i'
;
=
.
.
) =
p{ч+ъh+\W-ъh-ьЧЛ)p{ч-\^^k-\\ч^^k)-
Данная запись означает, что при фиксированном значении МПС в настоящий момент времени t^ будущее (при ) и прошлое (при ) состояния МПС независимы. Из приведенных определений следует, что для марковских последовательностей любая л -мерная ПВ (совокупность которых полностью описывает случайную последовательность) может быть представлена в виде л-1 p { x \ , h W 2 \ . . . ; x „ , t „ ) = p{x^,t])'[lp (-t/+i. ',+1 \xi,(,). (1.57) (=1 Следовательно, описание МПС задается ПВ распределения начального значения p(xi,tj) и совокупностью условных ПВ /'(jCj+l.^i+l которые называют плотностями вероятности перехода случайной последовательности из одного состояния в другое. Для стационарных МПС условная ПВ не зависит от времени, т.е. имеем h)Рассмотрим определение условной ПВ для произвольных случайных векторов X и Y . По определению (1.26) /)(x|Y) = p ( X , Y ) / p ( Y ) .
(1.58)
Умножим обе части равенства (1.58) на />(Y) и проинтегрируем по Y . Тогда получаем J/»(x|Y);,(Y)^nf = /7(X). Y 42
(1.59)
Применяя свойство (1-59) к МП, получаем оо \
in I J^n-l. tn-\) Р (-«л-1. tn-\ ) dXn-\
(1.60)
—оо
Зная начальное значение p{xx,t{), переходные ПВ и используя (1.60), можно вычислить ПВ p{x„,t„)
р , \ x i , )
в любой момент вре-
мени t„ . TaicHM образом, вместо описания случайной последовательности в виде совокупности ПВ имеем компактное правило (процедуру) (1.57) для вычисления произвольной многомерной ПВ и выражение (1.60) для вычисления одномерной плотности в любой момент времени t„ . Формула (1.60) может быть обобщена для условных вероятностей перехода из одного состояния в другое оо
p{xn't„\xk,tk)=
.
! p{x„,t„\xj,tj)p{xj,tj\xk,tt)dxj
(1.61)
Соотношение (1.61) называют >равнекгt,. Пусть известны вероятности переходов Р .(О = л , (5,и), j = l,K, i = l,K, для которых справедливы соотношения К
к
j=\
/=1
К ^ji
44
/=1
К") •
(1.62)
Теперь вероятность р,- (и) = Р^х^^^ может быть рассчитана по формуле
к
Pi{n)=^T^ji{s,n)pj{s).
(1.63)
7=1
Приведенные выражения удобно представлять в векторно-матричной форме. Введем вектор Р ( л ) = Р\{") Р\{п) .•Pк{^^У
и матрицу
n(s,n) = {лу, (5,л)}. Тогда формулы (1.62), (1.63) принимают вид P(«) = n^(5,/i)P(s), Tc(s,n) = n(s,m)n(m,n).
(1.64)
Кроме того, для матрицы n(s,n) оказывается справедливым выражение П rc(j+i,j + i + l), (1.65) /=0 из которого следует, что для определения данной матрицы достаточно знать последовательность матриц одношаговых вероятностей перехода. Среди ПЦМ различают однородные и неоднородные. Однородная цепь Маркова характеризуется тем, что вероятности перехода зависят только от разности аргументов, т.е. n(s,n) = n(/2-s). Обозначим ге(1) = л . Тогда из (1.65) имеем
п(п) = л"-\
(1.66)
а из (1.64), (1.65) получаем Р^ (л) = Р^
.
Однородная цепь Маркова, для которой вероятности Р^(л) не зависят от п называется стационарной. 1.83. Марковские процессы Непрерывный случайный процесс X ( t ) является марковским (МП), если для любых последовательных моментов времени /q
0,
j p{x„,t„\x„_i,t„_i)dx„=l-,
(1.68)
—оо
2) плотность вероятности перехода p{xn,t„\x„_y,t„_x) переходит в 5 -функцию при совпадении рассматриваемых моментов времени, т.е. lim p{xn,tn\xn.x,t„-{) = b{x„-x„.^)(1.69) •я-1 3) плотность вероятности перехода p{x„,t„\xi^,tic) удовлетворяет соотношению (1.61); 4) если задана начальная ПВ
и найдена ПВ перехода
p{^ny^n\xk^h) дая произвольных x„,t„ и Xi^yti^, то можно вычислить все другие ПВ, например, двумерная ПВ в произвольный момент времени t>tQ определяется p{xQ,tQ-,x,t) = p{xQ,tQ)p{x,t\xQ,tQ)-,
(1.70)
5) интегрирование (1.70) по xq позволяет получить одномерную ПВ марковского процесса в произвольный момент времени оо
p{x,t)=
j p{xo,to)p{x,t\xQ,to)dxQ
-,
(1.71)
6) если ПВ перехода зависит только от разности временных аргументов т = то p{x,t\x',t') = р{х,х\х),
(1.72)
а МП называется однородным во времени. Из приведенного описания МП следует, что при их описании существенную роль играет ПВ перехода p[x,t\xQ,tQ), t>tQ. Для нее можно получить дифференциальное уравнению в частных производных [12] 46
Ot где K„{x,t)=
(1.73)
„=1 л! аьс lim ^ I Д/—»0 At
+
Если первые два коэффициента ATj
, К2 {x,t) отличны от нуля,
а остальные коэффициенты K„{x,t) = 0 ( и > 3 ) , то МП называется диффузионным. В дальнейшем будут рассматриваться только диффузионные МП, поэтому введем более удобные обозначения ATj (jc,;) = а(дг,/), K2{x,t) = b{x,t). Коэффициенты а(х,/) и b{x,t) называют коэффициентами сноса и диффузии соответственно. Для диффузионных МП уравнение (1.73) принимает вид
(1.74) и называется уравнением Фоккера—Планка—Колмогорова (ФПК). При фиксированном начальном значении jcq уравнение (1-74) решается при начальном условии р (;с, ?о |д:о, /д ) = 5 (дс - лтд). Если значение МП в начальный момент времени t^ является случайным и имеет ПВ /?(xo,fo). то эта ПВ должна выбираться в качестве начального условия для (1.74). Одномерная ПВ p{x,t)
для произвольного момента времени может
быть определена из (1.71) и (1.74), что приводит к уравнению =
=
(1-75)
в котором оператор ! ( * ) называют оператором Фоккера—Планка— Колмогорова. Диффузионный МП с коэффициентами сноса a(x,t)
и диффузии
b(x,t) удовлетворяет стохастическому дифференциальному уравнению 47
J^=f{x,t)^g{x,t)i,{t), где
=
(1.76)
— Б Г Ш с К Ф /г^(-с) = 5 ^ / 2 5 ( т ) , a f{x,t)
и g{x,t)
опреде-
ляются из соотношений =
b{x,t)-\s^g\x,t).
(1.77)
Важной особенностью стохастических дифференциальных уравнений типа (1.76) является то, что при их интегрировании в подынтегральной функции стоит БГШ, который не удовлетворяет необходимым требованиям «гладкости», для которых определен интеграл Римана. В связи с этим в математике разработана специальная теория стохастических интегралов. Существуют различные определения стохастического интеграла, одно из которых введено Р.Л. Стратоновичем и получило название симметризоватого [9]. Не углубляясь в математические тонкости (более подробно можно ознакомиться в [9, 12, 13]), отметим лишь, что при таком определении стохастического интеграла справедливы формулы классического дифференциального исчисления и выражения (1.77) для коэффициентов сноса и диффузии. Отметим также, что если в (1.77) коэффициент диффузии не зависит от х,го все определения стохастических интегралов эквивалентны. В частности, это справедливо для линейного уравнения ^ = F{t)x + G { t n t ) , x{to) = x^. at Наряду со скалярным МП x{t) (многомерные)
МП.
= 1^1(^)^2(0 - ^ « ( O l •
Рассмотрим
(1.78)
важную роль играют векторные случайный
вектор
® выражениях (1.74)—(1.77) вместо ска-
лярной величины x{t) подставить векторную х(/), то тем самым будет определен векторный марковский процесс. Уравнение (1.75) для векторного диффузионного МП преобразуется к виду
" э г , ч / М 1 ^ 1^[а,(х,/)р(х,0 + - I 48
э^
bij{i.,t)p{x,t) , (1.79)
где aj{x,t),
i = l,n —коэффициенты сноса; bjj{x,t),
=
—ко-
эффициенты диффузии. Векторный диффузионный МП может быть описан векторным стохастическим дифференциальным уравнением
^ = f(x,/)+g(x,0^(/), Х(/0)=Х0,
(1.80)
at где %{t) — /и-мерный вектор БГШ с диагональной корреладионной матрицей R^(х) = S^/25(T),т.е.Л,, (т) = 5^,,/28(т), / =
/?y ( t ) = 0,
У; f(x,/) — и-мерный вектор; g(x,/) —матрица размером я х т . Связь между коэффициентами сноса и диффузии и коэффициентами уравнения (1.80) определяется выражениями
b i j M = ^is^jgi,{x,t)gjii{x,t).
(1.81)
Линейная модель векторного МП описывается уравнением ^
=
+
х(/о) = хо.
(1.82)
Описание марковских процессов с помощью дифференциальных уравнений очень удобно, так как позволяет поучить описание оптимальных систем обработки таких процессов также в форме дифференциальных уравнений. Учитывая это обстоятельство, приведем описание марковских последовательностей в форме разностных уравнений. Пусть имеем векторную случайную последовательность х )= = т
= х^ (tj^) xi {t/^)
... х„ (/^) , которая описывается разностным уравнением х(/о) = хо,
(1.83)
где ^^ — векторный дискретный БГШ с матрицей дисперсий D^^ . Доказано, что случайная последовательность , описываемая (1.83), является марковской. Линейная модель марковской последовательности задается уравнением 49
« ( ' 0 ) = *0-
(1-84)
Для линейных моделей (1.82), (1.84) и начальном условии Xq, распределенном по гауссовскому закону, процесс х ( / ) и последовательность x j являются гауссовскими. Поэтому их иногда называют гауссовско-марковскими процессами. Марковские процессы играют основополагающую роль в теории оптимальной фильтрации, которая подробно будет рассмотрена в гл. 9—13.
Контрольные 1. 2. 3. 4. 5. 6. 7. 8.
50
вопросы к главе 1
Как преобразуются плотности вероятности распределения случайных величин при их функциональном преобразовании? Что такое корреляционная функция случайного процесса и какую роль она играет при его статистическом описании? Чем отличаются определения стационарности случайных процессов в широком и узком смыслах? Какими вероятностными характеристиками описывается произвольная случайная последовательность? Какими вероятностными характеристиками описывается гауссовская случайная последовательность? Какими вероятностными характеристиками описывается марковская случайная последовательность? При каких условиях понятия марковский и гауссовский процессы тождественны? Дайте определение белого гауссовского шума. Какими свойствами обладает такой шум?
Глава 2 СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ, СООБЩЕНИЙ И ПОМЕХ
2.1. Общие определения Радиотехнические системы (РТС) различного назначения являются информационными системами, т.е. системами, которые предназначены для передачи и извлечения информации. Под информацией понимают совокупность сведений, данных о каких-либо событиях, явлениях или предметах. Информацию, в широком смысле, можно определить как совокупность знаний об окружающем нас мире. В таком понимании информация является важнейшим ресурсом научно-технического и социально-экономического развития общества. В отличие от материального и/или энергетического ресурсов, информационный ресурс не уменьшается при потреблении, накапливается со временем, сравнительно легко и просто с помощью технических средств обрабатывается, хранится и передается на значительные расстояния. Для представления, передачи или хранения информации используют различные знаки, символы, параметры и т.д., позволяющие выразить (представить) ее в некоторой форме. Совокупность знаков, символов, параметров, отображающих ту или иную информацию, называют сообщением. Так, при телеграфной передаче сообщением является текст телеграммы, представляющий собой последовательность отдельных знаков — букв и цифр. При разговоре по телефону сообщением является непрерывное изменение во времени звукового давления, отображающее не только содержание, но и интонацию, тембр, ритм и иные свойства речи. В радиолокации сообщение представляет собой изменяющиеся во времени координаты объекта. Сообщения могут быть функциями времени А,(/), например, речь при передаче телефонных разговоров, температура или давление при передаче телеметрических данных, спектакль при передаче по телевидению, координаты движущегося объекта и т.п. В других случаях сообщение не является функцией времени (например, текст телеграммы, неподвижное изображение и т.д.). Если сообщение представляет собой функцию '^{t), принимающую только определенные дискретные значения (например, 1 и 0), то его называют квантованным или дискретным по уровню (амплитуде). Сообщение (сигнал) с конечным числом дискретных уровней часто на-
51
зывают цифровым, поскольку уровни можно пронумеровать числами с конечным числом разрядов. Если же сообщение может принимать любые уровни в некотором интервале, то они называются непрерывными или аналоговыми. В некоторых случаях сообщение задают не на всей оси времени, а в определённые моменты tj^. Такие сообщения называют дискретными по времени в отличие от непрерывных по времени, заданных на всей оси I. Например, речь является сообщением непрерывным как по уровню, так и по времени, а датчик температуры, выдающий ее значения через каждые 5 мин, служит источником сообщений, непрерывных по величине, но дискретных по времени. Если сообщение (сигнал) принимает дискретные по уровню (квантованные) значения в дискретные моменты времени, то его называют дискретным квантованным сообщением. На рис. 2.1 проиллюстрированы различные виды сообщений.
о 1, и
а)
6)
ii — К
Ц г
К
X,
>•2 J
в)
О /,I /'2
г)
Рис. 2.1. Виды сообщений: а — непрерывное; 6 — дискретное по времени; в — квантованное; г — дискретное квантованное
Перенос сообщений (а следовательно, и информации) на расстояние осуществляется с помощью какого-либо материального носителя (бу52
маги, магнитной ленты и т.д.) или физического процесса (звуковых или электромагнитных волн, тока и т.а.). Физический процесс, несущий передаваемое сообщение, называется сигналом. В качестве сигнала можно использовать любой физический процесс, изменяющийся в соответствии с переносимым сообщением. В РТС (например, радиолокационных, радионавигационных, системах радиосвязи) перенос сообщений осуществляется электромагнитными волнами. В то же время, в радиоаппаратуре электромагнитное поле антенной системой преобразуется в электрические сигналы S{X,t), которые в последующем тракте приемника являются переносчиками сообщений. Физической величиной, определяющей такой сигнал, является ток или напряжение. В современных системах управления и связи также используют электрические сигнапы. Передача сообщения с помощью сигналов реализуется путем изменения тех или иных параметров физического носителя в соответствии с передаваемым сообщением. Этот процесс (изменения параметров носителя) принято называть модуляцией. Сигнал передает (развертывает) сообщение во времени. Следовательно, он всегда является функцией времени, даже если сообщение (например, неподвижное изображение) таковым не является. Также как и сообщения, электрические сигналы могут быть непрерывными и дискретными по времени, непрерывными и дискретными по уровню, цифровыми. Электромагнитное поле можно рассматривать как пространственновременной сигнал 5(г,Я,,/), где г — радиус-вектор некоторой точки пространства. Такой сигнал всегда является непрерывным во времени и по уровню. Во многих РТС пространственно-временной сигнал S{r,X,t) на входе системы может быть представлен в виде произведения S (г,Х,/) = = F{r)S{X,t), т.е. в виде разделяющихся пространственной /"(г) и временной 5(Л,,/го, (4.9) если p(fo^) - ( 0 - ^ 5 ( г Д ) 1 л 1 . "О о ^
(4.15)
Обобщение (4.15) на случай векторных наблюдений у(0 = 8(гД)+п(0, где
(4.16)
ii(f) — векторный БГШ с матрицей двусторонних спектральных
плотностей N„ /2 , задаваемый выражением (4.17) lo
\
^
)
В различных задачах статистической теории РТС кроме отношения правдоподобия часто рассматривается условная ПВ (4.13). При Tj выражение для суммы, стоящее под знаком " ехр "переходит в соответствующий интеграл, а сомножитель перед экспонентой, строго говоря, стремится к бесконечности. Однако, поскольку данный сомножитель в задачах синтеза оптимальных систем приема и обработки сигналов не играет никакой роли (см., например, задачу обнаружения и формулу (4.14)), то обычно полагают следующее представление для условной ПВ наблюдаемой реализации в непрерывном времени Л 7*
/
t
= I
о
^
Л dt\, ; .
(4.18)
где к — произвольная фиксированная константа. 4.2.5. Струшура оптимального обнаружителя Структура оптимального обнаружителя вытекает из формул (4.4) и (4.15). Учитывая, что отношение "неравенства" инвариантно относительно монотонных преобразований, сравнение отношения правдоподобия с порогом в (4.4) можно заменить сравнением с порогом логарифма 92
отношения правдоподобия, что, с учетом (4.15), приводит к следующему алгоритму: 1п(Р(>')) = ^ ? 5 ( 0 ( > ' ( 0 - 0 . 5 5 ( 0 ) Л > 1 П ( А о ) . '^О о
(4.19)
Обозначим через Е энергию сигнала, которую определим соотношением E = \S^{t)dt. о Тогда решающее правило (4.19) можно записать так:
(4.20)
y \ y { t ) S { t y t > ^ ^ \ n { h ^ ) = h. (4.21) Щ о Выражение, стоящее в левой части (4.21) определяет оптимальный алгоритм обработки наблюдаемой реализащ1и который получил название оптимального приемника. Для выходного процесса «оп (О оптимального приемника имеем =
(4-22) ^0 0 Практическая реализация оптимального приемника возможна в двух формах. Первая — в форме коррелятора, структурная схема которого приведена на рис. 4.1. Коррелятор представляет собой перемножитель двух сигналов и интегратор. Вторая форма вытекает из ' "on С) того факта, что выражение (4.22) определяет линейное преобразование реализации 2S{i)/No y{t). Поэтому оптимальный приемник можно представить в виде линейного фильтра, получившего на-
Рис. 4.1. Структурная схема отимального приемника в форме коррелятора
звание согласованного. Известно [3], что процесс u{t) на выходе линейной системы (фильтра) с импульсной характеристикой ^(г) описывается соотношением 93
u{t) = \y{t-'c)g{xyix^]y{t)g{t-z)dx. (4.23) о о Сопоставляя (4.22) и (4.23), получаем, что импульсная характеристика согласованного фильтра определяется выражением g{t-x) = = 25{х)1Щ. Так как в обнаружителе решение принимается в момент времени Т , то импульсная характеристика согласованного фильтра обнаружителя определяется как g{T-x) = 2S{x)/NQ . Более подробно согласованные фильтры будут описаны в гл. 5. Определив структуру оптимального приемника, структура оптимального обнаружителя реализуется в виде оптимального приемника, ключа, замыкающегося в момент времени t = Т, и устройства сравнения с порогом (рис. 4.2).
м
Отггамальный приемник
р
Пороговое устройство
i
S =• 1 —
Отсчет э=о щт1=Т Рис. 4.2. Структурная схема оптимального обнаружителя
4.2.6. Характеристики обнаружения Рассчитаем количественные характеристики оптимального обнаружителя, под которыми понимают вероятность правильного обнаружения PD и вероятность ложной тревоги Рр . Пусть сигнал присутствует в наблюдаемой реализации, т.е. >'(г) = 5 ( г ) + и ( / ) . Тогда, в соответствии с (4.21) в момент времени / = Г на выходе оптимального приемника имеем СВ в виде
•'^0 о
о
которая получается в результате линейного (интегрирование) преобразования БГШ. Поэтому
имеет гауссовскую ПВ / ' i ( ^ i ) , МО /И) и
дисперсия Д которой определяются выражениями
94
2 ]y{x)S{x)dT N, О о = м
N,
2£ Щ
•|(5(т)+«(г))5(т)Л
оо
л2 1\=М
= л/
2£ Nn
где Е — энергия сигнала, определяемая выражением (4.20). В отсутствие сигнала имеем у(о (^о) изображены на рис. 4.3.
2E/N,.
Рис. 4J. Гауссовские ПВ при наличии и отсутствии сигнала Рассмотрим обнаружитель, соответствующий критерию Ней.мана-— Пирсона. Согласно этому критерию задается вероятность ложной тревоги Pf , т.е. вероятность превышения СВ ^о порогового уровня h
h
рЁТщ
(4.24)
95
1 где Ф(х) = - =
Jе '
dt —интеграл вероятности.
Вероятность правильного обнаружения h
fiF'
(4.25)
h Из фор.мулы (4.24) следует, что вероятность ложной тревоги Рр однозначно определяется отношением порогового уровня h к величине отношения q = E/NQ энергии сигнала к односторонней (физической) спектральной плотности аддитивного шума, которое в дальнейшем будем называть отношением сигнал/шум (с/ш). Поэтому при заданной вероятности ложной тревоги Рр и известном отношении сигнал/шум q из (4.24) однозначно определяется требуемая величина порога Л и, в соответствии с (4.25), — вероятность правильного обнаружения. Таким образом, можно рассчитать зависимости Р^ {q) при фиксированной вероятности ложной тревоги, которые называют кривыми обнаружения (рис. 4.4). Пользуясь кривыми обнаружения, можно определить пороговое отношение с/ш, т.е. величину Л^ор , для которой при заданной вероятности ложной тревоги Рр обеспечивается требуемая вероятность правильного обнаружения Рд. На основании полученных результатов можно сделать важный вывод о том, что характеристики Рис. 4.4. Кривые обнаружения обнаружения детерминированного детерминированного сигнала сигнала при оптимальном приеме не зависят от формы сигнала, а определяются величиной отношения с/ш. На практике детерминированные сигналы, как правило, не встречаются. Поэтому, приведенные результаты следует рассматривать как верхний (теоретический) предел для характеристик обнаружения (потенциальные характеристики).
96
4.2.7. Обнаружение сигналов при коррелированной помехе При выводе оптимального решающего правила (4.4) использовались лишь общие положения теории статистических решений и не использовались конкретные статистические свойства помехи. Поэтому общее решающее правило, заключающееся в вычислении отношения правдоподобия и сравнения его с порогом, справедливо и в том случае, когда помеха коррелированна. Следовательно, структура оптимального обнаружителя, приведенная на рис. 4.2, справедлива и в этом случае, меняется лишь структура оптимального приемника, которая определяется видом функщ1и правдоподобия. Функция правдоподобия при коррелированное помехе. Получим выражение для отношения правдоподобия при наблюдении сигнала на фоне помехи, имеющей функцию коррелящ1и: =
(4-26)
Для стационарной помехи R„ (/], 'г) = ^п ('2 "" ) =
> == '2 "
Как и в п. 4.2.4, перейдем к дискретному времени и рассмотрим дискретные наблюдения (4.10), в которых М n/^nj
. Тогда гаус-
совскую совместную условную ПВ (4.13) можно записать в виде Р ( л 'У2'-'Ут I'S* (Я,),Л = 1,m) = гехр - i i где R =
I
(X))(R)-' (yj-Sj
(k)) , (4.27)
} — корреляционная матрица помехи.
При отсутствии сигнала совместная условная ПВ получается из (4.27), если в нем положить S^ (Я.) = О. Учитывая это, выражение для отношения правдоподобия в дискретном времени имеет вид р ( Г ) = ехр l i s , k=lj=\ При Tj
(уJ-0,5Sj ^
(X)) . J
(4.28)
и одновременном увеличении m-*oo совокупность
дискретных отсчетов
{>'i
=
переходит в отрезок непре-
рывной реализации ^'(f), ?€[0,Г], а (4.28) принимает вид 4—2041
97
где функция
— обратная корреляционной матрице помехи
(4.26), определяется из уравнения
т J Л„
{t,t2 )dt =
,Г2 ).
(4.30)
Обобщение (4.29) на случай векторных наблюдений (4.16) дается выражением p(Yo^) = exp
(4.31) 00
где R„ — корреляционная матрица вектора аддитивных помех. Алгоритм работы обнаружителя при коррелированной помехе. Вернемся к задаче обнаружения сигнала, наблюдаемого на фоне коррелированной помехи. Воспользуемся формулой (4.29) для отношения правдоподобия, и, переходя, как и раньше, от отношения правдоподобия к логарифму, запишем решаюшее правило в виде ТТ
J J S ) R - ' {h,t2)y{t2)dhdt2
> ^ + In(Ло) = A,
(4.32)
00
1 TT где q=U\S{t^)R„\t^,t2)S{t2)dt^dt2 . ^00 Рассмотрим = R„ {tj -
)=
случай
стационарной
помехи,
т.е.
Rn{h->h)-
- / 2 ) , и представим левую часть неравенства (4.32)
в виде Ьсо
о
L0
Л.
(4.33)
Выражение, стоящее в фигурных скобках (4.33), является функцией от t , т.е.
о
г
Тогда формула (4.33) принимает стандартный вид \y{t)y\{t)dt,
со-
0
ответствующий прохождению процесса y{t) 98
через корреляционный
приемник с опорным сигналом Г|(/) или согласованный фильтр с импульсной характеристикой
я ( г - т ) = т1(т). Структурная схема оп-
тимального приемника с корреляционной обработкой приведена на рис. 4.5. Для нахождения опорного сигнала 11(0' поступающего на второй вход коррелятора, умножим (4.30) на 5 (/2) и проинтегрируем от О до Г \R-\t-t2)S{t2)dt^dt
, f
*'oni')
Рис. 4.5. Структурная схема оптимального приемника в форме коррелятора
=
\S{t^)b{t2-h)dt^.
Из данного уравнения получаем интегральное уравнение Фредгольма 1-го рода для определения процесса ri(r) (4.34), В частном случае некоррелированной помехи имеемЛ(/-/1) = = A^o/25(f-ri) и уравнение (4.34) дает полученный ранее результат В общем случае решение уравнения (4.34) является достаточно сложной задачей. Поэтому на практике часто ищут приближенное решение. Прежде всего полагают, что время коррелящ!и помехи существенно меньше времени Т наблюдения сигнала. При этом пределы интегрирования в (4.34) можно заменить на бесконечные, т.е. рассматривать уравнение вида (4.35) Решение такого уравнения существенно проще и может быть выполнено, например, известным способом, основанном на применении преобразования Фурье. Пусть Sg (7®), ^п — преобразования Фурье для 99
функций
Ti(r),
соответственно. Тогда, применяя к (4.35)
преобразование Фурье, получим или =
(4.36)
Данное вьфажение определяет структуру физически нереализуемого фильтра, так как нули и полюса функции (7(0) лежат как в нижней, так и в верхней полуплоскости комплексного переменного со. Тем не менее, оно может быть полезным для физического понимания процессов, происходящих в оптимальном фильтре. Пусть, например, помеха представляет собой аддитивную смесь белого шума и узкополосной помехи на частоте (»„ • В этом случае спектр (ш) такой комбинированной помехи будет иметь вид (со) = ЛТд /2 + Sj, (о)п - со). Тогда из (4.36) имеем SsiM) Из данного выражения следует, что оптимальный согласованный фильтр подавляет те составляющие спектра, где расположена узкополосная помеха, т.е., по сути дела, получаем хорошо известный режекторный фильтр. Вывод выражения для комплексного коэффициента передачи оптимального физически реализуемого фильтра можно найти в [13]. Рассмотрим другой метод решения задачи обнаружения сигнала на фоне коррелированной помехи, приводящий к иной структуре оптимального приемника и получивший название "метод выбеливания". Идея метода основана на предварительном преобразовании наблюдений y{t) таким образом, чтобы после преобразования аддитивная помеха стала некоррелированной (белым шумом). После этого можно использовать оптимальный алгоритм обнаружения на фоне белого шума. Такая процедура не нарушает свойства оптимальности алгоритма в случае, если используемое линейное преобразование обратимо. Докажем этот факт. Пусть имеется оптимальная система (в нашем случае оптимальный обнаружитель), которую будем называть системой 1 (рис. 4.6, а). 100
Ostsr
Свстсш!
ВЫХОА 1 •
о) ostsr /('.Ях» в)
"MifO
Z(t)
выход} ostsfl.
Скпш1
Рис. 4.6. Структурные схемы оптимальных систем: а — оптимальная система; б — система с предварительным обратихмым преобразованием; в — оптимальная система для обработки z{t) На выходе системы получаем оптимальное решение в соответствии с заданным критерием. В системе 2, приведенной на рис. 4.6, б, над входным процессом сначала осуществляется обратимая операция с целью получения z{t), содержащего аддитивный белый шум. Затем строится система, которая выполняет над z{t) оптимальную операцию (в нашем случае оптимальное обнаружение) в соответствии с тем же критерием, что и в системе 1. Докажем, что на выходе системы 2 также имеем оптимальное решение. Очевидно, что система 2 не может давать решение, средний риск для которого меньше, чем у системы 1, так как это противоречило бы утверждению о том, что система 1 оптимальна. Теперь покажем, что система 2 не может быть хуже, чем система 1. Если бы это было так, то можно бьшо бы построить систему, показанную на рис. 4.6, в, которая осуществляет над z{t) операцию / " ' ( t , z ( / ) ) , обратную f{t,y{T)), с целью получения процесса ^ ( т ) , а затем пропускает через систему 1. Такая совокупная система будет работать так же хорошо, как система 1 (они идентичны по входу и выходу). Так как решение, формируемое на выходе системы, приведенной на рис. 4.6, в, получается путем операции над z ( / ) , то оно не может быть лучше, чем в системе 2. Иначе это будет противоречить утверждению о том, что вторая операция в системе 2 является оптимальной. Поэтому система 2 не может быть хуже, чем система 1. В качестве предварительного преобразования наблюдаемого процесса выберем линейное преобразование, т.е. линейный фильтр с изме101
няющимися во времени параметрами и импульсной характеристикой /i(i,T), такчто z{t) = ]h{t,x)y{x)dx
0
= ]h{t,x)S{t,X)dx+]h{t,x)n
0
о
{x)dx =
где М [ й ( ; ) й ( ^ + т ) ] = ;Уо/25(т). Из данного выражения следует, что процесс z{t) представляет собой аддитивную смесь "нового" сигнала 5 ( / Д ) и белого шума n{t). Поэтому в последующем оптимальном приемнике обнаружителя в качестве опорного сигнала следует использовать Схема оптимального приемника обнаружителя для случая коррелированной поh(t.r) ! мехи принимает вид, приведенный на рис. 4.7. h(t.T) Структурные схемы рис. 4.5 и рис. 4.7 эквивалентны по входу и выходу и являются двумя ваРис. 4.7. Структурная схема оптимальриантами построения оптиного приемника при коррелиромального приемника для корреванном шуме наблюдения лированного шума наблюдения.
I
Т s(tiV
4.3. Обнаружение сигнала со случайными параметрами В гл. 2 (формула (2.12)) описана одна из широко используемых моделей сигналов - сигнал, представляющий собой детерминированную функцию, в которой один или несколько параметров являются СВ. Такие сигналы называют квазидетерминированными (см. гл. 2). Если из указанных случайных параметров не извлекается информация, то они еще называются неинформативными. Естественно, что наличие случайных параметров у сигнала затрудняет их обработку, в том числе и обнаружение, и требует получения новых оптимальных алгоритмов. 4.3.1. Общее решение задачи обнаружения сигнала со случайными параметрами Пусть наблюдается реализация 102
где |1 — случайные неинформативные параметры сигнала с априорной
пв Рассмотрим для простоты байесовское решение для простой функции потерь. В п. 4.2.1 показано, что оптимальное решающее правило соответствует выбору оценки для которой апостериорная вероятность максимальна. Пользуясь свойством согласованности ПВ (1.18), можно записать
Тогда отношение правдоподобия p(jo^) (4.4) может быть записано в виде (уТ ] -
"
^
"
= jp{Yl\\l)p,pili)dii,
^ ^ ^ ^ ^
-
(4.37)
где p ^ l o ^ l n j — отношение правдоподобия при фиксированных значениях параметров ц,; здесь учтено, что при отсутствии сигнала наблюдения не зависят от параметров |А .
Далее, в соответствии с (4.4), отношение правдоподобия (4.37) необходимо сравнить с порогом, величина которого такая же, что и в задаче с полностью известным сигналом. Структура оптимального обнаружителя в рассматриваемой задаче получается такой же, что и на рис. 4.2. Изменяется только структура оптимального приемника. Для получения структуры оптимального приемника необходимо конкретизировать сигнальную функцию и неинформативные параметры. В радиотехнических задачах сигнальную функцию можно записать в обобщенном виде 5(г,Я.,ц) = а^(/)со5((Н^,г+(р(г)+фо),
(4.38)
где а — амплитуда сигнала; А (t) — функция амплитудной модуляции сигнала; (flQ — несущая частота сигнала; ф(г) — функция фазовой модуляции; фо — начальная фаза.
103
в задаче обнаружения сигнала в качестве неинформативных случайных параметров будем рассматривать амплитуду а и начальную фазу (ро • 4 J.2. Оптимальный приемник обнаружителя сигнала со случайной начальной фазой Пусть амплитуда сигнала известна, а начальная фаза неизвестна и распределена по равномерному закону (1.4) на интервале . Вычислим усредненное отношение правдоподобия (4.37). С учетом (4.15) запишем yti
Л^оо*-
п2 J[a^(/)cos((0o/ + h, где
(4.43) 2
Аехр ад IFn
2а
Из (4.43) следует, что оптимальный приемник обнаружителя сигнала с неизвестной начальной фазой, получивший название "некогерентного" (так как в нем не используется информация об истинном значении фазы сигнала), должен выделять огибающую на выходе согласованного фильтра. Структурная схема оптимального приемника, которую часто называют фильтровой, приведена на рис. 4.8. Дпекгор огибающей
Согякомнный филыр
«оп(0
Рнс. 4.8. Фильтровая схема оптимального приемника
Другая возможная реализация оптимального приемника основана на прямой реализации отношений (4.40), (4.41). Соответствующая схема, называемая схемой квадратурного приемника, приведена на рис. 4.9. »
y{t\
X X
-
1
/
> t г* I f n
— •
KB KB
i X'
Рис. 4.9. Схема квадратурного приемника 105
Два канала квадратурного приемника позволяют получить величины Х^ и X , , определенные выражением (4.41). Последующие нелинейные преобразования выходных колебаний этих каналов формируют огибающую X . Выше был рассмотрен синтез байесовского оптимального обнаружителя при простой фуныщи потерь. Аналогичные по структуре решения получаются при использовании обобщенной функщш потерь и при использовании критерия Неймана—Пирсона. Вычислим количественные характеристики обнаружения. Из формул (4.41) следует, что случайные величины Х,. (7) и Х^ (Г) распределены по нормальному закону с условными МО т^=М[Хс\%']
= 0,5аа cos (фц ) , /я^ = Л/ [Х, |фо ] = 0,5аа sin (фо^)
и одинаковыми дисперсиями D , = D ^ = D = Nqu/A .
(4.44)
Величины Х^ и Х^ можно считать практически независимыми, так как взаимокорреляционная функхщя между ними приближенно равна нулю М[ а д ] =
(/)8ш(2{а)/-Ьф(/)))Л = О. ^ о
Поэтому при наличии сигнала ПВ Р\{Х) X=
случайной величины
определяется законом Райса (1.11) ч X^+{0,5aaf Х^О. 1о Ща/2 No
(4.45)
При отсутствии сигнала случайные величины Х^ и Х^ также независимы, распределены по нормальному закону с нулевыми МО и одинаковыми дисперсиями (4.44). Поэтому ПВ PQ (JT) случайной величины X = yjx^
будет рэлеевской (1.9): 2Х' Ща
Для получения характеристик обнаружения воспользуемся критерием Неймана—Пирсона. Тогда по заданной вероятности ложной тревоги 106
~
со
h
h
.
у
exp
2Х 2 oLV = ехр Ща
(4.46)
где \[D
(4.47)
у1Ща/4'
определяется нормированный пороговый уровень Ад, для которого затем вычисляется вероятность правильного обнаружения ее h
= J uexp hn
®® у1 V"
exp - 2 -
h • U^ + 2E/NQ /о 2
Ща 2Е' No]
/о
laX dX = Nn
du.
(4.48)
Результаты расчетов по формулам (4.46)—(4.48) представлены на рис. 4.10 сплошными линиями, пунктирными линиями приведены аналогич' ные зависимости для полностью известного сигнала. Характеристики обнаружения сигнала со случайной фазой лежат правее соответствующих характеристик для детерминированного сигнала. Следовательно, одна и та же вероятность правильного обнаруХарактеристики обнаружения жения для сигнала со слу- Рис. 4.10. для сигнала со случайной фазой чайной фазой достигается при большем значении отношения с/ш, чем для детерминированного сигнала. Однако, это различие не очень существенно (~ 1 дБ по мощности). 4 J.3. Оптимальный приемник обнаружителя сигнала со случайными амплитудой и начальной фазой Пусть теперь сигнал имеет случайную начальную фазу, распределенную по равномерному закону, и случайную амплитуду, распреде107
ленную по рэлеевскому закону (1.9). Тогда, в соответствии с общим решением (4.37), отношение правдоподобия необходимо усреднить по начальной фазе и амплитуде. Усредненное по начальной фазе отношение правдоподобия определяется выражением (4.39). Усредним его по амплитуде ехр
_
No No + aai
ехр^-
ехр
2а аа Х{Т) •/о 2No
2о1 No(No+acyl)
у. (4.49)
где X ( t ) — по-прежнему описывается выражениями (4.40)—(4.41) и представляет собой огибающую на выходе согласованного фильтра. Вводя среднюю энергию сигнала Ё = М[Е] = 0,5ш\аЛ
= ас1,
(4.50)
выражение (4.49) можно переписать в виде 1 \+EINQ
ехр
1Ё1Щ Ща{\ + Ё1Щ)
(4.51)
Так же как и раньше, учитывая монотонный характер квадратичной функш1И и экспоненты, можно перейти от отношения правдоподобия к аргументу Х(Т) и записать решающее правило в том же виде, что и (4.43): \х{трн\
(4.52)
где (4.53) Так как алгоритм обработки (4.52) не изменился, то и структура оптимального приемника обнаружителя сигнала со случайньши начальной фазой и амплитудой также не изменилась и может быть представлена в фильтровой форме (см. рис. 4.8) или в форме квадратурного приемника (см. рис. 4.9). 108
Идентичность структур оптимальных приемников, однако, не означает, что соответствующие обнаружители имеют одинаковые характеристики обнаружения. Дело в том, что изменилась величина порога h* (4.53), а, следовательно, и вероятности превышения (или не превышения) порога. Поэтому рассчитаем характеристики обнаружения, например для критерия Неймана—^Пирсона. При отсутствии сигнала ситуащм не изменилась, следовательно можно воспользоваться формулой (4.46). При наличии сигнала ПВ СВ Х{Т) может быть получена усреднением выражения для ПВ той же величины для задачи обнаружения сигнала со случайной начальной фазой (4.45) ч-(0,5аа)' 0^0» 4Х
4Х ' aNo{M/No
2аХ Nn
щф
ехр
ехр
-ехр
2ai
da =
2Х'
2Х' aNo{i/No+l)
Вероятность правильного обнаружения определяется как
h
= exp
(4.54) 2(l + £/iVo)
где Ло определяется выражением (4.47), а £ — формулой (4.50). Из (4.54) и (4.46) можно получить следующее соотношение, связывающее вероятности ложной тревоги и правильного обнаружения (4.55) Характеристики обнаружения, рассчитанные по формуле (4.55), приведены на рис. 4.11 сплошными линиями, а аналогичные характери109
Рр Pf= 0.5 % = о, I Pf = 0.01
10 -Jq
СТИКИ для задачи обнаружения детерминированного сигнала — пунктирными линиями. Из приведенных зависимостей следует, что при больших вероятностях правильного обнаружения наличие случайной амплитуды приводит к заметному ухудшению характеристик обнаружения.
Рис. 4.11. XapaKTqDHCTHKH обнаружения для сигнала со случайными амплитудой и фазой 4.3.4. Обнаружение временного сигнала со случайными начальной фазой, амплитудой, временем запаздывания и смещением часготы Для большинства РТС характерна ситуация, когда кроме неизвестных (и случайных) начальной фазы и амплитуды неопределены также и время запаздывания т и смещение частоты сОд, обусловленное, например, эффектом Доплера. Общее решение задачи обнаружения сигнала в этом случае достаточно сложно, поэтому рассмотрим приближенный подход, который часто используется в теории оптимального оценивания. Для решения поставленной задачи необходимо уточнить модель сигнала (4.38). Положим, что на передающей стороне излучается сигнал вида 5 (/,
) =flo^ (О cos (соо/ + (р(/) + Фо),
где OQ —амплитуда излученного сигнала; A[t) —функция амплитудной модуляции; сод — несущая частота; ф(^) — функция фазовой модуляции; фо —начальная фаза. На входе приемника (после прохождения среды распространения) сигнал описывается выражением (2.7), которое для небольших интервалов времени, характерных для задачи обнаружения сигнала, может быть представлено в виде 5(/,А.,ц) = а 4 ( / - х ( / ) ) с о 8 Ц ( / - т ( 0 ) - Ь ф ( г - т ( 0 ) + > | / о ) , 110
(4.56)
где а — случайная амплитуда; \|/о — случайная начальная фаза; х(/) — задержка сигнала. При взаимном движении передатчика и приемника задержка сигнала является функцией времени, которую часто аппроксимируют параболой, т.е. t ( / ) = to + V + V ^ / 2 •
(4.57)
Как было показано ранее, в обнаружителе осуществляется корреляционная обработка сигнала на интервале времени Г , типичное значение которого Г = 2 ... 10 мс. Положим, что скорость сближения приемника и передатчика V^Q = 200 м/с, а ускорение сближения а^б = ^0 м/с^. Данные значения параметров движения характерны, например, для самолетов. Тогда в (4.57) второе слагаемое равно I/cq [с], где CQ - скорость света, а третье слагаемое — 6,25 10~^/со [с], т.е. на три порядка меньше. Поэтому для задач обнаружения сигналов вместо (4.57) с достаточной степенью точности можно полагать x(/) = t o + V -
(4-58)
Модель (4.58) имеет два параметра: tq — начальная задержка сигнала; То — скорость изменения задержки. Данные параметры в общем случае являются случайными величинами. Подставляя (4.58) в (4.56), получаем
S{lX\i) =
= а^ (< - То + ТоО cos (соо (f - То - tq/ )+Ф (/ - То + ТоО+Vo) • Выражение (4.59) можно еще более упростить, если принять во внимание следующее: задержка, обусловленная вторым слагаемым в (4.58), составляет ~ 3 не, что несущественно для выделения информации из законов амплитудной и фазовой модуляции, так как это сопоставимо с погрешностью соответствующих средств временной синхронизации; поэтому ее можно не учитывать; составляющая (ootq может быть отнесена к случайной фазе сигнала введем (ОоТо = Мд = 27^д, где /д — доплеровское смещение частоты сигнала. С учетом сделанных допущений получаем окончательную модель сигнала в виде 111
S Д , ц ) = О^ (г - То )COS ((cOft + Шд
+ (p(r - То ) + V o ) ,
где имеются четыре случайных параметра: амплитуда а ; начальная фаза Vo; задержка Tq , которую для удобства будем обозначать просто т ; доплеровское смещение частоты сОд. Для строгой постановки задачи необходимо задать вероятностные характеристики данных случайных величин. Для амплитуды и фазы сигнала они были определены выше, для двух других параметров зададим их в общем виде: р ( т ) , х е [T^in.tmax] и Шдб ®дтга'®дтах В соответствии с общим принципом синтеза оптимальных обнаружителей при наличии случайных параметров сигнала необходимо усреднить условное отношение правдоподобия по (4.37) этим параметрам. Усреднение по амплитуде и фазе было выполнено ранее. Строгое усреднение по двум другим параметрам затруднительно, поэтому сделаем следующее допущение. Заменим непрерывные области возможных значений задержек и доплеровской частоты наборами дискретных значений Ti,T2,...,T„ и О и Л/ -> оо соотношение (4.91) переходит в формулу
V
/
-'^min -^min где
(:С],д:2) определяется из уравнения У
,
(д:, ДГ2)
= 5 (х,, JTJ ) •
В (4.92) явно видна обработка пространственно-временного сигнала по апертуре антенны. Если помеха однородна и некоррелирована по пространству, т.е. Л„ {xi,x2 ) = -Jfi), то (4.92) принимает вид
125
s ' (OR;;' [ у
T
.
При ЭТОМ отношение правдоподобия (4.90) запишется как р К ) =
e x p i f y
)t)-0.5s() = s-O
(5.25) i-O Введем в рассмотрение СФ для одиночной кодовой посылки, отсчет на выходе которого формируется в конце посылки, т.е. при Г] = . С учетом (5.4) и (5.24) запишем выражение для коэффициента передачи такого фильтра ^СФк (jco) = к ^
с ; , (jco). /Су (l
-
е
-
.
Теперь выражение (5.25) можно записать в виде (5.26) S-0
На рис. 5.4 приведена схема согласованного фильтра для радиоимпульса с дополнительной фазовой манипуляцией.
Рис. 5.4. Схема СФ для одиночного радиоимпульса с дополнительной фазовой манипуляцией Из (5.26) следует, что СФ для радиоимпульса с фазовой манипуляцией включает СФ для импульса элементарного кода, линию задержки на длительность элементарного кода с числом отводов на единицу меньше, чем число элементов кода, умножитель на h^ на выходе s -го отвода линии задержки и сумматор. Умножение на h^ обеспечивает 142
«снятие» фазовой манипуляции сигнала с целью последующего когерентного суммирования отсчетов на выходах линии задержки. Схема СФ для пачки радиоимпульсов с дополнительной внутриимпульсной фазовой манипуляцией имеет такой же вид, что и на рис. 5.2, но вместо СФ для одиночного радиоимпульса надо использовать схему СФ для радиоимпульса с фазовой манипуляцией, приведенную на рис. 5.4. Согласованные фильтры широко используются при построении аналоговой техники. Однако в настоящее время все большее число РТС переходит на цифровую обработку сигналов, при которой проще реализовать корреляционную схему оптимального приемника. Так, например, в приемниках сигналов спутниковых радионавигационных систем ГЛОНАСС, GPS используются непрерывные фазоманипулированные на л сигналы с периодом повторения кодовой последовательности 1 мс. Если бы обработка сигналов в приемнике строилась как аналоговая, то в обнаружителе сигналов с временем накопления 1 мс можно было бы использовать СФ, описанный в предыдущем разд. (с числом кодовых элементов 511 в системе ГЛОНАСС). Однако все существующие приемники для данных систем на последней промежуточной частоте ~ 4 МГц подвергаются дискретизации по времени и квантование по уровню. Обнаружитель сигнала обрабатывает уже цифровую выборку и всегда строится по схеме корреляционной обработки. Аналогичная тенденция наблюдается и при разработке современных радиолокационных систем.
Контрольные вопросы к главе 5 1. С какими характеристиками сигнала и как связан коэффициент передачи согласованного фильтра? 2. Записать коэффициент передачи согласованного фильтра при приеме одиночного видеоимпульса. 3. Записать коэффициент передачи согласованного фильтра при приеме последовательности видеоимпульсов. 4. Что можно сказать о величине отношения сигнал/шум на выходе согласованного фильтра?
143
Глава
6
РАЗЛИЧЕНИЕ СИГНАЛОВ
6.1. Различение двух детерминированных сигналов Предположим, что в наблюдаемой на входе приемника реализации y{t) может быть один из двух полезных сигналов Si (/) или (О • y{t) = Si{t)+n{t) По наблюдениям
или
= на интервале времени [0,Г] и имеющейся
априорной информации необходимо принять решение о том, какой из двух сигналов присутствует в принятом колебании. Данная задача называется задачей различения сигналов. Аналогично задаче обнаружения, задачу различения можно сформулировать как задачу оценивания. Представим наблюдаемый процесс в виде Параметр д может принимать случайным образом одно из двух значений: = 1 (присутствует сигнал 5i (/)) с априорной вероятностью Рар{}) и iJ = 0 (присутствует сигнал
(г)) с априорной вероятностью
Pap{0) = {l-Pap{\^. Задача различения в этом случае формулируется как оценка значения случайной величины Ь по наблюдениям реализации j'(t) на интервале времени / е [0,Г]. В такой формулировке данная задача ничем не отличается от задачи обнаружения, рассмотренной в гл. 4, поэтому можно воспользоваться полученными там результатами. Так, например, при простой функции потерь оптимальное решающее правило описывается соотношением (4.4) и заключается в вычислении отношения правдоподобия и сравнении его с порогом. Для вычисления отношения правдоподобия необходимо определить две условных ПВ: = соответствующей присутствию в наблюдениях сигнала 144
и
=
соответст-
вующей наличию сигнала S2 (^). Данные ПВ определяются из общего выражения (4.15)
Л^О о
Щ где £[ =
{t)dt; О
£2 = J-^l О
4,
Л^оо — энергии сигналов.
Теперь оптимальное правило обнаружения можно записать в виде
р К ) =ехр
Рар{0)_ =
N.0 0
(6.1)
или, переходя к логарифмам, N.О О
Pap{i)
(6.2)
ЛГп
Таким образом, оптимальное устройство различения двух сигналов имеет структуру, приведенную на рис. 4.2, и включает оптимальный приемник, ключ и пороговое устройство. Оптимальный приемник описывается соотношением
о N00 ^0 0 Реализация оптимального приемника устройства различения двух сигналов возможна по двум схемам; одноканальной (рис. 6.1) и двухканальной (рис. 6.2). Наряду с ними возможна
фильтровая
реализация
опти-
мального приемника, например, по двухканальной схеме (рис. 6.3).
ujT) I
6.1. Одноканальная схема
оптимального приемника различения двух сигналов 145
т
X
J
у(0
_ а X
^
г / л
X zr:
Рис. 6.2. Двухканальная схема оптимального приемника различения двух сигналов
Я')
Рис. 6.3. Двухканальная схема оптимального приемника различения двух сигналов с СФ Рассчитаем характеристики различения двух сигналов. Для этого, как и в задаче обнаружения, введем две СВ •'^0 о 2 ^г h
1 [^2
( т ) - 5 2 (т)]^т .
^ 0 0" соответствующие двум ситуациям наличия одного или второго сигналов в принимаемой реализации. Эти случайные величины распределены по нормальным законам с МО и дисперсиями соответственно
ц =м Z>2 =М {%2-тгГ
146
_2(£,+£2-2£I2) ЛГо (6.3)
где £12 =
(х)52 (Z)C/X — взаимная энергия сигналов, о Плотности вероятности ) и р (^2 ) приведены на рис. 6.4, где
заштрихованы участки, соответствующие ошибочным решениям при приеме одного или второго сигналов.
Рис. 6.4. Гауссовские ПВ при наличии одного из двух сигналов и условные вероятности ошибок Вероятность суммарной ошибки определяется соотношением ^'ош
! P(^lHl+-Pap(0)Jpa2H2 • (6-4) А Наиболее наглядные результаты получаются при равенстве энергий двух сигналов = £2 = ^ и равных априорных вероятностях (1) = -со
= /'д^,(0) = 0,5. Вводя понятие коэффициента взаимной корреляции г^ между сигналами Sj (f) и Sj (t)
^ 0 получаем следующее выражение для суммарной ошибки: 1
ч2 ^ J ехр
I ехр о
2D
2D
dk
147
= 1-ф
V
м
(6.5)
-O-'i)
где Ф(*) —интеграл вероятности. Таким образом, при известном отношении с/ш q = E/NQ вычисление вероятности полной ошибки для детерминированных равновероятных сигналов с одинаковыми энергиями сводится к определению коэффициента взаимной корреляции между сигналами. Так как интеграл вероятности является монотонно возрастаюшей функцией аргумента, то при одинаковом отношении с/ш наибольшей помехоустойчивостью (наименьшей вероятностью ошибки) обладают сигналы, для которых коэффициент взаимной корреляции минимален. Коэффициент взаимной корреляции г, может изменяться от -1 (при Si (/) = (/)) до +1 (если S, (^) = S2 (/)). В том случае, когда г^ = О, говорят, что сигналы ортогональны. Очевидно, что одинаковые сигналы (г^=1) невозможно различить и поэтому i^ui = = 1 - Ф ( 0 ) = 0,5. Наоборот, если сигналы одинаковы и противоположны по знаку (г^ = О), то их различить легче, чем любые другие два сигнала (например, ортогональные). Сказанное иллюстрируется рис. 6.5, на котором представлены результаты расчетов по формуле (6.5). Кривые, характеризующие зависимость вероятности полной ошибки от отношения сигнал/шум при оптимальных методах приема детерминированных сигналов, в радиосвязи принято называть кривыми потенциальной помехоустойчивости. Получим такие кривые для некоторых виРис. 6.S. Зависимости вероятности ошибки распознавания от значения дов манипулированных сигналов, коэффициента взаимной корреляции применяемых в радиосвязи. Амплитудная манипуляция (AM). При AM 5] (г) = ^со5(сог + ф), (О ~ ® > ' ^ 148
>
— известные параметры сигнала.
Данная задача фактически сводится к задаче обнаружения сигнала на фоне шума. Приняв в формулах (6.3) Sj (/) = О, получим т1=2Е/Щ=2д,
I\=D2=D
=2 E I ^ 2 = 0 ,
Е^А^ТИ.
Так как энергии сигналов (f) и (t) не равны, то пользоваться формулой (6.5) для расчета вероятности ошибки нельзя. Поэтому воспользуемся общим определением (6.4). Значение порога А = E/NQ = q находим из (6.2), Тогда
] = 1-Ф
ехр
J (
гЛ
2^
1
J ехр л[2тФ
2D
'
1 -9/n/O
= 0,5
(izl?) Л Л
1
ехр
f
J ехр
2D
Л Л dx
I—
(6.6)
Зависимости Р^ц, {q) представлена на рис. 6.6 (кривая AM).
Частотная манипуляция (ЧМ). При ЧМ используются два гармонических сигнала одинаковой амплитуды и длительности, имеющие разные несущие частоты S, (/) = ^ cos (со,/ + ф), S2 (/) = ^ cos (йъ/ + ф). Ai=sm((a)2-a),)r)/[((02-a),)r; . Коэффищ1ент взаимной корреляции минимален и равен г^=-0,21 при (о>2-(Oi)r = l,5ic.
Однако
на практике обычно выполняется неравенство ((02 - СО] ) 7 ' » 1 . Поэтому можно положить = О, и для вероятности полной ошибки, учитывая равенство энергий сигналов, из (6.5) получим
i 1 : 1 1 : i ; i i уiI1 : i лЧ .i \j\ V к!: TSviAM' ч |м iS.!' 'i ,
!
J
^
Рис. 6.6. Зависимости вероятностей ошибок различения для AM, ЧМ и ФМ сигналов
149
Зависимость вероятности ошибки от отношения сигнал/шум приведена на рис. 6.6 (кривая ЧМ). Фазовая манипуляция (ФМ). На практике часто используется ФМ на к , при которой 5] (r) = ^cos(a)f), Д™ таких сигналов г^ = - 1 и вероятность ошибки, согласно (6.5)
График этой функции представлен на рис. 6.6 (кривая ФМ). Сравнивая зависимости на рис. 6.6 для AM, ЧМ, ФМ, видим, что при одной и той же энергии элементарных сигналов из трех рассмотренных видов манипуляции наибольшей помехоустойчивостью обладает фазовая и наименьшей — амплитудная. 6.2. Различение двух квазидетерминированных сигналов Так же, как и в задаче обнаружения сигналов, задача различения может быть сформулирована и решена для случая наблюдения квазидетерминированных сигналов, т.е. сигналов со случайными параметрами. Рассмотрим задачу распознавания, когда принимаемые сигналы имеют случайные начальные фазы, т.е. положим 5, (О = ai^i (Ocos (ю,/+ф,), 5, (О = 02^2 (')cos (0)2/ + Ф2 ), где ai,a2,C0i,2 можно убедиться в том, что она возрастает при увеличении от. Физически это объясняется тем, что при добавлении «новых» сигналов возникает дополнительная возможность принятия ошибочных решений относительно них при тех же ошибках относительно ранее использованных сигналов. Контрольные вопросы к главе 6 1. Чем определяются характеристики различения двух детерминированных сигналов? Какие сигналы имеют наилучшие характеристики различения? 2. Че.м структура оптимального приемника для различения двух сигналов отличается от структуры оптимального приемника в задаче различения т сигналов? 3. Что изменяется в структуре оптимального приемника при решении задач различения детерминированных сигналов и сигналов, имеющих случайные неинформативные параметры? 4. Дайте качественную оценку изменения характеристик различения детерминированных сигналов и сигналов, имеющих случайные неинформативные параметры. 157
Глава
7
ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА
7.1. Постановка задачи оценки параметров сигнала В гл. 2 отмечалось, что РТС являются информационными системами, в которых радиосигнал является переносчиком информации, а сама информация закодирована в том или ином параметре сигнала. При приеме радиосигнала одной из важнейших задач является извлечение передаваемой в нем информации. Если параметр радиосигнала, в котором содержится интересующая потребителя информация, постоянен за время наблюдения (время принятия решения), то получение информации о таком параметре называют оценкой параметра сигнала. В статистической теории РТС оцениваемые параметры радиосигнала описываются как случайные величины с заданным законом распределения. Поэтому задача оценки также является статистической задачей, которая формулируется следующим образом. Пусть на отрезке времени [0,Г] принимается реализация представляющая собой аддитивную функцию сигнала
y{t), и по-
мехи п(/): y{() = S{tX\l)+n{i), где
=
fe[0,r],
(7.1)
— вектор информативных параметров сигнала.
подлежащих оцениванию; ц =
— вектор неинформатив-
ных параметров сигнала, которые не представляют интереса для потребителя; л(/) — БГШ с нулевым МО и двусторонней спектральной плотностью В общем случае А. и ц принимают значения из непрерывных многомерных областей
Qj,, на которых заданы априорные ПВ р(Х) и
//(ц). По располагаемым априорным данным и наблюдениям (7.1) необходимо сформировать оценку X информативных параметров в том Ш1И ином смысле наилучшую (оптимальную). Заметим, что в общем случае потребителя не интересует оценка неинформативных параметров ц . 158
7.2. Общее решение задачи оптимального байесовского оценивания параметров сигнала на основе теории статистических решений Рассмотрим сначала задачу оценивания параметров сигнала при отсутствии неинформативных параметров. В теории статистических решений (см. гл. 3) оптимальное байесовское решение ищется для заданной функции потерь в результате минимизации среднего риска (3.6). Для квадратичной функции потерь (3.1) средний риск имеет смысл дисперсии ошибки оценки параметров сигнала, а оптимальное решение X определяется как оценка условного среднего (3.12), т.е.
где Уо^ = {>'(0.
[0.^]} — наблюдаемая реализация.
Для простой функции потерь (3.4) оптимальная оценка — это такое значение параметров X, при котором апостериорная ГШ /^^А,
j мак-
симальна, т.е. l*=arg
(7.3)
Здесь знаком «•» подчеркивается тот факт, что оптимальная оценка при простой функции потерь в общем случае отличается от оптимальной оценки (7.2) при квадратичной функции потерь. Если АПВ
Уо^ j дифференцируема по Я, и ее максимум дости-
гается во внутренней точке области определения оцениваемых параметров, то оценку (7.3) можно найти в результате решения уравнения
ВХ
= 0
х=х*
или эквивалентного ему
ЭХ
= 0. Х = Х*
(7.4)
159
При наличии неинформативных случайных параметров ц с априорной ПВ р (ц.) оптимальная оценка для квадратичной функции потерь определяется выражением (см. гл. 3, формула (3.20)) Я=
(7.5)
где X,(|i.) — условная оценка параметров "к при фиксированных значениях р,, которая определяется при заданном ц (3.21);
—
стериорная ПВ неинформативных параметров. Напомним, что оценки, полученные в результате минимизации условного риска, называются байесовскими. Важной особенностью таких оценок является наличие априорных ПВ р{Х) и 7.3. Оценки максимального правдоподобия Пусть сигнал содержит только информативные параметры А,, однако априорная ПВ их распределения неизвестна. В этом случае для нахождения оценок параметров сигнала широко используют метод максимального правдоподобия (см. гл. 3), при котором ищется оценка максимального правдоподобия , определяемая из решения уравнения правдоподобия (3.17), которое запишем в виде
ЭХ
"
-
Напомним, что условная ПВ р [YQ
j , рассматриваемая как функ-
ция параметров X, называется функцией правдоподобия. Учитывая равенство
Уд^| =
нетрудно увидеть,
что (7.4) и (7.6) отличаются слагаемым Э1п/?(Х)/ЭХ. Следовательно, байесовские оценки при простой функции потерь и оценки максимального правдоподобия совпадают, если априорное распределение р{Х) — равномерное. Иногда бывает удобно вместо функции правдоподобия P{YQ рассматривать отношение правдоподобия, т.е. нормированную функцию 160
рКИ
=-Т7^
(7-7)
Ранее отношение правдоподобия возникало в результате решения задачи обнаружения сигнала (4.4) и широко использовалось в теориях обнаружения и различения сигналов. В отличие от (4.4) в формуле (7.7) подчеркнута зависимость отношения правдоподобия от фиксированного значения оце1шваемого параметра X,. Отношение правдоподобия также можно рассматривать как функцию от детерминированного параметра А.. Так как знаменатель в (7.7) не зависит от X , то отношение правдоподобия р X j , которое здесь для краткости будем записывать как р (X,), можно использовать в уравнении правдоподобия (7.6) вместо функции правдоподобия. Следовательно, оценки максимального правдоподобия можно искать из эквивалентного уравнения Э1пр(Я.) э;1 которое в дальнейшем также будем пзаыъать уравнением правдоподобия. При наличии неинформативных параметров сигнала |Д, оценку максимального правдоподобия следует искать из уравнения правдоподобия (3.25), в которое входит усредненная функция правдоподобия (3.24). Учитывая показанную выше допустимость использования в уравнении правдоподобия отношения правдоподобия, аналогичная процедура замены может быть сделана и для (3.25), т.е. оценку информативных параметров можно искать из уравнения
Э1пр(Х) ЭХ
^ =0, А. = Х„
(7.9)
где р(Х)=
(7.10) —оо
Оценка х„ максимального правдоподобия первоначально была определена эвристически, поэтому, в отличие от байесовских оценок, о ее качестве, исходя только из определения (3.16), ничего определенного нельзя сказать. Для определения свойств оценок максимального прав6—2041
161
доподобия были проведены серьезные исследования, в результате которых доказан ряд важных свойств таких оценок. 7.4. Свойства оценок максимального правдоподобия Свойства оценок максимального правдоподобия получены при отсутствии неинформативных случайных параметров сигнала, поэтому именно для такой задачи оценивания они будут изложены ниже. Кроме того, для простоты изложения рассмотрим задачу оценки скалярного параметра А,. 7.4.1. Несмещенность Рассматривая условную ГШ р
j , можно говорить о наблюде-
т ниях YQ , которые зависят от некоторого неслучайного, но неизвестного, параметра А,. Пусть в результате обработки наблюдений Jq сформирована некоторая оценка Х неизвестного параметра (некоторое наше решение d = u
| = X. о значении оцениваемого параметра). Данная
оценка является функцией от наблюдений, т.е. X^Iq^ j , поэтому она является случайной величиной. Если МО оценки
j равно истинно-
му значению параметра X, то оценка называется несмещенной. Если Л/р] = = Х+Дх (А.), (7.11) то оценка называется смещенной, а Д;^^ — смещением оценки. Смещение оценки в общем случае зависит от фактического значения параметра X. 7.4.2. Эффективность Запишем выражение (7.11) в виде = 0.
(7.12)
Полагая, что функция правдоподобия дифференцируема, продифференцируем (7.12) по X: 162
/
\
/
^dpfrj'X)
^
(7.13)
Учитывая равенство
дХ
' К
И
(7.14)
эх
выражение (7.13) можно записать в виде
(7.15) Используя доказанное в математике неравенство Коши—Буняковского / f(x)g(x)dx причем знак равенства имеет место при (7.16) где константа с не зависит от х, преобразуем (7.15) к виду ч2 ЭХ Ц 1 + А1 (X)).
(7.17)
Первый интеграл в левой части (7.17) определяет дисперсию ошибки оценки X
(7.18) 163
поэтому (7.17) может быть представлено как - 1
+
(X))
(7.19)
ЭХ
Формула (7.19) называется неравенством Рао—Крамера. Если оценка Л. является несмещенной, то неравенство Рао—^Крамера принимает вид 2
(7.20)
3?L
Правые части неравенств (7.19), (7.20) определяют нижние границы для дисперсии ошибки любой смещенной или несмещенной оценки, поэтому их называют границами Рао—Крамера. Несмещенная оценка, для которой в (7.20) имеет место знак равенства, называется эффективной и обозначается ^дф • Пусть Хдф — некоторая эффективная оценка. Тогда по определению эффективной оценки в (7.20) выполняется равенство, а условием, когда неравенство Коши—Буняковского переходит в равенство, является (7.16), которое в рассматриваемой задаче принимает вид (7.21) где {р(Х) — функция, не зависящая от Y^. Равенство (7.21) должно вьшолняться для любого X из областиА
возможных значений Q^. • Но оценка Хдф также принимает значение из той же области й ^ • Поэтому выберем такое значение А, = X,, для которого (7.21) обращается в ноль, т.е. Х = Хдф (^о^ ) • Тогда для (7.21) можно записать
164
Учитывая выражение (7.14) для производной логарифма функции правдоподобия, приходим к следующему результату:
дХ
= 0.
(7.22)
Но (7.22) есть не что иное, как уравнение правдоподобия. Следовательно, если существует эффективная оценка Хдф, то она совпадает с оценкой максимального правдоподобия. Получим эквивалентную форму записи правой части неравенства Рао—Крамера (7.20). Для этого рассмотрим вторую производную 1 дХ '
1 дХ
Умножим обе части полученного выражения на P{YQ
(7.23) и проин-
тегрируем по X и Jq^ или, другими словами, усредним это равенство по плотности р
=М
:
-м
' _ 1
165
= -м Следовательно, неравенство Рао—Крамера (7.20) можно записать в виде -I
-1
I
м
= А(7.24)
Выражение J =M
-i2
Э ЭХ
=
=-м
(7.25)
-
получило название информации по Фишеру. Таким образом, дисперсия любой несмещенной оценки не меньше величины, обратной информации по Фишеру. Обобщение неравенства Рао—Крамера на случай оценки векторного (/я-мерного) параметра X дается следующим образом. Пусть Ri=M
— корреляционная матрица ошибок несме-
щенной оценки а , состоящая из элементов Rjj = М (Х,,- -X,- )(Ху - Xj ) Определим матрицу J
Jy=M
ЭХ,
Uj = 1,т с элементами
ЭХ7
= -Л/
Э21п(р(у|Х)) ЭХ,ЭХ.
. (7.26)
Матрицу J называют информационной матрицей Фишера. Неравенство Рао—Крамера для нижней траницы корреляционной матрицы ошибок имеет вид (7.27) где Jт - 1 — матрица, обратная информационной матрице Фишера J .
166
Если в (7.27) имеет место знак равенства, то оценки д,, / = называются со&иестно эффективными. Применительно к оценке двух параметров X, и Хз, считая эти оценки совместно эффективными, из (7.26), (7.27) получаем _ J22
_
1
1
М
л
=^22=-^-det(j)
М (3in(p(Kj"|x))/ax2) (7.28)
Здесь
— нормированная взаимная корреляционная функция
оценок I j и ^2, det (J ) = J J j J22 ~ -^12 • Из сравнения формул (7.28) и (7.25) следует, что первый сомножитель в правых частях первых двух формул (7.28) совпадает со средним квадратом ошибки эффективной оценки одного параметра. Так как всегда выполняется условие то ясно, что наличие конечной корреляции между оценками параметров всегда приводит к увеличению среднего квадрата ошибки совместно эффективных оценок по сравнению со средним квадратом ошибки эффективной оценки одного параметра. 7.4.3. Достаточность Рассмотрим выражение (7.21), где в левой части равенства от наблюдений YQ зависит условная ПВ
|X,jj, а в правой части на-
блюдениями определяется только оценка Х^ф^Уо^ j . Оценка Я =
)
называется достаточной, если в результате обработки, т.е. при выполнении преобразования g ^Vjf j, из наблюдений YQ полностью извлечена информация об оцениваемом параметре, т.е. никакая другая обработ167
ка наблюдений (никакая другая функция g
j ) не может дать допол-
нительной информации, касающейся оцениваемого параметра X. Необходимое и достаточное условие того, чтобы оценка Х = g
)
была достаточной, состоит в возможности факторизации функции правдоподобия
т.е. ее представления в виде произведения двух сомножителей, один из которых зависит от истинного значения X параметра и его оценки X=g
j , а второй (7.28) зависит только от наблюдений YJ и не за-
висит от X. Достаточную оценку иногда называют достаточной статистикой. 7.5. Свойства оценок случайных параметров 7.5.1. Смещенность оценок случайного параметра Пусть X — случайный параметр с заданной априорной ПВ Рар
' ^ ^ — некоторая его оценка. Вычислим МО оценки М ^
и
рассмотрим разность Д^ =Х—Л/ 1 . Так как X — случайная величина, то Ах также является случайной величиной. Но в соответствии с данным в п. 7.4 определением Д^ — это смещение оценки. Следовательно, для каждого конкретного значения X, возможно кроме одного, получаем ^ О, т.е. оценка случайного параметра при определении (7.11) всегда будет смещенной. О несмещенности оценки случайного параметра можно говорить лищь в среднем, т.е. о выполнении условия М Х-М
= 0.
7.5.2. Граница Рао—Крамера для оценки случайного параметра Пусть по результатам наблюдений Уц^ оценивается параметр сигнала X, представляющий собой СВ. Покажем, что средний квадрат ошибки любой оценки i. при некоторых условиях имеет значение, которое 168
не может быть меньше нижней границы, определяемой обобщенным неравенством Рао—Крамера. Полагаются выполняющимися условия: абсолютно интегрируемы по Я, и Y^-, 2. lim [рар (Х,)Л/[Я.]| = О, где А/[А,] — условное МО ошибки при заданном Я, (7.29) Рассмотрим равенство (7.29). Умножим обе части этого равенства на Рар (Я.), а затем продифференцируем по X,
дХ Проинтегрируем полученное равенство по X
дХ
dXdYl
Согласно условию 2, левая часть данного равенства равна нулю. Следовательно, получаем
ЭХ
dXdY^ = 1.
(7.30)
Учитывая формулу дифференцирования (7.14) представим (7.30) в виде
ЪХ
p{x,Yl)dXdYl
(7.31)
Введем две случайные величины
169
и рассмотрим нормированные случайные величины (7.32)
где Л/
j^
=1
у х ^ р(х, Y^ )d-UY^ ;
ЭХ
Из очевидного неравенства (^н "Лн ) - О следует (7.33) причем знак равенства имеет место в том случае, если 4„=Л„.
(7.34)
Усредняя (7.33) по плотности вероятности
с учетом оп-
ределения (7.32), получаем
Подставляя в данное неравенство выражения (7.32) и учитывая определения случайных величин ^ и Т], приходим к следующему неравенству:
Я
1
ЭХ
причем знак равенства, в соответствии с (7.34), имеет место при
170
(7.35)
=к
дХ
(7.36)
где к — константа, не зависящая от X. Учитывая равенство (7.31), соотношение (7.35) можно представить так:
Я
дХ
p(x,Yl)dXdY^
В левой части полученного неравенства стоит средний квадрат Dj^ ошибки оценки случайного параметра X, поэтому его можно записать в виде ч2
Я
дХ
p[x,Yl)dXdYj
(7.37)
Следовательно, физический смысл полученного неравенства состоит в том, что средний квадрат ошибки любой оценки не превосходит некоторой нижней границы, которая определяется выражением, стоящим в правой части (7.37), и носит название нижней границы Рао— Крамера для оценки случайного параметра. Для оценки случайного параметра X определим понятие эффективной оценки ^эф как оценки, дисперсия ошибки которой достигает нижней границы Рао—Крамера (7.37), т.е.
=
Я
ЭА,
С другой стороны, знак равенства в (7.37) имеет место при выполнении условия (7.34). Проанализируем это условие, для чего продифференцируем (7.36) по X (7.38) Используя формулу Байеса, запишем 171
(7.3)
Подставляя данное соотношение в (7.38) и выполнив преобразования, получаем
Дважды интегрируя данное уравнение, приходим к нормальной апостериорной плотности р
) = ехр {-кХ^ + с,Х + С2 ) .
Следовательно, для эффективной оценки случайного параметра апостериорная ГШ должна быть гауссовской. Для неравенства Рао—Крамера (7.37) можно, также как и в п. 7.4.2, получить эквивалентную форму записи, аналогичную (7.24)
-1
(7.40)
М
Учитывая представление (7.39), для второй производной, входящей в (7.40), запишем -М
-м
дХ'
(7.41)
Здесь первое слагаемое в правой части учитывает информацию, получаемую из результатов наблюдений, и совпадает с введенной в п. 7.4.2 информацией по Фишеру. Второе слагаемое в правой части (7.41) учитывает априорную информа1шю. Приведем без доказательства неравенство Рао—^Крамера при оценке векторного случайного параметра Я, = {Я,,}, i = \,p . Пусть Rj;^ i,j = \,p — корреляционная матрица средних квадратов ошибок, со-
172
ставленная из элементов Л,у =М ( Х , - - Х у ) рицу i = • Jfj^,
i,j = \,р
. Определим мат-
с элементами
ЭХ,
Ъ\ j
= -М
dXidXj
Неравенство Рао—Крамера для нижней границы корреляционной матрицы ошибок имеет вид 1-1
(7.42)
1-1 —обратная матрица. где J~ Если в (7.42) имеет место знак равенства, то оценки случайных параметров называются совместно эффективными. 7.б.Оценка параметров сигнала, принимающих дискретные значения Поло}ким, что оцениваемый параметр X может принимать некоторое конечное множество значений, т.е. А, = {А,,-}, i - \ , p , а неинформативные параметры ц сигнала отсутствуют. 7.6.1. Байесовское решение Для большей наглядности рассмотрим случай оценки одного скалярного параметра X. Пусть заданы априорные вероятности возможных значений оцениваемого параметра (X,) = PjA, = А,,}, так что
1=1
Для получения байесовских решений, например (7.2), (7.3) необходимо рассчитать апостериорные вероятности возможных значений оцениваемого параметра. Используя формулу Байеса, запишем (7.43) где константа с определяется из условия нормировки суммы вероятностей к единице 173
-1 с=
(7.44)
1=1
Подставляя (7.44) в (7.43), получаем следующий алгоритм для вычисления апостериорных вероятностей: (7.45) Располагая апостериорными вероятностями, можно сформировать ту или иную оптимальную оценку. Наиболее просто получается оптимальное решение при простой функции потерь (7.3). Однако (7.3) включает нелинейные операции, что заметно усложняет вычисления. Поэтому, учитывая, что функция нахождения экстремума инвариантна относительно монотонных преобразований, прологарифмируем (7.45) In
\YJ )) = In
{Xi))+In (р (rj"
)) - In i Pap i h )р(Уо
)
Последнее слагаемое в данном выражении является одинаковым для всех апостериорных вероятностей. Поэтому при их сравнении его можно не учитывать. При фиксированных значениях А,, условная ПВ
|А,,-j, с уче-
том (4.18), записывается в виде Т
(7.46) о
J
Вводя обозначение ^(А,,) =
jj и учитывая сделанные
выше замечания, (7.46) можно представить как (7.47) о
т где E(Xj) = j S {t,Xi)dt — энергия сигнала при значении параметра О X = Xi. Из (7.47) следует, что существенной по отношению к принимаемой реализации /е[0,7']} является корреляционная обработка 174
(7.)
оО
с опорным сигналом 5 ( / Д , ) , определенным для значения информационного параметра X, равного А,,. Алгоритм (7.48) по форме аналогичен алгоритму оптимального приемника в теории обнаружения. Однако существенное отличие состоит в том, что в нем опорный сигнал 5 ( / Д / ) в общем случае (для произвольного Xj) не согласован с сигналом S{t,X) в принимаемой реализации, так как X j ^ X . Как следствие этого, действительно "оптимальным приемником" алгоритм (7.48) будет лишь для того значения Xj, которое имеет место у сигнала в принимаемой реализации. Для всех остальных значений Xj алгоритм (7.48) не оптимальный. Такая "неоптимальность" приводит к уменьшению значения корреляционного интефала (7.48), а, следовательно, уменьшению соответствующих апостериорных вероятностей и их логарифмов. Схема оптимального алгоритма оценки параметра X (рис. 7.1) представляет собой многоканальное устройство, в каждом i -м канале которого стоит перемножитель входного колебания на свой опорный сигнал S{t,Xj), интегратор и сумматор. Решающее устройство выбирает максимальное из выходных сигналов каналов и определяет соответствующее оптимальное решение X*.
i
Л')
£
J ln(Vi)
РЫ
arginaxp(X,)
ни Рис. 7.1. Схема многоканального измерителя параметра сигнала при простой функции потерь 175
Некоторое упрощение оптимального устройства оценивания получается в том случае, когда энергия сигнала не зависет от оцениваемых параметров X. Такие параметры сигнала называют неэнергетическими. При этом в (7.47) можно не учитывать последнее слагаемое, а в схеме рис. 7.1 исключить первые сумматоры. Неэнергетическими параметрами сигнала являются частота, фаза, а в ряде случаев и задержка. Параметры сигнала, от которых зависит его энергия, называют энергетическими. К ним относятся амплитуда, длительность сигнала, а в ряде случаев задержка, когда при отдельных ее значениях сигнал выходит за пределы интервала наблюдения [0,Г]. Оптимальный измеритель, приведенный на рис. 7.1, является многоканальным устройством. На практике такие многоканальные устройства широко используются в радиолокационных системах при оценке задержки сигнала и доплеровского смещения частоты. Получим теперь оптимальное решение для квадратичной функции потерь. В этом случае оптимальная оценка, в соответствии с (7.2), должна вычисляться как апостериорное среднее по формуле X=X
) • Следовательно, необходимо вычислить все апостери-
орные вероятности Р^А,,
=
где с определяется в
соответствии с (7.44). 25(лХ.,)/;Уо
/ Л^)
Г
J^/^o
Блок вычжлеши нормирующего коэффиаислтт ^Tfy
т
- S
-
s ,я
exp(*)
Г iexp« "Л
Ui
Рнс. 7.2. Схема многоканального измерителя параметра сигнала при квадратичной функции потерь 176
Существенной операцией для определения этих вероятностей попрежнему остается вычисление корреляционного интеграла (7.48). Однако в дальнейшем необходимо выполнить ряд нелинейных преобразований (экспоненциальное и нормировка, см. (7.44)). На рис. 7.2 приведена схема устройства оценивания параметра сигнала. Из рис. 7.2 следует, что оптимальная система заметно усложняется. Поэтому для решения практических задач чаще используют схему рис. 7.1, формирующую оптимальную оценку для простой функции потерь. 7.6.2. Небайесовское решение. Оценки максимальною правдоподобия Оценки максимального правдоподобия, как следует из п. 7.2, отличаются от байесовских оценок отсутствием априорных вероятностей P{Ki), i = l,pПоэтому схема оптимального устройства оценива^('Дг) ния будет такой же, что и на рис. 7.1, но с отсутствием вторых сумК маторов (с компонентами Я')
1
In [Papj) )• в случае оценки неэнергетических параметров сигнала получаем наиболее простую схему, приведенную на рис. 7.3. Данная схема включает набор корреляторов и блок определения максимального значения.
Рис. 7.3. Схема многоканального из.мерителя параметра сигнала
7.7. Оценка параметров сигнала с непрерывной областью значений 7.7.1. Прямые методы решения задач оценивания параметров сигнала Если область возможных значений параметра сигнала непрерывна, то (как показано в пп. 7.1, 7.2) оптимальные оценки параметров сигнала ищутся в результате решения уравнений (7.4) или (7.8). Рассмотрим оценки максимального правдоподобия и запишем уравнение (7.8) в развернутом виде 177
(7.49)
=0.
дХ
В ряде задач решение данных уравнений удается получить аналитически. Оценка амплитуды радиоимпульса. Пусть описывается соотношением
сигнальная
5 ( / Д ) = #(г-Тз)со5((о/ + ФО), /£[0,7-], /(0=
функция (7.50)
1, при 0 < / < т „ , О, при / < 0 ,
Положим, что все параметры сигнала, кроме амплитуда А , известны. Амплитуда сигнала является энергетическим параметром, поэтому необходимо учитывать зависимость энергии сигнала Е{А) от амплитуды. Тогда уравнение правдоподобия (7.49) принимает вид 2А
J/('-t3)cos(a)?+9o) >'(/)-у/(/-Тз)со8((о/+Фо) dt ЪАL^oo
= 0.
А=А
Оно имеет решение (7.51) о где
^ С.2 I Ej= =jsf{i)dt,
Si(/) = /(/-Хз)со8(ак + (р0) —нормированная сиг-
0
нальная функция. Из (7.51) следует, что оптимальное устройство оценивания представляет собой коррелятор входного колебания с опорным сигналом Рассчитаем характеристики оптимальной оценки амплитуды. Так как (7.51) определяет линейное преобразование входного процесса, то оценка А — случайная величина, распределенная по нормальному закону. Среднее значение оценки 178
м А =М
= А.
о Таким образом, среднее значение оптимальной оценки амплитуды равно ее истинному значению, т.е. оценка амплитуды сигнала - несмещенная (см. п. 7.4.1). / " \2l Дисперсия оценки определяется выражением М уА-М А 2
= л / [л-л]'
м
)
, Т.е. равна дисперсии ошибки оценки амплитуды n2"
'42 ( . - Л ) = Л/
о (7.52)
2£,
Таким образом, дисперсия ошибки оценки амплитуды пропорциональна интенсивности аддитивного шума и обратно пропорциональна длительности импульса. Оценка начальной фазы радиоимпульса. Пусть теперь оцениваемый параметр — начальная фаза (ро сигнала (7.50). Уравнение правдоподобия в этом случае запишется так:
- J 7 (?) 4/-(/- Тз) cos (со/+ Фо) Л= оо
Эфо N,
0.
(7.53)
Здесь учтено, что начальная фаза — это неэнергетический параметр, поэтому второе слагаемое в исходном уравнении (7.49) опущено. Выполнив в (7.53) дифференцирование, находим
т \ y{t)Af{t-l, о
)sin(cof + фо
= О,
-Тз)sin (юг)л или фо = -arctg
0
(7.54) -Тз) cos ((Of) Л
.0 179
Схема оптимального устройства оценки начальной фазы сигнала приведена на рис. 7.4.
cos(e>/) Рис. 7.4. Схема устройства оптимальной оценки начальной фазы сигаала Как следует из рис. 7.4 и формулы (7.54), устройство оценки начальной фазы сигнала есть нелинейное устройство, прямой расчет характеристик которого достаточно сложен. Поэтому отложим на некоторое время расчет характеристик оптимальной оценки начальной фазы сигнала. В других задачах оценивания параметров сигнала аналитическое решение найти не удается. В этом случае реализуются поисковые процедуры нахождения решения уравнения правдоподобия. Проиллюстрируем это на следующих примерах. Оценка временного положения радиоимпульса по огибающей. Временное положение радиоимпульса (7.50) может определяться по запаздыванию Xj огибающей. Параметр запаздывания — это параметр неэнергетический. Поэтому уравнение правдоподобия можно записать в виде (7.55) О
«•^з
Согласно этому выражению, в оптимальном измерителе осуществляется корреляционная обработка между входным колебанием и производной по задержке от огибающей сигнала. При этом производная играет роль опорного сигнала. Нахождение решения уравнения (7.55) может быть реализовано с помощью схемы, приведенной на рис. 7.5. Входная реализация y{t), ге[0,Г] запоминается. Для каждого значения Т3 вычисляется и запоминается значение корреляционного интеграла (на вы180
ходе интегратора схемы рис. 7.5). Далее фиксируется такое Т3, при котором значение отсчета на выходе интегратора переходит через значение «О». Это значение Tj и принимается как решение задачи.
-оп)-
(7.65)
Формулы (7.64), (7.65) определяют сущность метода нахождения оценок параметров сигнала с помощью дискриминаторов. 7.8. Потенциальная точность оценок параметров сигнала Под потенциальной точностью оценок параметров радиосигнала понимают нижнюю границу Рао—Крамера (7.24) для дисперсии ошиб184
ки оценки неслучайного параметра, т.е. оценки максимального правдоподобия. Потенциальная точность характеризует тот предел точности оценивания, который может быть достигнут только в результате обра-
т ботки наблюдаемой реализации YQ , т.е. без учета априорной информации. Потенциальная точность оценки векторного параметра характеризуется корреляционной матрицей ошибок Кдот > обратно пропорциональной информационной матрице Фишера, элементы которой, согласно (7.26), вычисляются как среднее значение вторых производных от функции правдоподобия по оцениваемым параметрам. Учитывая сказанное, рассчитаем потенциальную точность оценок параметров сигналов для задач оценки параметров радиосигнала. Потенциальная точность оценки амплитуды радиоимпульса. Подставляя в общую формулу для отношения правдоподобия (4.15) выражение (7.50), описывающее радиоимпульс, запишем
In (р (>!))=
(7.58)
2 Т
Л. J I ) (/ - Тз) cos (ш/ -1- фо) - 0 , ( г - Тз )cos^ {ш + ф) ^0 0 Дифференцирование (7.58) дважды по А приводит к следующему выражению для потенциальной точности: -1
1
М
(7.59)
О
т где El = jS( {t)dt5,(г)
__No
= /(г-Хз)со5(ш/
+ Фо)-
о Формула (7.59) совпадает с выражением (7.52) для дисперсии ошибки оценки амплитуды радиоимпульса, полученной прямым расчетом для алгоритма оценивания (7.51). Потенциальная точность оценки начальной фазы радиоимпульса. Получим выражение для потенциальной точности оценки начальной фазы радиоимпульса (7.50). Дифференцируя (7.58) дважды по фо, получаем
185
- 1
Щэф --^ошфо
м Э21п{р(фо))/Эф^}
где £ = 0,5.4^1/^
=
2£
2q'
(7.60)
—энергия сигнала; q = EINQ —
отношение сигнал/шум. Из (7.60) следует, что потенциальная точность оценки начальной фазы определяется отношением энергии сигнала к спектральной плотности аддитивного шума и не зависит от формы сигнала. Потенциальная точность оценки задержки радиоимпульса по огибающей. Для расчета потенциальной точности оценки задержки радиоимпульса по огибающей необходимо (7.58) дважды продифференцировать по Хз. Прежде всего заметим, что последнее слагаемое в этом выражении представляет собой энергию сигнала. Если весь радиоимпульс находится в пределах интервала наблюдения [О, Г], то его энергия не зависит от временной задержки. Поэтому производная от этого слагаемого равна нулю. Следовательно, получаем м
Э2
1пр(гз)
ТА щ м о
^3
1Аа т Эх2
оо
dt.
(7.61)
где / ( г - Т з ) = /(г-Тз)со8((ог + (ро)Для проведения дальнейших вычислений в (7.61) запишем выражение (7.62)
о которое не зависит от Т3, если радиоимпульс находится внутри интервала наблюдения [0,Г]. Продифференцируем (7.62) два раза по х,
О
ЭХз
о
(,.63)
С учетом (7.61), (7.63) получаем следующее выражение для потенциальной точности оценки задержки радиоимпульса: 186
- 1
_ Щ
М
1
(7.64)
2
где
dt
= |
(7.65)
/ о
Формула (7.64) известна под название формулы Вудворда (впервые получившего ее) для дисперсии оценки задержки сигнала. Из (7.64) следует, что потенциальная точность оценки временного запаздывания, как и для предыдущих задач, обратно пропорциональна величине отношения сигнал/шум q . Рассмотрим смысл параметра Р. Введем комплексный спектр 5(jai) сигнала S{t)
о и воспользуемся известными соотношениями £ =
=±
о
5(г -Хз) =
J 50(0)2 d(o.
-Хз ) = ^
J 5(yco)ej'^'-^') Л .
Тогда (7.65) преобразуется к виду = J (0^ \S{j(af
dta j l
| 5 ( y a ) f rfto.
(7.66)
Из данного выражения следует, что Р — нормированный второй момент энергетического спектра сигнала, часто используемый в качестве меры ширины частотного спектра сигнала. С учетом этого, из (7.64) следует, что потенциальная точность оценки временного запаздывания огибающей радиоимпульса обратно пропорциональна квадрату ширины спектра сигнала. Потенциальная точность оценки задержки по фазе сигнала. Описание принятого радиоимпульса в виде (7.50) в принципе возможно, но является в определенной степени идеализацией. Если на передающей стороне излучен радиоимпульс 187
то на приемной стороне имеем 5(Г,А,) = 4/-(/-ТЗ)СО5(Ш(Г-ТЗ)+ФО), / е [ 0 , Г ] .
(7.67)
Из (7.67) видно, что задержка t j сигнала сказывается не только на задержке огибающей, но и на изменении фазы сигнала, т.е. Фо = = Фо - оЯз. Если выше решалась задача оценки задержки сигнала по огибающей при известной начальной фазе фо, то это было не вполне корректно, так как в этом случае фаза сигнала не являлась известкой, но есть СВ, которую, в принципе, можно считать неинформативным параметром. Но в этом случае надо решать задачу оценки информативного параметра при наличии неинформативного, т.е. использовать более сложную теорию, которая будет описана в следующих разделах. Рассмотрим теперь другую модельную ситуацию, когда ихтучается синусоидальный сигнал, т.е. / ( / ) = 1, а задержка сигнала оценивается по фазе принятого сигнала. Для корректности будем полагать, что неоднозначность измерения по фазе устранена, т.е. известно целое число периодов высокочастотного колебания, входящих в сох,. Как и выше, для расчета потенциальной точности оценивания рассчитаем
М
1пр(хз)
-2Ааг No
М |>'(/)со8(ш(/-Хз)+фо)л
Следовательно, потенциальная точность оценки задержки по фазе сигнала определяется выражением ^Чзф = АошТз
1
(7.68)
т.е. обратно пропорциональна отношению с/ш q и квадрату несущей частоты сигнала. Поскольку обычно ( о » Р , то точность оценки задержки по фазе сигнала существенно выше точности измерения по задержке огибающей. Физически это вполне понятно, так как при устраненной неоднозначности фазовых измерений точность определяется периодом несущей частоты сигнала. 188
Потенциальная точность оценки задержки радиоимпульса по огибающей и фазе сигнала. Наиболее точное решение задачи оценки задержки радиоимпульса получается, если информацию извлекать как из задержки огибающей, так и из фазы сигнала. Потенциальная точность оценивания в этом случае легко получается из полученных выше результатов и равна ^
(7.69)
Потенциальная точность оценки частоты сигнала. Частота сигнала, также как и его фаза, является неэнергетическим параметром. Поэтому при дифференцировании (7.50) по частоте последнее слагаемое можно не учитывать. Тогда для соответствующей производной получаем следующее выражение: М l i i •1"(р(/))
Nn
Э/-
М j (27U f y{t)Af{t-x,)
cos (со/ + фо (7.70)
о Введем параметр
(т
а = j{2ntys^{t)dt О
/ jS^{t)dt
1/2
(7.71)
/о
представляющий собой среднеквадратическую длительность сигнала. Тогда потенциальная точность оценки частоты опреде;мется выражением -1
М
Nn
1
(7.72)
Таким образом, потенциальная точность оценки частоты обратно пропорциональна отношению сигнал/шум и квадрату среднеквадратической длительности сигнала. Потенциальная точность совместной оценки частоты и задержки сигнала (по огибающей). Рассмотрим часто встречающийся на практике случай, когда совместно оцениваются запаздывание сигнала (по огибающей) и его частота (или, что эквивалентно, доплеровское смещение частоты при известной центральной частоте сигнала 189
/ ^ / о + Л ) - Согласно (7.27) рассчитаем информационную матрицу Фишера. Принимая во внимание определение (7.26), нетрудно увидеть, что J]i » а -^22 . Получим выражение для элементов матрицы Фишера Jl2 =^21
2 N,0
Э/дТз
(7.73) 0
Введем, по аналогии с (7.65), (7.71), параметр (7.74)
/ о Тогда выражение (7.73) может быть представлено в виде Jn=J2\=2q7t.
(7.75)
Определитель информационной матрицы Фишера равен Jnjll-jh
-Aq^(ftf
=4q^(aY
'(ftf
Элементы корреляционной матрицы ошибок совместных оценок временного запаздывания и частоты равны J 22
Дошт, -
D ош /
D
2 ~
а 2q
п 2 ( •^11-^22--^12 2q Jn
ОШХЗ/
J\\J22-J\1
2
2q
(7.76)
•—а
2^
/
ft a}f-[ft)
2
(7.77)
(7.78)
Из этих соотношений видно, что при ft = Q ошибки оценок некоррелированы ( D
i
= О). При этом (7.76) и (7.77) совпадают соответ-
О Ш ТзУ
ственно с (7.64) и (7.72), полученными при раздельных оценках задержки и частоты. При f t ^ O дисперсии ошибок возрастают. 190
При фиксированном отношении сигнал/шум точность оценок задержки и частоты можно повысить за счет увеличения эффективных ширины спектра Р и длительности а радиоимпульса. Однако эти величины не являются полностью независимыми. Известно, что при уменьшении длительности импульса ширина спектра увеличивается, и наоборот. Согласно этому, точность оценки частоты сигнала (или частотного сдвига) можно повысить, только понижая точность оценки временного запаздывания, и наоборот. Рассмотрим условия, при которых можно достигнуть максимальной точности оценки и временного запаздывания и частоты. Прежде всего необходимо обеспечить ft = Q. Далее, одновременный максимум точности оценки временного запаздывания и частоты соответствует минимуму произведения
Отсюда следует, что повьш1ения точности совместных оценок можно достигнуть при увеличении отношения сигнал/шум q или произведения а р , т.е. произведения эффективной длительности сигнала на эффекгивную ширину его спектра. Данную величину называют базой сигнала. Потенциальная точность оценки угловой координаты объекта фазовым методом. Рассмотрим задачу измерения угловой координаты излучающего объекта фаПлоская волна зовым методом. Схема измерения показана на рис. 7.7. Плоская волна падает под углом д относительно нормали к плоскости антенны, состоящей из двух элементов (Л)и Ai), расположенных на расстоянии d друг от друга. Пусть на элементе имеем сигнал
р^^^
^^^^^^^ фазового метода измерения угловой координаты объекта
5] (?)=^cos((0/ + (po).
(7.80)
Тогда сигнал на элементе А2 определяется как 191
2ndsm{-&y S2(/) = ^cos (О^ + Фо-
(7.81)
где X — длина волны, соответствующая несущей частоте сигнала. С учетом аддитивных гауссовских помех наблюдаемые реализации на входах антенных элементов имеют вид (t),
(7.82)
y2{t) = S2{t)+n2{t).
(7.83)
л(/) = 5,(0+«1
Шумы «1 (f) и «2 (/) полагаем независимыми с одинаковыми двусторонними спектральными плотностями NQ/2 . Будем решать задачу оценки угловой координаты по наблюдениям двух сигналов (7.82), (7.83). Потенциальная точность оценки угловой координаты, попрежнему, определяется общим выражением (7.57). Однако, в данной задаче имеем векторное наблюдение у ( ' ) = Ji (О У2 » поэтому необходимо воспользоваться формулой (4.18) для отнощения правдоподобия при векторных наблюдениях. Используя (4.18), запишем ']y,m{t)dt N. .0
+
о
]y2it)S2{t)dt-E
(7.84)
где Е = ^Tjl — энергия сигнала на каждом антенном элементе. Дифференцируя (7.84) два раза по д и усредняя полученный результат, получаем М
-А^ N,О
27tJcos(d)
X
= -2q
2TOfcos(i5)
Следовательно, потенциальная точность оценки угловой координаты фазовым методом равна %=^ошЬ
= 2q[2ndcos{b)/xf
'
Точность оценивания возрастает с ростом отношения d/X . Однако данное отношение ограничено необходимостью обеспечения однозначности фазовых измерений, т.е. должно выполняться условие d cos(^)/A, < 1. С возрастанием угла Ь точность оценивания убывает. 192
Потенциальная точность оценки угловой координаты объекта амплитудным моноимпульсным методом. При амплитудном моноимпульсном методе пеленгации используют две диаграммы направленности антенн, смещенные относительно некоторого равносигнального направления дц (рис. 7.8). При этом сигналы от источИсточншс ника излучения на входах соответствующих антенных элементом имеют вид 51 ) = ^ ^ (тЗ - )
Н + Фо ).
52 (О = ^ ^ ) c o s ( с о / + Фо), где F{x) — функция, описывающая симметричную относительно точки д: = О диаграмму направленности (по амплитуде) антенного элемента, например,
Рис. 7.8. Схема амплитудного метода измерения угловой координаты объекта
В задаче амплитудной пеленгации логарифм отношения правдоподобия (7.84) принимает вид ln(pW) =
jЛ Яп О
{t)dt + ]y2 (0^2 ( / ) Л - 0 , 5 £ , о
(д) (7.85)
где £ , ( д ) =
i
=
^
^
Дифференцируя (7.85) два раза по т^ и усредняя полученный результат, запишем М
2
-А'Т Щ
= -2q
4. 1 \
/
Эд
Эд
^
/
Эд
Следовательно, для потенциальной точности измерения угловой координаты амплитудным методом справедливо выражение 7—2041
193
г Di
=Dошд
ЬЬ
2g \
1 -I
л.
)
(7.86)
дЬ
\
}
Максимальная точность оценки угловой координаты получается, если излучатель находится на равносигнальном направлении t^q . При этом (7.86) принимает вид Чем больше значение производной 3F(x)/3j: диаграммы направленности в точке А" = Дй/2 , тем меньше ошибка оценки угловой координаты. Введем
разностную
=
диаграмму
направленности
=
которую представим в виде функции от аргу-
мента
=
— отклонение угловой координаты
излучателя от
равносигнального направления dg =
Ad/2).
(7.88)
Функция F^ (5d) называется neленгациотой характеристикой, типичный вид которой приведен на 6S рис. 7.9. Продифференцируем (7.88) по д Э^д(бд) Эд Рис. 7.9. Пеленгационная характеристика
_
(7.89)
Э5д
(51»+Ад/2) ЪЫ
ЪР
- At?/2) Э5д
При бг") = О формула (7.89) определяет крутизну 5j, пеленгационной характеристики 5п =
Э^д(д) Эд
5д = 0
= 2
ЬF{^ф) Эд
Следовательно, (7.87) можно записать в виде
194
т.е. потенциальная точность оценки угловой координаты моноимпульсным а.мплитудным методом обратно пропорциональна квадрату крутизны пеленгационной характеристики.
7.9. Оценка параметров сигнала по наблюдениям дискретной выборки Рассмотрим задачу оценки параметров сигнала, когда на интервале [О, Г] наблюдается выборка, состоящая из К равномерно отстоящих друг от друга (с шагом дискретизации Т^) отсчетов y{k)^S{k,%)
+ n{k),
к = \,К,
(7.90)
где 5(А:,Х) = 4/"(А:Г^-Тз)со8(а)А:Г^+*(/), приведена на рис. 7.11. Иг-Тз)/5 /
cos{(ot)
А!)
3L
X
L
Г f
J
ГН
Симафнхшщн
переходя ^fpfi О
sin(o>/) Та4(г-тз)/ат, Рис. 7.11. Схема устройства оценки задержки сигнала со случайной фазой
В схеме присутствуют два квадратурных канала, характерных при приеме сигнала со случайной фазой. В каждом из квадратурных каналов есть ветвь свертка наблюдаемой реализации с опорным сигналом Эу4(/-Тз)/дТз , равным производной огибающей по задержке. Данная ветвь позволяет выявить отличия оценки задержки сигнала от истинного значения задержки в каждом из квадратурных каналов. В процессе перестройки Tj ищется такое ее значение, при котором сигнал на выходе устройства принимает нулевое значение. 7.10.2. Оценка параметров сигнала со случайными амплитудой и начальной фазой Усредненное по амплитуде и фазе отношение правдоподобия определяется выражением (4.51) 200
1
РК) =\ + Е1Щ ехр
(7.101)
Ща{\ + Е1Щ)
где Ё = М[Е\ = ах^а — средняя энергия сигнала; X{t) — огибающая сигнала на выходе оптимального квадратурного приемника, описываемая формулами (7.98). Из приведенной формулы видно, что если оценивается неэнергетический параметр сигнала, например, задержка, то уравнение правдоподобия приводится к виду, совпадающему с (7.99), т.е. фактически анализируется огибающая Х{Т). Таким образом структура оптимального устройства оценивания совпадает с приведенной на рис. 7.10. Однако точность оценивания получается иной. Так как формулы для отношения правдоподобия (7.94) и (7.101) по-разному зависят от отношения с/ш q, то при вычислении потенциальной точности по формуле (4.24) получаются разные результаты.
7.11. Оценка параметров сигнала, наблюдаемого на фоне коррелированного шума Прием сигнала на фоне коррелированного шума приводит к изменению структуры отношения правдоподобия, которое в этом случае согласно (4.29) определяется как
тт 00
dtxdt2 \
При этом уравнение правдоподобия принимает вид ТТ
jiS{ti,X)R-'{t„t2) дХ 0 0
1 yit2)--S{t2,X)
= 1{t,,t2){y{t2)-S{t2,X))dt,dt2
Л1Л2 = =О .
(7.102)
00
Введем импульсную характеристику
(7.103)
о которая удовлетворяет уравнению Фредгольма 1-го рода (4.34)
201
=
(7.104)
о Дифференцируя (7.103) по X, и подставляя результат в (7.102), получаем (7.105)
= 0.
Уравнение (7.105) по структуре аналогично уравнению (7.49). Однако вместо производной сигнала по оцениваемому параметру используется производная функции Т|(гД) (7.103) по тому же параметру. Основная трудность в получении оценок параметров на основе уравнения (7.105) является нахождение функции Т1(/Д) в результате решения уравнения Фредгольма (4.34). Ряд примеров таких функций приведен в [5]. В частности, для гауссовского шума с экспоненциальной функцией корреляции =
(7.106)
имеем (7.107) az Рассматривая в качестве оцениваемого параметра амплитуду сигнала, т.е. Х = а, для радиоимпульса (7.50), формула (7.107) принимает вид 1+
0)
(г - Тз )cos (шг + фо ) .
(7.108)
/
Подставив (7.108) в (7.105) и выполнив необходимые преобразования, получаем алгоритм оптимального оценивания амплитуды сигнала 2 ^ а = — ]>'(/)^(/-Тз)со8((0?+фо)Л.
"^и о Данный алгоритм совпадает с (7.51), полученным для оценки амплитуда сигнала, наблюдаемого на фоне белого шума, если, как и ранее, обозначить 51(г) = у4(/-Хз)со8((о/ + Фо), £"1 =
. Аналогично О
202
можно показать, что алгоритм оценки начальной фазы сигнала (7.50) также не меняется в случае наблюдения сигнала на фоне шума с корреляционной функцией (7.106) и определяется выражением (7.54).
Контрольные вопросы к главе 7 1.
При использовании метода максимального правдоподобия для оценивания параметра Я, детерминированной или случайной величиной является данный параметр? 2. Что такое нижняя граница Рао—Крамера в теории оценок максимального правдоподобия и как она определяется? 3. Что такое потенциальная точность оценок параметров сигнала? 4. Как зависит потенциальная точность оценок параметров сигнал от отношения сигнал/шум? 5. В чем достоинство оценок максимального правдоподобия? 6. Какие оценки называются эффективными? 7. Что такое неэнергетический параметр сигнала и как свойство «неэнергетического параметра» используется при получении оценок максимального правдоподобия? 8. Чем байесовские оценки параметров сигнала отличаются от оценок максимального правдоподобия? 9. Что такое уравнение правдоподобия и какова его роль в теории оценок параметров сигнала? 10. Можно ли рассчитать и как потенциальную точность оценок информативных параметров сигнала при наличии неинформативных случайных параметров?
203
Г л а в а
8
РАЗРЕШЕНИЕ СИГНАЛОВ
Многие РТС работают в условиях, когда на входе приемника присутствуют несколько сигналов, и в этих условиях он должен решать возложенные на него задачи. Типичным примером этого являются радиолокационные системы (РЛС), работающие в условиях многоцелевой обстановки. Возможность раздельного наблюдения близко расположенных целей и раздельного измерения параметров каждой цели называют разрешающей способностью РЛС. Так как измерение параметров цели связано с измерение тех или иных параметров принимаемого сигнала, а от каждой цели приходит свой сигнал, то можно говорить о разрешении сигналов, под которым понимают возможность раздельного наблюдения и измерения параметров сигналов. Говоря о разрешении сигналов, всегда имеется в виду разрешение по тем или иным параметрам сигнала. Если сигналы приходят с разных направлений, то говорят о разрешении сигналов по направлению. Если сигналы имеют разную задержку, то говорят о разрешении сигналов по задержке (или по дальности в РЛС) и т.д. В статистической теории РТС под измерением параметров сигнала понимают их оценивание. При этом сформулированную выше задачу разрешения сигналов можно расширить, включив в нее параметр обнаружения О (см. гл. 4). Такую задачу часто называют «разрешение— обнаружение», для подчеркивания ее отличия от задачи «разрешение— измерение», когда разрешение проводят по параметрам самих принимаемых сигналов.
8.1. «Разрешение—обнаружение» сигналов Задача «разрешение—обнаружение», по сути, является задачей обнаружения сигнала 5] (/) на фоне мешающих сигналов Sj{t), i = 2,m и аддитивного шума n{t). Рассмотрим, например, задачу с двумя сигналами, которую сформулируем следующим образом. На интервале [0,Г] наблюдается реализация
где S] (/), $2 (t) — известные сигналы; n{t) — БГШ с нулевым МО и двусторонней спектральной плотностью NQ/I', — случайный пара204
метр, принимающий значения О с априорной вероятностью Р„р (0) или IcP^pO). Ставится задача оценки параметра д , т.е. принятия решения о том, присутствует или нет сигаал (г) в наблюдаемой реализации. Отметим, что в данной постановке полагается, что при отсутствии сигнала S] (/) наблюдения y{t), тем не менее, содержат сигнал S2 {t). Как и в гл. 2, имеем двухальтернативную задачу обнаружения, поэтому общее решение дается выражениями (4.3), (4.4), т.е. прир(Уо^)>А, «О
Ь = 0,
прир(7о^)(УоПд = о) = Л е х р ] - — / 5 2 (/)(j'(/)-0,552 (0)^/ оо Подставив (8.2) в (8.1) и выполнив необходимые преобразования, получим Т
P(YJ)=CXP
т 7-
JS, ( / ) ( j . ( 0 - 0 , 5 5 , ( / ) ) Л / 5 , (0^2 {t)dt N00 О о
. (8.3)
Сравнение (8.3) с формулой (4.15), полученной для задачи обнаружения сигнала на фоне только БГШ, показывает, что они отличаются вторым слагаемым, стоящим под знаком экспоненты. Данное слагаемое определяег взаимную корреляцию двух сигналов (юаимную энергию 205
г £•[2 =
Если сигналы не коррелированны, то оно не О
влияет на процедуру и характеристики обнаружения. Для коррелированных сигналов характеристики обнаружения изменяются. Переходя от сравнения отношения правдоподобия (8.3) с порогом к сравнению соответствующих логарифмов, запишем Що
No
+
^'
щ
(8.4)
Из (8.4) видно, что структура обнаружителя сигнала не изменилась. Изменилось лишь значение порога обнаружения, и это изменение тем больше, чем больше корреляция между сигналами. Рассмотренную выше задачу «разрешения—обнаружения» можно расширить, введя дополнительные альтернативы. Например, можно рассмотреть следующие возможные альтернативы: n{t),
д = 0;
5,(0+и(/),
1^ = 1;
5,(/) + 5 2 ( 0 + П(/), 1^ = 3. При этом возникает необходимость оценивать четыре значения случайного параметра 6 , что приводит к многоканальной схеме оптимального устройства оценивания, как это имело место, например, в задаче различения т сигналов (см. п. 6.3).
8.2. «Разрешение—измерение» сигналов Рассмотрим теперь задачу разрешения сигналов по параметрам. В соответствии с принятым выше определением необходимо рассмотреть задачу оценки параметров X, сигнала, наблюдаемого на фоне аддитивного шума n{t) и мешающего сигнала, который имеет ту же структуру S(/,X,'), но иное значение оцениваемого параметра. Таким образом, имеем наблюдение y ( 0 = 5(/,>.)+S(r,A.')+«(0. t^[0,T].
(8.5)
В гл. 7 показано, что для отыскания оценок параметров сигнала часто используют функцию правдоподобия или нормированное ее значение. Нормировка при этом возможна на любую функцию, не зависящую 206
от оцениваемых параметров. Воспользуемся такой же нормировкой, что и в п. 8.1. Введем функцию
t
о
о
. (8.6)
Так же как и в задаче «разрешение—обнаружение», формула (8.6) отличается от аналогачного выражения (7.46) в задаче оценки параметров сигнала, наблюдаемого только на фоне БГШ, вторым слагаемым, стоящим под знаком экспоненты. Данное слагаемое определяет взаимную корреляцию сигнала и его копии, смещенной по оцениваемым параметрам, т.е. г
\\i{X,X') = iS{t,X)S{tX)dt.
(8
О
Таким образом, функция
определяет характеристики ре-
шения задачи «разрешение—измерения», а точнее, их отличие от обычной задачи «измерения» параметров сигналов, т.е. их оценки при наблюдении сигнала лишь на фоне БГШ. Поэтому эта функция может быть принята как мера разрешающей способности сигналов по параметрам. Обычно для сигналов с конечной энергией используют нормированную функцию 1
(8.8)
^о где Е = jS^
— энергия сигнала.
Функцию \|/(А,,А,'), определенную в соответствии с (8.8), называют функцией неопределенности сигнала S{t,X) по параметру
"к.
Для узкополосных радиосигналов, когда допустимо описание в форме комплексных амплитуд
S{t,X),
функция неопределенности мо-
жет быть представлена в виде 1
jS{t,X)S*{tX)dt
(8.9) 207
Перейдем от рассмотрения отношения правдоподобия (8.6) к его логарифму, т.е. рассмотрим функцию
т
т
о
Q
u{T) = ^\S{t,^y{t)-Q,SS{t,X))dt-^\S{a)S{tX)dt.
(8.11)
Фиксируем значения параметров X, и А,'. В гл. 4 введено понятие оптимального приемника, реализующего корреляционную обработку наблюдаемой реализации >»(?) и опорного сигнала 5(f) (4.22), т.е.
•^0 О
или с использованием импульсной характеристики ^ ( г - т ) = 5('г) =
(8.11)
Подставляя (8.5) в (8.11), запишем выражение для среднего значения процесса на выходе оптимального приемника Л^Кп (0] =
^0 0
=
о ^0 0
= ^}5(t,X)5(T.X)rfx+-^JS(T,A.)5(T,X>. ^0 0 ^0 0
(8.12)
Из (8.12) видно, что отклик на выходе согласованного с сигналом 5 (г, X) фильтра (согласованного приемника) при поступлении на его вход двух сигналов отличается от аналогичного отклика при поступлении на вход приемника одного сигнала таким же слагаемым, что (8.6). Следовательно, корреляционный интеграл (8.7) определяет также и характеристики оптимального корреляционного приемника при наличии на его входе двух сигналов. еще раз подтверждает возможность использования функции (8.8) в качестве меры разрешающей способности сигналов. Количественно разрешающую способность определяют по каждой компоненте X, (при всех остальных значениях bXj = О,J ^i) как значе208
ние ДА,-, соответствующее сечению функции неопределенности горизонтальной плоскостью на уровне 0,5.
8.3. Функция неопределенности сигнала по задержке и частоте Функция неопределенности сигнала была впервые введена Вудвордом для временных сигналов в радиолокации. В качестве оцениваемых параметров сигнала рассматриваются задержка и доплеровское смещение частоты Уд. Для узкополосного сигнала Тз'/д) = ^
- Тз )cos ((шо + (Од )f-I-ф(/- Тз))
и его смещенной по параметрам т, и
копии
5(г.т,+5Тз,/д+5/д) =
= A(t-Xj
- § т з ) с 0 5 ( ( ( 0 о +{0д +6й)д)/ + (р(г-Тз - 6 X 3 ) )
введем комплексные амплитуды
Тогда, учитывая определение (8.9), функцию неопределенности по задержке и частоте (доплеровскому смещению частоты) запищем в виде (8.13)
где Е = ^ j s ( o r ( r ) c / f Функция неопределенности (8.13) обладает следующими свойствами: наибольшее значение функция неопределенности принимает при = 1;
(8.14)
объем тела неопределенности
(8X3,^д) не зависит от вида сиг-
6 X 3 = 0 ,
5 / д = 0 ,
\|/{0,0)
нала и равен 209
(8.15) Соотношение (8.15) является наиболее общей формулировкой принципа неопределенности, согласно которому никакие виды модуляции не могут изменить объема тела неопределенности. При разных видах модуляции радиосигнала функция неопределенности может деформироваться, однако при этом должны оставаться в силе равенства (8.14) и (8.15). Поэтому, если сжать функцию неопределенности по оси т^, она расширяется по оси Д , и наоборот, при сжатии ее по оси получаем расширение по оси т^. Если требуется получить узкий пик в начале координат, то весь остальной объем функции неопределенности должен быть распределен в плоскости t j и /д в тонком слое на большой площади или в виде серии пиков. Наличие последних означает возникновение неоднозначности оценки задержи и доплеровского смещения частоты. При решении вопроса о выборе формы сигнала необходимо учитывать следующие требования: получение высокой точности измерения параметров Х3 и / д ; отсутствие (по возможности) неоднозначности оценки; обеспечение высокой разрешающей способности. Рассмотрим вопрос о связи функции неопределенности и точности оценки параметров Тз и У],. В п. 7.8 бьию показано, что потенциальная точность совместной оценки задержки сигнала по огибающей равна м а частоты —
Э2 1пр(Хз,/д) где Tj и
берутся в точках истинных значений данных параметров.
Рассмотрим Л/ Дифференцируя (8.8) два раза по Тз, получаем 210
(8.16)
asrt
5Тз=0,8/д=0
Сопоставляя (8.16) и (8.17), видим, что они с точностью до константы Е совпадают. Но вторая производная функции неопределенности характеризует ширину ее главного пика по соответствующему параметру: чем больше значение модуля производной, тем уже пик. Следовательно, ширина главного пика функции неопределенности по параметрам Тз и /д пропорциональна потенциальной точности измерения данных параметров. Разрешающая способность по t j и определяется как значения отклонений б^з, б/'д, при которых значение функции неопределенности равно 0,5 в сечениях по соответствующим осям. Прямоугольный радиоимпульс. В качестве примера рассмотрим прямоугольный радиоимпульс 5(г,Х) = 4А(?-Тз)со5(((о+а)д) f + Фо), f e [ 0 , r ] , /(0=
1,
при
О,
при / < 0 ,
Комплексная амплитуда сигнала равна S(/,X)= Тогда (8.13) принимает вид ,-JK' Л 8ш(718/д ( т „ - | 5 1 : , | ) ) / з й / д Т „ | ,
|5т,| < х„;
О,
|5Тз|>х„.
Сечения функции неопределенности \|/(бХз,6/д) в двух плоскостях определяются выражениями ^^
''
[О,
|бтз|>т„;
У (О' 5/д) = |sin (тсбУдХи)/ii5/,t„ и приведены на рис. 8.1 и 8.2.
211
'
Рис. 8.1. Сечение функции неопределенности плоскостью ^ д = О
2/т, •
Рис. 8.2. Сечение функции неопределеннос1и плоскостью бт, = О
Сечение функции неопределенности на уровне 0,5 горизонтальной плоскостью дают значения разрешающей способности Атз=т„, Д/д=1,2/т„.
(8.18)
Из (8.18) следует, что при уменьшении длительности импульса t„ разрешающая способность по задержке увеличивается, а по частоте — уменьшается, и наоборот. Это наглядно можно проиллюстрировать графиками функции неопределенности в сечении горизонтальной плоскостью на уровне 0,5 (рис. 8.3).
Рнс. 8 3 . Сечения функции неопределенностью горизонтальной плоскостью на уровне 0,5: а — для «длинного» радиоимпульса; б — д л я «короткого» радиоимпульса
212
Отметим, что два сигнала не могут быть разрешены, если значения разности времен запаздывания и частот между ними лежат внутри заштрихованной области. Радиоимпульс с линейной частотной модуляцией. Как показано в п. 7.8, для увеличения потенциальной точности совместной оценки задержки и частоты сигнала используют сигналы с большой базой, для которых произведение ширины спектра сигнала А/",, на его длительность A7J, много больше единицы: (8.19)
5 = Д/"сД7'с » 1 .
Величину В называют базой сигнала. Сигналы с В = 1 называются простыми, а сигналы, для которых выполняется условие (8.19), — сложными. Сложные сигналы получаются в результате дополнительной модуляции сигнала. Одним из типов сложных сигналов является импульсный сигнал с дополнительной частотной модуляцией. Рассмотрим случай линейной частотной модуляции (ЛЧМ), для которой / ( / ) = /о-н4Г„/Л„,
(8.20)
где /о — начальное значение частоты; — девиация частоты. При линейном законе изменения частоты (8.20) его фаза изменяется по квадратичному закону:
Следовательно, комплексная амплитуда для ЛЧМ-импульса
=
(8.21)
Подставляя (8.21) в (8.13) и выполняя интегрирование, получаем sin(ji(8/^ +Дг„5хз/х„)(т„ -|8Тз|)) ¥{8Хз,5/Д) =
0,
5тз|т„.
В сечениях 8/д = О и Stj = О функция неопределенности описывается выражениями 213
8т(71(А/-„5Тз/Тн)(т„-|5Тз|))
бТз 'Ги;
8т(л8/дТ„) ¥(0,8/д) =
Зависимость функции неопределенности
\|/(0,^д)
в сечении
5Хз = О не изменилась и имеет вид, приведенный на рис. 8.2. График функции неопределенности в сечении \|/(6Тз,0) приведен на рис. 8.4, откуда видно, что для ЛЧМимпульса разрешающая способность по задержке определяется величиной девиации частоты , а не длительностью импульса. На рис. 8.5 приведен® горизонРис. 8.4. Сечение функции неопретальное сечение функции неопредеделенности плоскостью 5/], = О ленности ЛЧМ-импульса на уровне 0,5. Как видно из рисунка, дополнительная частотная модуляция приводит к повороту главного лепестка функции неопределенности, что вызывает уменьшение ширины пика в сечении ^ д = О.
>51,
Рис. 8.5. Горизонтальное сечение функции неопределенности ЛЧМ-импулъса на уровне 0,5
214
При прохождении ЛЧМ-импульса через оптимальный приемник (сглаживающий фильтр) на выходе получается «сжатый импульс». Если определить длительность выходного отклика по уровню 0,5 от максимального значения отклика, то можно показать, что она равна Введем коэффициент сжатия ^сж -
АТвых
1.2
Теперь разрешающую способность по задержке можно представить в виде ДХз=1,2/ДГм=х„Дсж-
(8.22)
Сопоставляя (8.22) с (8.18), видим, что разрешающая способность у импульсного сигнала с ЛЧМ в К ^ выше, чем у обычного импульсного сигнала. Разрешающая способность по частоте у обоих сигналов одинакова и обратно пропорциональна длительности импульса.
Контрольные вопросы к главе 8 1. Что понимается под разрешением сигналов? 2. Что понимается под «разрешением—обнаружением», «разрешением— измерением»? 3. Что такое функция неопределенности сигнала и какова ее роль? 4. Какими свойствами обладает функщ1я неопределенности сигнала? 5. От чего зависят характеристики разрешения сигналов? 6. Какие сигналы называются сложными и почему? 7. Как связана функция неопределенности сигнала с потенциальной точностью измерения его параметров?
215
Глава
9
ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ
Выше рассматривались задачи статистической теории радиосистем, в которых оцениваемые параметры не меняются за время наблюдения. Если они меняются, то имеем задачу оценивания случайных процессов. В отличие от задачи оценивания постоянных параметров сигнала, когда оценка формируется в конце заданного интервала времени Г , в задачах оценивания случайных процессов возможны различные комбинации между текущим моментом времени, т.е. тем моментом, когда проведено последнее наблюдение, и моментом, для которого формируется оценка процесса. В соответствии с этим различают следующие задачи и типы оценок; если оценка ^(г) процесса
формируется для того же момента
времени t , для которого получено последнее наблюдение, то говорят о задаче фильтрации, а соответствующие оценки называют фильтрационными',
если формируется оценка ^ ( t + i ) при наблюдениях y ( v ) , v e [ 0 , ? ] , то при т > О задача оценивания называется экстраполяцией, а соответствующая оценка называется экстраполированной', если в описанной выше задаче полагается т < 0 , то такая задача оценивания называется интерполяцией, а оценки — интерполяционными. Наиболее часто встречаются задачи фильтрации случайных процессов. При этом можно ставить и решать задачу фильтрации как самого сигнала S{t), т.е. полагать = так и задачу фильтрации информационного процесса, т.е. принимать = Первая постановка более характерна для задачи обнаружения сигнала при его описании случайным процессом [7]. Вторая — для задачи извлечения информации из детерминированного или квазидетерминированного сигнала, т.е. по сути, для оценки меняющихся во времени параметров сигнала. Круг задач, связанных фильтрацией случайных информационных процессов более широк и разнообразен для практических приложений, поэтому сформулируем постановку данной задачи более подробно. Пусть на интервале времени [О,/] наблюдается реализация 216
>'(0 = 5 { / Д ( 0 ) + « ( 0 . где S[t,X{t))—сигнал,
(9.1)
несущий информационный процесс Х,(/); л(г)
— помеха. Используя наблюдения (9.1) и априорную информацию о статистических характеристиках процессов
и л(f), необходимо сформиро-
вать оценку наилучшую в том или ином смысле. Заметим, что в сформулированную постановку вписываются и задачи оценивания постоянных параметров сигнала. При этом формировать фильтрационную оценку можно в каждый текущий момент времени t , а потребителю выдавать искомую оценку лишь в конечный момент г = Г . Поэтому можно говорить, что задача фильтрации случайных процессов является более общей по сравнению со всеми описанными ранее задачами. В дальнейшем, в основном, будет рассматриваться задача фильтрации, когда помеха в (9.1) является БГШ с нулевым МО и двусторонней спектральной плотностью NQ/2. Обобщения на случай коррелированных и негауссовских помех будут даны ниже. Априорная информация о фильтруемом процессе может задаваться в разной форме (см. гл. 1): в виде многомерных плотностей вероятности или дифференциальных уравнений с заданными начальными условиями. При использовании второго описания наиболее часто используют представление X{l) в виде компоненты многомерного марковского процесса, т.е. полагают X(f) = cx(/), где х(/) — «-мерный вектор, изменение во времени которого описывается дифференциальным уравнением 1-го порядка, например, линейным: ^
at
где r ^ ( t ) =
=
=
(9-2)
— ш-мерный вектор БГШ с корреляционной матрицей s^/25(x).
Наиболее полные и интересные результаты в теории фильтрации получены при описании сообщений марковскими процессами (см. п. 1.8). Поэтому в дальнейшем будет рассматриваться именно это направление общей теории фильтрации. 217
в каждый фиксированный момент времени t значение случайного процесса х(г) является векторной случайной величиной, которая описывается ПВ
В п. 1.8.3 показано, что для марковского процесса
(9.2) эволюция ПВ p{iL,t) во времени описывается уравнением Фоккера—^Планка—Колмогорова (1.79). Плотность вероятности p{x,t)
назы-
вают априорной, так как она описывает априорные статистические сведения о процессе х (;). После того как проведены какие-либо наблюдения
, связанные с процессом х(г), статистические сведения о дан-
ном процессе изменились, и они уже содержатся в апостериорной ПВ (АПВ) р [х Уд j . Естественно ожидать, что АПВ, также как и априорная ПВ, описывается некоторым дифференциальным уравнением. Если такое уравнение получим, то будем располагать всей имеющейся статистической информацией процессе х(г) при заданных наблюдениях YQ , на основе которой далее можно искать те или иные оптимальные оценки этого процесса.
9.1. Уравнение для апостериорной плотности вероятности непрерывных процессов Рассмотрим для простоты задачу фильтрации скалярного непрерывного марковского процесса X{t)-x{t), полагая, что наблюдается аддитивная смесь сигнала и БГШ Введем в рассмотрение совместную ПВ и, используя правило умножения вероятностей, представим ее в виде
где р
YQ j — АЛВ, которую для дальнейшего использования удобно
записать в виде
Jq j , подчеркивающим ее явную зависимость от
времени. Пусть на интервале времени проведено дополнительное наблюдение реализации y{t). 218
Введем приращение 6У =
и рассмот-
рим приращение ^^ps апостериорной ПВ, обусловленное приращениями 5/ и bY:
+
^Papsa "^^PapsH • Здесь ^Papsa — приращение АПВ, обусловленное изменением сообщения (динамики) за время 8/, а
— приращение АПВ, обуслов-
ленное приращением наблюдений 5 7 . При 6f-»0 приращение bp^psj^ ПВ марковского процесса X{t) описывается уравнением Фоккера—^Планка—^Колмогорова (1.75), которое можно представить в обобщенном виде
'^Paps д = [Paps '
)).
где /.(*) — дифференциальный оператор Фоккера—^Планка—^Колмогорова (1.75). Можно показать [9, 13], что при 6?
О приращение АПВ bp^psn
описывается соотношением Ф,apsH (9.3) Таким образом, изменение АПВ описывается интегро-дифференциальным уравнением ф(х,/|Уо')
dt
=L (9.4)
219
с начальным условием /7(А-,0|о) = Рд^ (А,), где Рар{^)—априорная ПВ распределения X в момент времени / = О. Первое слагаемое в правой части (9.4) ведет к расширению апостериорного распределения, обусловленному изменением марковского процесса а второе слагаемое — к его сужению, что вызвано накоплением сведений о фильтруемом процессе в результате наблюдения реализации y{t). Уравнение (9.4) впервые получено русским математиком Р. Л. Стратоновичем, поэтому в отечественной литературе оно часто называется уравнением Стратонавта. Для векторного процесса х ( ; ) , например (9.2), и векторных наблюдений y ( 0 = S(X,0+n{0,
X{t) = cx{t), M [ n ( / ) n ^ ( / + T)] = N„/28(T)
уравнение Стратоновича имеет вид •=L
dt
L
I (9.5)
с начальным условием /7(х,0|0) = р^р (х) и F ( x , / ) = S^ (cx,/)2N;;' {y(/)-0,5S(cx,f)). Уравнение (9.5) описывает эволюцию во времени АПВ и будет использовано в последующих материалах книги для синтеза алгоритмов оптимальной фильтрации. Здесь же рассмотрим один частный случай, когда фильтруемые параметры не меняются за время наблюдения, т.е. dx/dt = 0. В этом случае оператор Фоккера—^Планка—^Колмогорова L ( * ) s O и уравнение (9.5) принимает вид
dt Представим данное уравнение в эквивалентном виде
220
из которого следует очевидное решение t = Фар (з^)ехр lF{x,t)dt (9.6) где Рдр (х) —априорная ПВ оцениваемых параметров. В (9.6) экспоненциальный сомножитель — это отношение правдоподобия р(х) (4.17). Таким образом, приходим к известному результату, который заключается в том, что апостериорная ПВ может быть представлена (с точностью до константы) в виде произведения априорной ПВ Papi^) на отношение правдоподобия р(х). Положим, что в качестве постоянного оцен1шаемого параметра выбрана задержка сигнала, который в общем виде может быть записан как 5 ( М з ) = a/f
- Тз )cos (шо ( / - Хз)),
т.е. рассматривается задача оценки задержки сигнала, входящей в его огибающую A(t) и фазу. Полагая, что задержка сигнала не влияет на его энергию, уравнение (9.6) в рассматриваемом случае могут быть записаны в виде 2 jy{t)aA{t-x,)cos{(Oo{t-x,))dt N,0 0
. (9.7)
Используя известное представление c o s ( a - P ) = cos(a)cos(P)+ +sin(a)sin(P), преобразуем (9.7) к виду
'2а -(cos (а^Тз N,
)+cos ((ОоХз
(Мз)) ,(9.8)
221
где ) = Ь ( О ^ ( ' - "Сз )cos ( с о о ? , 0 1 Xsit,^,)^ ly{t)A{t-x^)sm{o^t)dt
о
—
квадратурные
=
составляющие
огибающей
X(t,Xj) =
(t,Х3) на выходе согласованного фильтра. Так как щх^ определяет составляющую фазы сигнала, то, по ана-
логии с (7.54), определим оценку этой фазы соотношением Ф = О'о'^з (') = arctg
(/, Тз )/Х, (/, Тз).
Тогда (9.8) можно записать в виде Р(-Сз|io ) = ср^р (-Гз)ехр ^Х{t,x.,)cos((йо Фиксируем
момент
времени
/=Г
(Тз -Х3 (г))) и
рассмотрим'
(9.9) АПВ
Уо^ 1 = /(Хз) как функцию х^. Из (9.9) следует, что поведение / ( X j ) определяется медленно меняющейся функцией Х(Т,х^) и быстро меняющейся периодической функцией
cos^cOq (Х^ -Х^
(/))) . Нали-
чие периодической функции приводит к периодическому характеру АПВ, вид которой схематично приведен на рис. 9.1. Многомодальность АПВ приводит к проблеме неоднозначности измерений. Это обстоятельство обусловлено попыткой оценивать задержку сигнала по фазе несущего колебания. Полученная в п. 7.8 оценка потенциальной точности задержки сигнала по фазе несущего колебания относятся к случаю, когда оценка нахоРис. 9.1. Апостч)иорная плотность дится в пределах главного маквероятности симума АПВ, т.е. решена проблема неоднозначности фазовых измерений. Отметим также, что АПВ, 222
приведенная на рис. 9.1, является негауссовской. Поэтому рассматриваемые в последующих главах приближенные алгоритмы фильтрации, основанные на гауссовской аппроксимации АПВ, в таких задачах оказываются неработоспособными.
9.2. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов При синтезе дискретных систем фильтрации считаются заданными дискретные уравнения ((1.83) или (1.84)), описывающие фильтруемый процесс, и уравнения наблюдения в дискретном времени, например, (7.90). Рассмотрим сначала задачу фильтрации одномерного МП . Используя правило умножения вероятностей, запишем два эквивалентных выражения для условной совместной ПВ
Выразим из этого выражения апостериорную ПВ
|io ) = ср[Ук К
(9-10)
где с — константа, не зависящая от X. Так как наблюдение у/^ при фиксированном Х/^. зависит лишь от шума /'(>'Jt
П)^ и не зависит от предыдущих наблюдений )=
Y^'^, то
l^it) • Таким образом, уравнение (9.10) можно
записать в виде р
\Yi ) = ср ( л
(а.,
).
(9.11)
При к = 0, т.е. при отсутствии наблюдений, следует полагать >0 ) = Условная ПВ
(9.12) может быть найдена из уравнения наблю-
дения (7.90). Ранее (в задачах обнаружения и оценки параметров сигнала) мы имели дело, например (4.13), с условной ПВ совокупности наблюдаемых отсчетов при заданном значении оцениваемого параметра. В задачах фильтрации всегда будем иметь дело с условной ПВ одного отсчета наблюдения при фиксированном значении оцениваемого про223
цесса в этом отсчете. Данная условная ПВ, рассматриваемая как функция Xi^, называется одношаговой функцией правдоподобия. Качественно такую ситуацию можно пояснить следующим образом. Ранее говорилось об оценке постоянных за время наблюдения параметров. Пусть, например, это был один параметр д . Условная ПВ р ( j ^ |д) любого отсчета наблюдений (k = l,N), рассматриваемая как функция параметра тЗ, была одной и той же. Поэтому, задание некоторого значения полностью определяло как одношаговую функцию р
, так и
«многошаговую» функцию P{YI^ | d j . Иная ситуация в задаче фильтрации, когда оцениваемый параметр Х/^ меняется в каждый момент времени. В этом случае одношаговая функция правдоподобия зависит от одного параметра
. В то же время, условная ПВ совокуп-
ности из N наблюдения зависит от N параметров: Xj, А,2 , ...Д^ Поэтому в данном случае необходимо было бы рассматривать функцию
,Х,2
j . В принципе это возможно, но
существенно усложняет проведение необходимых выкладок. Условная ПВ р
j марковского процесса
, входящая в
(9.11), определяется уравнением, аналогичным (1.71): 1
.
(913)
где р{Хк l^t-l) — ПВ переходов МП, которая может быть найдена из уравнения, описывающего фильтруемый процесс Х/^, например (1.84). Для расчета ПВ p{Xi^
используется полученная на предыду-
щем шаге расчетов АПВ p{X|^_\ Iq*"'j, в которой учтены данные, полученные из всех наблюдений, соответствующих интервалу времени [0,Л-1], и ПВ
переходов МП Л,. Следовательно, при за-
данных наблюдениях Ig^
плотность вероятности p(Xjc Yq ' j для
момента времени к рассчитывается только по априорным сведениям о 224
фильтруемом процессе. Поэтому ее иногда называют экстраполированной ПВ или плотностью вероятности экстраполированных значений процесса. Уравнения (9.11)—(9.13) позволяют рекуррентно вычислять значение АЛВ р
YQ j на л -м шаге по соответствующему значению той
же ПВ на предыдущем щаге. Начальным условием для такой рекуррентной процедуры служит (9.12). Обобщение задачи дискретной фильтрации на векторный случай дается простой заменой в (9.11)—(9.13) скалярных процессов на векторные. Полагая, как и выше, Х,^ = сх^^, где вектор х^^ описывается, например, уравнением (1.83), запишем р(х, |y* ) = ср(у,
|Yo*-').
J
(9.14)
.
/>(хо|Уо°) = /^.р(хо).
(9-15) (9.16)
9.3. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов при наличии случайных неинформативных параметров сигнала Рассмотрим задачу дискретной фильтрации, полагая, что сигнал, несущий сообщение содержит неинформативные параметры ji, которые постоянны за время наблюдения. В этом случае наблюдаемый процесс имеет вид Рассмотрение скалярного наблюдения не ограничивает общности рассматриваемого подхода, а выбрано для простоты изложения. Дополним постановку задачи соотношением = , отображающим условие постоянства неинформативных параметров. Введем расширенный вектор z^ =
и соответствующую ему
АПВ 8—2041
225
Поскольку нас интересует только фильтрация процесса обходимо получить выражение для АПВ р^х/^
» то не-
j . По свойству согла-
сованности ПВ имеем И Д С другой стороны, используя формулу Байеса, запишем (9.18) Подставляя (9.18) в (9.17), получаем р[ч ll'o* ) = с, J \ 4 ^ \ i ) p a p ( i ^ A = = q \p(Yq \4>v)Pap {Ч )Рар (fA)^ = = СхРар {Ч )J/'(J0 \4,v)Pap
= СхРар {ч)р[Уо
l^t)-
(9-1
где р(>0
=
\ч^\>)Рар
•
Аналогичные выражения можно записать для АПВ )=
К),
(9.20) j: (9.21) (9.22)
ц Представим АПВ р х^
j в виде, аналогичном (9.14) (9.23)
Из сопоставления выражений (9.19)-(9.23), получаем р{Ук
226
) = P{Yo
)/P(YO~'
l^i ) =
= \p[Yi l\p(Yt' \ч^у)рар (^)^ti • (9-24) й / и уравнение (9.23) аналогично уравнению (9.14) с той лишь разницей, что вместо одношаговой условной ПВ в него входит усредненная по априорной ПВ неинформативных параметров функция (9.24). Уравнение (9.23) необходимо дополнить уравнением (9.15) для ПВ экстраполированных значении pXxj^
которое не зависит от не-
информативных параметров ц . Таким образом, уравнения (9.21)—(9.24) и (9.15) дают общее решение задачи оптимальной нелинейной фильтрации при наличии случайных неинформативных параметров сигнала, которые не меняются за время наблюдения.
9.4. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов при наличии случайных неинформативных параметров сигнала Как следует из предыдущего матерала, при наличии неинформативных параметров сигнала в уравнениях для апостериорной ПВ возникает усредненная условная ПВ наблюдаемой реализации при заданном значении фильтруемого процесса. Аналогичная ситуация возникает и в задаче фильтрации непрерывных процессов. Для доказательства этого факта определим наблюдаемый процесс как =
A / [ « ( 0 / I ( / + t ) ] = 7VO/28(X)
и рассмотрим совместную АПВ
(9.25)
Уд j , для которой можно запи-
сать уравнение Стратоновича (9.5) для расширенного вектора z =
(9.26) 227
где L(*) — оператор Фоккера—Планка—^Колмогорова для процесса
Э1п Э/
;(9.27)
р(Уо'|х,ц) = е х р | р ( х , ц , х ) ^ т — отношение правдоподобия. Проинтегрируем (9.26) по ц
Л (9.28) где (9.29) Используя формулу Байеса, запишем =
=
(x,fi) .
(9.30)
Представим производную, входяшую в (9.27), в виде Э1п(р(Уо'|х.ц))
1
Эр(Уо'Кц)
Э/
p(l'o'Kn)
^^
(9.31)
Подставим (9.30)—(9.31) в (9.29) и выполним необходимые преобразования
Эр(Уо'|х) дг ^
228
Э1п(р(Уо'|х))
.
,
(9.32)
где
(.)
Ц
Э1п(р(Уо'|х)) (9.34)
dt
Подстановка (9.32) в (9.28) дает следующее уравнение для АПВ:
F(x,0- J
(9.35) J
Уравнение (9.35) совместно с формулами (9.33)—(9.34) дают решение задачи оптимальной фильтрации при наличии неинформативных параметров сигнала, не меняющихся за время наблюдения. Данное уравнение отличается от аналогичного уравнения (9.5), справедливого при отсутствии неинформативных параметров сигнала, функцией которая теперь определяется в соответствии с (9.33)—(9.34).
9.5. Рекуррентные уравнения для апостериорной плотности вероятности дискретных процессов, зависящих от случайных параметров В ряде задач фильтруемый процесс Xj(. может быть задан с точностью до вектора а случайных постоянных параметров, т.е. х/^ ( а ) . Такая ситуация возникает, например, когда в формируюищх уравнениях (1.83) или (1.84) те или иные матрицы, входящие в правую часть уравнений, зависят от а . Рассмотрим для примера линейную модель сообщения (1.84), которую запишем в виде =
= где
(9-36)
—векторный ДБГШ с матрицей дисперсий D^ ( а ) .
Для вектора случайных величин а можно записать тривиальное уравнение а(/о) = а о .
(9-37) 229
Положим,
что
наблюдается
реализация
Л / К п т ] =-DnSfe». где Xi ( а ) =
(Х^ (а))+л;^,
(а).
Как и в п. 9.3, введем расширенный вектор z^ =
Ч
и соответст-
вующую ему АПВ p^zj^ lo^j. Чтобы вектор z^ был марковским процессом, уточним модель (9.36) с учетом (9.37) в виде Ч = где
(«/t-i
(а*-1 )+G;t_,
,
— векторный ДБГШ с матрицей дисперсий D^ ( « t - i ) • Для МП Ъ)^ справедливы уравнения для АПВ (9.14)—(9.15) с заме-
ной х^ на z^. Однако во многих задачах фильтрации в большей степени интересна не оценка расширенного вектора z^, а оценка процесса Х;^, которая может быть найдена из АПВ p ^ j ^ Уо*)- Поэтому получим выражение для данной АПВ. Для этого рассмотрим АПВ
j для расширен-
ного вектора и, используя формулу Байеса, представим ее в виде р[ч |Yo*) = ^ ' ( х ь а л
|Yo* ) .
) = /'(xt
(9.38)
Интегрируя (9.38) по a , получаем p(x;t|Yo*)= J
.
(9.39)
—«0
Здесь
Yo
j — условная АПВ вектора x^ при заданных на-
блюдениях Yg и фиксированных значениях параметра а . Фиксация параметров а приводит уравнение (9.36) к разряду уравнений с известными параметрами, а сообщение Xj^ ( а ) имеет известные статистические характеристики. Поэтому АПВ р^)^ соответствует рассмотрению задачи фильтрации сообщений с известными параметрами, и для нее можно использовать рекуррентные урав230
нения, аналогичные (9.14) — (9.16), но при условии фиксированного значения а , т.е. р [ ч |Yo^a* ) = ср{ук
)/'(x;t
1
),
(9.40) , (9.41)
Получим выражение для
Yq j , входящей в (9.39). Для этого
рассмотрим условную ГШ р^а^.у;^ Y q " ' j . Используя формулу Байеса, запишем
Из полученной формулы следует, что =
(9.42)
где с — константа, не зависящая от а , которая может быть найдена в результате интегрирования (9.42) по а с=-
1
С учетом постоянства параметров а , что отображается уравнением (9.37), справедливы следующие выражения
(9.43) Последнее соотношение в (9.43) следует, в частности, из (9.15), если его записать для вектора а . С учетом (9.43) формула (9.42) принимает вид 231
р ( щ |Yo^ ) =
)
и является рекуррентным уравнением для расчета АПВ
(9.44) Yq j с
начальным условием /'(ao|Yo°) = ;'ap{a).
(9.45)
Уравнения (9.39)—(9.41) и (9.44), (9.45) дают решение поставленной задачи фильтрации сообщения ( а ) , зависящего от вектора а случайных параметров. Применение данных уравнений для получения оценок к/^ будет подробно рассмотрено в гл. 13.
9.6. Рекуррентные уравнения для апостериорных плотностей вероятности непрерывных процессов, зависящих от случайных параметров Рассмотрим аналогичную задачу фильтрации непрерывного сообщения
зависящего от вектора а случайных (постоянных) па-
раметров, описываемых априорной ПВ Papioi)- Процесс А,(/,а) в пространстве состояний зададим вектором х ( / , а ) , так что А,(/,а) = = сх(/,а) и ^ = F(r,a)x-bG(?,a)^(/), x(fo) = xo.
at
(9.46)
где ^(r) — w-мерный вектор БГШ с корреляционной матрицей R^(T) = S^(a)/25(x). На вход приемника поступает реализация =
(9.47)
где п(/) —БГШ с двусторонней спектральной плотностью NQII. Задание а в виде случайных величин предполагает их постоянство за время наблюдения, что математически может быть записано как ^
at
= 0 , а ( 0 ) = ао,
где Oq — случайная величина. 232
(9.48)
уравнения (9.46)—(9.48) описывают расширенный МП z =
.По-
этому для апостериорной ПВ p{z YQ j можно записать уравнение Стратоновича (9.5) F{z,t)-\F{z,t)p{z,t\Yl)dz
г
p[z,t\Yl)
J (9.49)
с начальным условием р[г,0\0) = р^{г)
= рар{\)рар{а.)
и
/'(z,r) = F ( x ( a ) , / ) = S ( c x ( a ) , r ) 2 V ( > ' ( 0 - 0 . 5 S ( c x ( a ) , r ) ) . ( 9 . 5 0 ) В (9.49) Z(*) — оператор Фоккера—Планка—Колмогорова для процесса х ( 0 . так как составляющая дифференциального оператора, соответствующая компоненте а , тождественно равна нулю вследствие постоянства данных параметров (9.48). Рассмотрим условную ПВ /^^х } о , а | . Поскольку при фиксированном значении а процесс х(г), описываемый уравнением (9.46) является марковским с известными статистическими характеристиками, то для АПВ
Jo'.aj можно записать уравнение Стратоновича (9.5) ф(х|Уо',а)
I f
,
(9.51)
X
J
где L(*) — тот же дифференциальный оператор, что и в (9.49); F ( x ( a ) , / ) —описывается тем же соотношением, что и в (9.50). Используя формулу Байеса, запишем
233
Подставляя (9.52) в (9.49) и выполняя необходимые преобразования, получим 4>(ж|Уо'.а)
ф(а|Уо')
,
.
I (
,
\\ (
F ( x ( a ) , / ) - J /'(х(а),/)/>(х,а|Уо')ли/а р(х|Уо',а)р(а|Уо').(9.53) J Домножим (9.51) на / ) | а У о | , вычтем полученное уравнение из (9.53), а результат вычитания сократим на
Уо
. В результате по-
лучим уравнение ф(а|Уо') dt
.ж - I F{x(a),/)/7(x,a|yo')rfau/a / ^ ( а к ' ) . х,а
(9.54)
Обозначим (9.55) X
и запишем (9.54) в виде
dt
F{a,t)-
J ^ ( х ( а ) , / ) / > ( х , а | У о ' ) л ^ а ;;(а|Уо'). (9.56)
Уравнение (9.56) эквивалентно уравнению
din p ( a l o ) ) ч ^ = F ( a , / ) - J F(x(a),/)p(x,ay(|)'(г) = А,(/)+Я(?). При описании Я,(/) в виде гауссовского МП (например, (10.1)) и шума n(t) - как белого гауссовского, для синтеза оптимальной линейной следящей системы можно использовать приведенные выше уравнения оптимальной фильтрации. 10.1.4. Примеры синтеза оптимальных линейных систем фильтрации П р и м е р ю . ! . Рассмотрим задачу синтеза оптимального линейного фильтра системы частотной автоподстройки. Полагаем, что дискриминатор полностью задан, отношение сигнал/шум достаточно велико, так что ошибка слежения мала и не выходит за пределы линейного участка дискриминационной характеристики. Запишем воздействие на входе эквивалентной следящей системы в виде = где —
БГШ с нулевым МО и спектральной плотностью No/2. Частоту
П(/) будем описывать случайным процессом со спектральной плотностью Sn(a>)=
^ . co^^co'^+a^j
Процесс
с заданной спектральной плотностью может быть
отображен
в
пространстве
состояний
двухкомпонентным
МП
х(/) = l^i
, который описывается следующими дифференциальными
уравнениями: fi(0 = ;c,(0. ^
=
^
=
где %{t) — БГШ с спектральной плотностью
(10.23) .
Запишем (10.23) в векторном виде 245
л dt где F =
(10.24) 0
1
0 -а н и й Н = | 1 0|.
; G=
0 а U
; в рассматриваемом примере матрица наблюде-
Из общих уравнений (10.14)—(10.16), с учетом (10.24), получаем следующий алгоритм оптимальной фильтрации
^
=
at
(10.25,
NQ
dt
Щ
Схема оптимальной системы фильтрации приведена на рис. 10.7, V
1 Р
а Рис. 10.7. Схема оптимальной системы фильтрации Рассмотрим установившийся режим работы следящей системы (/ -»оо). в этом случае систему уравнений (10.25) можно решить аналитически, что приводит к следующим выражениям для дисперсий ошибок фильтрации:
246
Параметр р — безразмерный и определяет отношение энергетических характеристик (спектральных плотностей) фильтруемого процесса (сообщения) и аддитивного шума. Поэтому его можно назвать отношением сообщение/шум. В установившемся режиме коэффициенты усиления К^, К2 постоянны, а операторный коэффициент передачи фильтра в контуре следящей системы (рис. 10.7) определяется выражением К2 у / : , + р+а р
+ р+а
Таким образом, в установившемся режиме в контуре следящей системы оптимальным фильтром является фильтр, состоящий из интегратора и пропорционально-интегрирующего фильтра. Оптимальные значения параметров фильтра зависят от параметра сообщения а и от отношения сообщение/шум р . Коэффициент передачи К[р)
сглаживающего фильтра в контуре
реальной следящей системы (в данном случае системы частотной автоподстройки (рис. 10.2, 10.3)) связан с коэффициентом передачи АГф (/7) синтезированной системы выражением К{р) = . Следовательно, структура фильтра остается той же самой (интегратор и пропорционально-интегрирующий фильтр), а изменяется лишь коэффициент усиления на нулевой частоте. v П р и м е р 10.2. Рассмотрим задачу фильтрации речевого сообщения передаваемому по каналу связи с БГШ. В гл. 2 представлена одна из моделей такого сообщения в виде двухкомпонентного процесса, описываемого уравнениями (2.28), которые для удобства приведем еще раз: ^
= -а,jci + QQ [-а2Х2 + а г ^ ( / ) ] ,
= -Uj^cj + «2^(О.
где ^(г) —БГШ с двусторонней спектральной плотностью 5^/2 . Спектральная плотность процесса А. = xj описывается выражением
247
2(0)2+а?)(шЧа22)" На вход приемника поступает реализация >»(/) = X(?)+л(/), где л (/) — БГШ с двусторонней спектральной плотностью NQ j l . Введем вектор x(/) = |jci x i ^ , который, также как и в предыдущем примере, описывается векторным уравнением, однако с иными матричными коэффициентами, а именно: F=
-«1
-«200
0
-02
, G = «200 «2
(10.26)
Матрица наблюдений по-прежнему равна Н = |l О . Подставляя (10.26) в общие уравнения оптимальной фильтрации (10.14)—(10.16), получаем (10.27)
dt ^
dt
NQ
= - 2 a , A2
(10.28)
Nr.
Схема оптимальной линейной фильтрации, описываемая уравнениями (10.27), приведена на рис. 10.8. Уравнения (10.28) для дисперсий опшбок фильтрации в установившемся режиме в данной задаче также могут быть решены аналитически. Однако выражения получаются достаточно громоздкими и здесь не приводятся. Операторный коэффициент передачи фильтра в контуре следящей системы рис. 10.8 определяется выражением 248
М 4 i p ) =
{р+а\){р
+ а2У
Z ГТ"
где Р = 0 2 ( 1 - 0 0 ^ 2 Д О -
JL-i
Из первого уравнения (10.28) в установившемся режиме следует, что Р = а2(1-ео^2Д1) =
—
Рис. 10.8. Схема оптимальной линейной фильтрации
= a2(l-eoA2/Ai) = ^ + a i + a 2 > 0 . Следовательно, 7р = 1/Р > О и определяет постоянную времени форсирующего звена в сглаживающем фильтре оптимальной следящей системы. 10.1.5. Оптимальный фильтр Винера Кроме дифференциальной формы представления оптимальных линейных фильтров возможна интегральная форма, предложенная Н. Винером и названая фильтром Винера. Интегральное уравнение Винера, В своей работе [18] Н. Винер рассматривал задачу фильтрации СП Х(/) по наблюдению y{t)
на ин-
тервале времени [О,/], связанному известной зависимостью с фильтруемым процессом. Предполагалось, что известны корреляционная функция
наблюдаемого процесса y{t) и взаимная корреляци-
онная функция Rxyihyh) фильтруемого процесса Х,(/) и Наблюдений . МО наблюдаемого процесса полагалось равным нулю. Оптимальный фильтр искался в классе линейных фильтров, формирующих следующую оценку:
о по критерию минимума среднего квадрата ошибки ч2'
(мо-^чо)
(10.30) 249
в отличие от постановки задачи синтеза фильтра Калмана, Н. Винер не задавал модель наблюдений в форме (10.2), а требовал лишь зависимость наблюдений от фильтруемого процесса, причем известным образом, который определяется заданием корреляционных функций Ry{tx,t2) и Rxy{h>t2). Другим отличием постановки задачи синтеза по Н. Винеру являются априорные сведения, которые определяются заданием корреляционных функций Данные априорные сведения ослаблены по отношению к априорным сведениям в постановке задачи калмановской фильтрации. Так, например, задание указанных взаимных корреляционных функций совсем не говорит о том, что процессы А,(/) и
являются гауссовскими. В общем случае они могут быть негаус-
совскими. Для таких негауссовских процессов также можно искать наилучшую оценку вида (10.29), т.е. в классе линейных фильтров. Однако, это совсем не значит, что такая оценка будет наилучшей из всех возможных, т.е. «абсолютно» оптимальной. Можно искать «нелинейные» оценки, т.е. оценки, полученные в результате нелинейной обработки наблюдений, которые будут иметь средний квадрат ошибки (10.30) меньше, чем линейные оценки (10.29). Еще одно отличие постановки задачи по Винеру заключается в том, что помеха может быть коррелированным процессом. В п. 1.7 показано (см. «Следствие для условных плотностей вероятности»), что линейная зависимость условного математического ожидания Х= \ "Kpi^YQ^dX от наблюдений y{t)
является неизбежным
следствием лишь для совместно гауссовских процессов
и
что имеет место в постановке задачи синтеза по Калману. Поэтому, лишь в этом случае линейный фильтр является «абсолютно» оптимальным, т.е. нельзя найти никакой другой системы обработки наблюдений , которая имела бы меньшее значения среднего квадрата ошибки. Заметим, что в оригинальной работе Н. Винера рассматривался обобщенный временной интервал [а, б] и оценка X* (t) искалась для произвольного момента времени i . Такая постановка охватывает как задачи фильтрации (/ = 6), так и задачи интерполяции (/ < 6 ) и экстраполяции (г > 6). В данной главе рассматриваются лишь задача фильтрации, поэтому временной интервал определен как [0,f]. 250
Преобразование (10.29) является линейным оператором над наблюдениями >'(t), т е [о,/], который обозначим как е(Уо') = Г (О = ]g{t,x)yix)dz. о
(10.31)
Докажем, что минимум среднего квадрата ошибки (10.30) достигается для такой импульсной характеристики
" соответствующе-
го ей оператора GQ ^Jq j , при которых выполняется условие
при всех v e [о,/], (10.32) где ^ ( 0 = Go ( y j ) =
(О = Ь о
•
(10.33)
О
Физический смысл условия (10.32) заключается в том, что при оптимальной оценке (10.33) текущая ошибка 5Я,(/) = Х,(/)-Х(/) не коррелированна со всеми наблюдениями 3'(v), v е [0,t]. Пусть gonr — импульсная характеристика, при которой достигается минимум среднего квадрата ошибки (10.30), а G^
• соот-
ветствующий ей линейный оператор. Положим, что go^.
при ко-
торой (10.30) достигает минимума, отлична от go(/,T), для которой выполняется условие (10.32), и
=
ствии с определением (10.31) можно записать
- В соответ=
Запишем выражение для минимального значения среднего квадрата ошибки •^min
(0=м
= л/ (10.34) 251
Так
как
по
определению
некоррелированна
оператора с любым
GQ ^Jq )
разность
наблюдением
;'(v),
V е [0,f], то она некоррелированна и с любой линейной комбинацией от ^ ( v ) , в том числе и с SG^Fq j . Следовательно: М
(10.35)
= 0.
Раскрывая правую часть (10.34) и учитывая (10.35), получаем 2"
,(0=л/
(10.36)
Первое слагаемое в правой части полученного выражения есть средний квадрат ошибки при использовании оператора GQ (Iq ) , а второе слагаемое — неотрицательно. В то же время, в левой части (10.36) стоит минимальное значение среднего квадрата ошибки. Это возможно, если SG^Jq j =
так как в противном случае использование оператора
Gq ^Уф j давало бы меньшее значение среднего квадрата ошибки. Следовательно GQ ^Iq ) = ^oirr
)» что и завершает доказательство.
При оптимальном операторе Gonrl^o) средний квадрат ошибки
Выполнив в условии (10.32) необходимые преобразования, с учетом равенства GQ (Iq j = G^m (Iq ) " приведенных в постановке задачи определений корреляционных функций, получаем =
о
ve[O,0.
(10.37)
Таким образом, оптимальная импульсная характеристика находится из интегрального уравнения (10.37), которое называют нением Винера, а импульсную характеристику ?опт = S^B зывают импульсной характеристикой фильтра Винера. 252
на-
в общем виде уравнение (10.37) не имеет аналитического решения. Стационарный фильтр Винера. Рассмотрим важный частный случай, когда процессы Я,(г) и >'(f) — стационарны и стационарно связаны в широком смысле (см. определения стационарности в п. 1.6). Это означает, что корреляционные функции Ry{t^,t2) и RxyihJz) зависят не от абсолютных значений моментов времени t^ и t i , ^ лишь от разности х = / 2 - ' i . т . е . имеем Ry{x) и Кроме того, будем полагать, что интервал наблюдения бесконечный. При этом пределы интегрирования в (10.37) следует положить ±оо. Однако, рассматривая синтез физически реализуемых фильтров, пределы интегрирования полагаем [0,°°]. При стационарном входном процессе y{t) бесконечном интервале наблюдения выходной процесс фильтра будет стационарным в широком смысле, и оптимальный фильтр можно отыскивать в классе линейных фильтров с постоянными параметрами, т.е. стационарных фильтров. Учитывая принятые допущения, уравнение (10.37) принимает вид %W=J^onT(vK(T-vVv. (10.38) о Это интегральное уравнение для нахождения оптимальной импульсной характеристики называется уравнением Винера—Хопфа. Его решение возможно для процессов, спектральная плотность которых описывается дробно-рациональной функцией
Процесс с дробно-рациональным спектром можно сформировать на выходе физически реализуемого фильтра с коэффициентом передачи Ку (jco), таким, что 253
^
(jco)
=5.((0),
(10.40)
при подаче на его вход белого шума с единичной спектральной плотностью. Заметим, что сформулированным условиям удовлетворяет процесс, отображаемый в пространстве состояний многомерным марковским процессом, например (9.2), с постоянными коэффициентами сноса и диффузии. Один из возможных методов решения уравнения Винера—^Хопфа основан на введении обеляющего фильтра, который преобразует входной процесс j ( / ) со спектральной плотностью (10.39) в процесс с равномерной спектральной плотностью, т.е. некоррелированный процесс. При этом, если операция такого преобразования является обратимой, то из процесса Т|(') в результате обратного преобразования можно получить исходный процесс ^(f). Это, в частности, означает, что при таких преобразованиях не происходит потери информации, и, следовательно, не теряется свойство оптимальности фильтра (более подробно о свойствах обратимых преобразований см. п. 4.2.7). Из (10.40) следует, что в качестве обеляющего фильтра можно выбрать линейный фильтр с частотной характеристикой 4'(jto) = l/i:^(jo))
(10.41)
и соответствующей ей импульсной характеристикой g4< ( t ) . Оптимальный стационарный фильтр Винера ищется в виде последовательного соединения двух линейных фильтров (рис. 10.9): обеляющего с коэффициентом передачи 4'(ja)) (импульсная характеристика giji (т)) и линейного фильтра
Оптимальный фндыр Винера
ЯО!
Обеляющий фильтре Ч'О®)
ЫО
Лшкйный фильтр с к
Цг)
Рис. 10.9. Оптимальный фильтр Винера в форме последовательного соединения двух фильтров
С коэффициентом передачи ArjjA(j(o)
(импульсная
рактеристика ^^ф
ха-
)•
Из определения коэффициентов передачи и
4'(j(o) следует, что процесс Tl(/) имеет единичную спектральную плотность, и, следовательно, его функция корреляции имеет вид Л,(х) = 1.6(х). 254
Определим теперь коэффициент передачи А'лф(]ш)
линейного
фильтра в схеме рис. 10.9. На выходе фильтра необходимо получить оптимальную оценку
при условии, что на его входе действует про-
цесс Л (О- Импульсная характеристика такого линейного фильтра должна удовлетворять уравнению Винера—Хопфа, но при входном процессе Г|(/). Поэтому Лхп W = J f л ф
( х - =
о
I ( v ) 5 ( t - v ) r f v = ^лф ( t ) . т S О.
о
При т < 0 импульсную характеристику физически реализуемого фильтра можно доопределить как ^дф (т) = О. Рассчитаем корреляционную функцию Щ = J
gy
1 g4'(v).>'(/-x-v)t/v HRXy {r+v)dv
= J
(-v)^x.^,
( t - v ) ^ v
.
(10.42)
Выражение (10.42) описывает прохождение через линейный фильтр с импульсной характеристикой g^/ ( - v ) (коэффициент передачи *I'*(j®)) процесса
^
= RXy{t). Такое преобразование можно запи-
сать в частотной области как
5x,,(jQ)) = 4'*(ja))Sxy(®)-
•^Хл (j®) определяется как преобразование Фурье от
Спектр
(х), т.е.
о
поэтому он содержит составляющую
все полюса которой на-
ходятся в левой полуплоскости комплексной переменной j(0, и составляющую реализуемого
(jco) с полюсами в правой полуплоскости. Для физически фильтра
необходимо
взять
только
составляющую 255
SxT|(j.(/)=:сх(/). Векторный процесс х(/) описывается априорным уравнением (9.2). Оптимальная оценка х(/) по критерию минимума дисперсии ошибки фильтрации в сформулированной задаче определяется уравнением фильтра Калмана (10.14), которое представим в виде di - = {¥{t)-K{t)H{t)c)i
+ K{t)y{t),i{0)
= x„
(10.45)
где K ( 0 = D, { t ) H { t y 2 N Q \ Введем переходную матрицу Ф(/,т), удовлетворяющую однородному уравнению 256
с начальным условием Ф(T,T) = I • Полагая, как и выше, х(0) = О, решение неоднородного матричного уравнения (10.45) можно записать через переходную матрицу Ф(г,т) в виде х ( 0 = }ф(г,т)К(т)у(1)^т =
о
= } ф ( / , т ) 0 , {х)Н {ту2Щ'у{х)с1х
о
= ]g{t,x)y{T)dx,
о
где ё(/,т) = Ф(г,т)Вх(т)Я(х)с^2ЛГо' —матричная импульсная характеристика оптимального линейного фильтра. Учитывая связь между вектором х и процессом X,(г), запишем
о = }сФ(/,т)В, {х)Н (т)с^2ЛГ„-'у (х) J t =
о
о
(i,x)y(x)dx,
где ^оп^(/,х) = сФ(/,т)Ох(т)с^Я(г)2ЛГо' — импульсная характеристика филыра Винера для рассматриваемой задачи. 10.2. Оптимальная линейная фильтрация дискретных процессов 10.2.1. Рекуррентные алгоритмы оптимальной дискретной линейной фильтрации Так же, как и в задачах непрерывной фильтрации, задача синтеза оптимальной линейной дискретной фильтрации может быть решена строго, исходя из рекуррентных уравнений для АПВ (9.11), (9.13). Пусть сообщение описывается скалярным уравнением (10.46)
9—2041
257
где
— ДБГШ с дисперсией
; Xq — начальное значение фильт-
руемого процесса, которое полагаем распределенным по гауссовскому закону с нулевым МО и дисперсией о^ • На вход системы обработки поступают дискретные отсчеты (10.47) где rij^ —ДБГШ с дисперсией а ^ . Из уравнения наблюдения (10.47) следует, что условная ПВ р ) при фиксированном значении Х^ является гауссовской с МО, равным Я^Я,^, и дисперсией а^ 1
{Ук-HkKf
(10.48)
Плотность вероятности переходов
), в соответствии с
42ml
(10.46), также является гауссовской с МО
"
дисперсией
GI_X<S\ , т.е.
)=
I,
(10.49)
где с — нормировочная константа. Рассмотрим формулу (9.13) на первом шаге к = \. Под знаком интеграла этой формулы имеем:
^Хд Iq" j =
(^о ) — гауссовская функция;
/'(^il^o) — гауссовская функция. Так как интеграл от гауссовской функции есть также гауссовская функция, то условная ПВ р ^Xj }(f j — гауссовская. Далее обратимся к уравнению (9.11), из которого следует, что апостериорная ПВ /^^Xi Fq) — также гауссовская функция, поскольку она получается в результате перемножения двух гауссовских функций. Рассуждая аналогичным образом далее, можно утверждать, что АПВ р 258
j — гауссовская. Обозначим
(1.)
и запишем очевидное выражение для гауссовской функции \2
1
(10.51)
exp
Подставим (10.49), (10.51) в (9.13) и выполним интегрирование ехр
{К
.2^ (^Л-1 - ^ ( t - l )
ехр
=
2DK,k-l
(10.52)
= С2 ехр 10.48) в (9.11), получа Подставляя (10.52), (10.48) получаем
[4-Fk-{Kk4
{Ук-НМ^
В то же время, как было показано выше, ПВ р
(10.53)
Уд* j — гауссов-
ская с МО и дисперсией, определяемыми формулами (10.50) для момента времени Л. Поэтому можно записать выражение, аналогичное (10.51): = с^ ехр
1 1>К,к 2
DK,k (10.54)
Из соотношения (10.54) следует, что оценка ент при
а величина
— это коэффици-
— коэффициент при
kl/l.Bu259
деляя аналогичные члены в показателе экспоненты (10.53) и приравнивая коэффициенты при указанных членах, получаем h =
^
(
у
п 1
,
)
,
(10.55)
2
1
(10.56)
Уравнение (10.55) описывает структуру оптимальной дискретной системы фильтрации, а уравнение (10.56) — изменение дисперсии ошибки фильтрации и коэффициента усиления синтезированной системы Kk=Hk^-
(10.57)
о; В (10.56) можно выделить переменную (10.58) которая по своей структуре повторяет регулярную компоненту фильтруемого процесса (10.46). Значение называют экстраполированной оценкой. Рассчитаем дисперсию экстраполированной оценки =м Г>К,к=М {h-hf =
(10.59)
С учетом (10.59) уравнение для дисперсии ошибки фильтрации (10.56) можно записать в виде (10.60) Из
(10.60)
>
следует,
что
всегда
выполняется
неравенство
> т.е. дисперсия ошибки экстраполяции всегда больше дис-
персии ошибки фильтрации. Физически это объясняется тем, что экстраполированная оценка
формируется по априорным данным и на-
блюдениям Уо*"', полученным на момент времени А: - 1 , в то время как л
оценка Х/^ формируется по тем же априорным данным, и по данным 260
наблюдений Iq
л-г
включающих как YQ
так и текущее
наблюдение yj^. Оптимальная дискретная система работает следующим образом. Пусть в (Л:-1)-й момент времени сформирована оценка фильтруемого процесса. Используя данную оценку, формируется экстраполированная на такт дискретной обработки оценка по алгоритму (10.58). После получения текущего наблюдения формируется разностный процесс
(10.61) который иногда называют обновляющим процессом или невязкой измерений. Процесс v^ несет информацию о расхождении текущего значения Xjt фильтруемого процесса и его экстраполированной оценкой Х.^ . Далее разностный процесс умножается на весовой коэффициент К/^ (10.57) и используется для аддитивной коррекции экстраполированной оценки , в результате чего формируется текущая оценка (ее иногда называют фильтрационной). Из уравнения (10.60) следует, что
Следовательно, для коэффициента усиления (10.57) оптимальной системы фильтрации можно записать эквивалентное выражение
(10.62) Рассмотрим разностный процесс V/^ (10.61). Прежде всего отметим, что он является гауссовским, так как получается в результате линейных преобразований гауссовских процессов. Покажем, что он к тому же является некоррелированным (т.е. типа белого шума). Для этого вычислим корреляцию двух соседних отсчетов М = Л/
] = М [ук-Hkik
(я^ (X, -
)J =
)+«, )(я,_, (V, л , . , Уч.,) 261
)(//*_,
-X^-i )+«*_!)
(10.63) При выводе (10.63) учтено выражение (10.62) и свойство некоррелированности шумов щ Х к Аналогично можно показать, что некоррелированными являются любые два отсчета обновляющего процесса. Заметим, что при выводе (10.63) существенную роль играют формулы для оптимальных значений коэффициента усиления (10.57), (10.62). Если использовать другие значения коэффициента усиления, то процесс V;^ окажется коррелированным. Это является важным признаком оптимальных систем фильтрации. Некоррелированность процесса v^^ означает, что оптимальная система извлекла из наблюдений всю возможную информацию о фильтруемом процессе. Никакая другая дополнительная обработка процесса v^ не даст дополнительной информации о Х)^, так как в белом шуме нет никакой информации. Дисперсия разностного процесса v^ равна М
=М
З а м е ч а н и е . Обновляющий процесс вида (10.61) можно ввести и в непрерывных системах фильтрации. При этом в оптимальной системе фильтрации он также является некоррелированным гауссовским процессом, т.е. БГШ, со спектральной плотностью, равной спектральной плотности аддитивного шума наблюдения. Схема оптимальной дискретной системы фильтрации приведена на рис. 10.10, где 262
обозначает задержку на такт.
Рис. 10.10. Схема оптимальной дискретной системы фильтрации Уравнения оптимальной фильтрации многомерной МП х/^, которая описывается уравнением Ч
=
(10-64)
где ^jt — векторный ДБГШ с матрицей дисперсий D^, при векторных наблюдениях (10.65) где п^ — векторный дискретный БГШ с матрицей дисперсий D„, являются обобщением уравнений (10.55)—(10.60) и имеют вид (10-66) (10.67) К, =
=
+D„
Dx,* =
,
(10.68)
. или
(10.69) .
(10.70)
Здесь i/i —оценка фильтруемого процесса; i/^ —экстраполированная оценка процесса; К^ — матричный коэффициент усиления; D , ^^ — матрица дисперсий ошибок фильтрации; D , ^ — матрица дисперсий ошибок экстраполяции. Уравнения оптимальной фильтрации (10.66)—(10.70) называют уравнениями фильтра Калмана (по имени автора, впервые их получившего). Так же как и в задаче фильтрации одномерного МП, введем векторный разностный процесс
263
который в оптимальной системе фильтрации является БГШ с нулевым МО и дисперсией М 10.2.2. Пример синтеза оптимальной дискретной системы фильтрации П р и м е р 10.3. Рассмотрим задачу дискретной фильтрации дальности до цели, движущейся на встречном курсе с РЛС. Движение цели и РЛС в плоскости описывается уравнениями (2.32). В качестве модели ускорения a{t) вдоль линии визирования цели примем БГШ ^(г) с двусторонней спектральной плотностью 5 ^ / 2 . Переходя от непрерывных уравнений (2.32) к дискретным с шагом дискретизации T j , например, методом Эйлера получаем следующую дискретную модель изменения дальности до цели Л* = Rk-i + Ш - Х , где
П = f'ik-i H k - i ,
(10.71)
—ДБГШ с нулевым VJ и дисперсией а | = S^Tj j l .
Наблюдению доступны отсчеты дальности в аддитивной смеси с ДБГШ л/ п1 = а ? . Введем вектор х =
V/^l^ . Записывая уравнения (10.71) в вектор-
ной форме (10.64), получаем F=
0 1 Td , G = , а также H = |l 0|. 0 1 1
(10.72)
С учетом (10.72) уравнения оптимальной дискретной фильтрации (10.66)-(10.70) конкретизируются в виде Чк {Ук -^к),
+ тЛ-\ >
(10.73)
(10.74) А1.* = А и - 1 + 264
+ Т}022,к-1.
(10.75)
А2,* =
+ Tdl>22,k-\ . Аггл =
Au=AIX/(AI,*+<J^).
^2.*
+04 ,
A2.*=A2X/(Au+a^), (10.76)
-Au/(Au
Схема оптимального фильтра приведена на рис. 10.11 и представляет собой дискретную следящую систему за параметром R/^. В установившемся режиме АГ] = const, К2 = const.
Рве. 10.11. Схема оптимального фильтра В задачах радиолокационных измерений фильтр (10.73) с постоянными параметрами часто называют {а-^)-фш1ьтром. При этом уравнения (10.73) записывают в виде 4 = Л* + а ( п - Л* ) >
+ TdVk-l.
где а и Р —безразмерные параметры. Дисперсионные уравнения (10.75)—(10.76) для дискретной задачи фильтрации аналитического решения в установившемся режиме не имеют, что затрудняет анализ дискретной системы фильтрации. При малом шаге дискретизации Т^ « 1 / 4 / с с » где — полоса пропускания следящей системы, анализ дискретной системы фильтрации можно заменить анализом соответствующей непрерывной системы. При ^rf ">0 уравнения оптимальной дискретной фильтрации (10.73)-(10.76) переходят в соответствующие уравнения оптимальной непрерывной фильтрации, в которых дисперсионные уравнения имеют вид —7—= 2i)i2H at
— . —Т at
NQ
^2н NQ
265
где
= Система уравнений (10.77) в установившемся режиме имеет решение
Уравнения (10.73) описывают следящую систему с астатизмом 2-го порядка. В установившемся режиме полоса пропускания такой следящей системы определяется выражением
^yer^d
4 - 2Ki уст - АГг Y„Tj
При малом шаге дискретной обработки Tj полоса пропускания пропорщюнальна
квадратному корню из коэффициента усиления
V ^ = yjf^lyer/^d по контуру следящей системы. 10.2.3. Некоторые обобщения алгоритмов оптимальной линейной дискретной фильтрации Так же, как и в случае непрерывной фильтрации, алгоритмы оптимальной линейной дискретной фильтрации могут быть обобщены на случай, когда уравнение формирования (10.64) включает дополнительное регулярное возмущение, т.е. х('о) = Хо.
(10-78)
где U;t-i — известная функция времени. Такие же рассуждения, что и в п. 10.1.2, приводят к тому, что в уравнения формирования оценки также должна входить детерминированная составляющая . Так как в дискретном алгоритме фильтрации (10.66)—(10.65) регулярная составляющая формирующего уравнения определяет закон экстраполяции оценки, то приходим к выводу, что при фильтрации процесса (10.78) в алгоритме оптимальной фильтрации (10.66)—(10.70) изменяется лишь алгоритм формирования оценки (10.67), который принимает вид 266
Остальные уравнения оптамальной фильтрации остаются без изменений. Если в постановке задачи синтеза оптимальной системы фильтрации формирующий шум
и шум наблюдения
заданы коррелиро-
ванными, т.е. М ^^nj, = Ч'^п^ы > ™ ® алгоритме оптимальной фильтрации остается неизменным уравнение (10.66) для формирования оценки х^, т.е. (y^fc-H^ii). Так как в шуме наблюдения содержится информация о шуме формирования (в их взаимной корреляции), то уравнение для экстраполированной оценки изменяется и принимает вид Ч = F*4it-l
,
(10.79)
Заметим, что в алгоритме экстраполяции (10.79) участвуют наблюдения y;t-i > полученные на предыдущем шаге, в то время как в алгоритме фильтрации участвую наблюдения у , полученные на текущем шаге. Так как изменилась экстраполированная оценка, то изменяется и уравнение для матрицы дисперсий ошибок экстраполяции Кк =
-K/fc-i
f
-K,D„K; .
(10.80) При этом матрицы коэффициента усиления и дисперсий ошибок фильтрации рассчитываются по формулам
(10.81) Форма записи соотношений (10.81) совпадает с одной из форм записи уравнений (10.68) и (10.70). Однако численные результаты расчета получаются различными, так как изменяется дисперсия ошибки экстраполяции (10.80) и (10.70) соответственно. Также как и в задаче непрерывной фильтрации, коррелированность шумов формирования и наблюдения приводит к уменьшению дисперсии ошибки фильтрации. 267
10.2.4. Дискретный фильтр Винера Пусть априорные сведения о фильтруемом
и наблюдаемом
процессах заданы в форме корреляционных функций R)^y(k,m) и Иу(к,т). .
Рассмотрим задачу получения линейной оценки
вида
* = ^ ёк.]У] > которая минимизирует средний квадрат ошибки У=1
(10.82)
ц=М
Сформулированная задача оптимальной линейной дискретной фильтрации была впервые решена А.Н. Колмогоровым в 1939 г. [2], т.е. раньше, чем фильтрация в непрерывном времени, разработанная Винером (1942 г.). Так же, как это было сделано в п. 10.1, можно показать, что миниА
мум (10.82) достигается при такой оценке Х,^ и соответствующей ей оптимальной импульсной характеристики gt^som > пр" которых выполняется условие М
Л
= О при всех sel,k.
(10.83)
к Так как
=
Skjomyj > то, выполнив в (10.83) усреднение, поМ
лучаем R\y {k,s)= i gkjo^Ry U^s). (10.84) y=i Таким образом, оптимальная импульсная характеристика фильтра Винера gk,soin находится из решения уравнения (10.84). Для стационарных и стационарно связанных процессов и у/с корреляционные функции зависят от разности временных аргументов V = s-k, т.е. Rj^y (v) и Ry{v). При бесконечном времени наблюдения фильтр Винера будет стационарным, а его импульсная характеристика находится из уравнения
268
к y=l к о т ^ е является дискретным аналогом уравнения Винера—Хопфа Связь оптимальной дискретной фильтрации по Винеру и Калману. Дискретный фильтр Винера, также как и его непрерывный вариант, описывает оптимальную линейную систему фильтрации в интегральной форме, которая может быть получена и в постановке задачи дискретной калмановской фильтрации. Пусть наблюдается процесс (10.47), в котором =сх^ описывается компонентой многомерного МП х^, удовлетворяющего уравнению (10.64). При такой постановке задачи однозначно определяются корреляционные функции Rxy
=М
] = Я^сКх
,
Ry{k,m) = M[X^y^] = HICRx {к,тУ
+К„{к,т).
Следовательно, выполнены условия постановки задачи синтеза фильтра Винера. Для сформулированной задачи оптимальная оценка, минимизирующая дисперсию ошибки фильтрации, описывается уравнениями (10.74), (10.75), которые запишем в виде it
.
(10.85)
где I — единичная матрица, Kt — матрица коэффициентов усиления фильтра Калмана, определяемая уравнениями (10.68)—(10.70). Решим уравнение (10.85) на одном шаге 1
«=0 где ф*,* = 1 , Фк,к-2 =^к.к-\'^к-1к-2Выполнив решение еще на одном шаге, получаем 269
1
ik =
+^к,к-2^к-2Ук-2 + I ^k,k-i^k-iyk-i (=0
=
2
= ^k,k-34-i
+ 1 ^k,k-i^k-iyk-i
•
1=0
Продолжая решение далее на A; - 1 шагах, запишем Ч = 'i(0 = ' ? , ( t 3 , 0 + « I ( 0 . А/[И1(0«10+^)] = ЛГо,/25(Т); =
M[n2(t)n2(t + T)] = No2/2d(x).
(12.1) (12.2)
Примем следующую модель изменения дальности во времени х,=2Л/со, (12.3) где Со — скорость света. Введем вектор х = \Я
, для которого справедливо векторное
уравнение (12.4) где F =
0 1 0 0
; G=
0
(12.5)
1
Определим вектор сигналов 8(Тз,г)= 5] (Тз,/) S2{Xj,t) , вектор шумов п = |л] «2Г» векторное наблюдение y=|>'i У2^, для которого запишем выражение у ( 0 = 8(Тз,0+11(0.
(12.6)
Подставляя (12.4)—(12.6) в (11.14), (11.17), получаем
2Д,, dS2{2RlcQ,t) N.02
ък
[y2{t)-S2[2Rlc^,t)),
(12.7)
334
dt
^^
ЭЛ V
>
ал
^01
J
ч2
^02
'
2AIA2 м dD2l_4 dt 2
'2А2 дЯ
dR
Щх
Щг
^dS2(2R/co,ty dR
Щ2
. (12.8)
Схема оптимальной комплексной системы фильтрации приведена на рис. 12.1.
Рис. 12.1. Схема оптимальной комплексной системы фильтрации
Поскольку имеется два датчика сигналов (12.1), (12.2), то схема комплексной фильтрации содержит два дискриминатора задержки сигнала
(12.9) Щг 0 и 5д2 > 0 имеем
где в правых частях неравенств стоят спектральные плотности шумов эквивалентных линейных наблюдений для задач синтеза автономных (однодиапазонных) радиолокационных измерителей дальности. Так как дисперсия ошибки фильтрации растет при увеличении спектральной плотности шума эквивалентных наблюдений (12.20), то дисперсия ошибки фильтрации в комплексном измерителе всегда меньше, чем в любом из автономных измерителей. Максимальный выигрыш в точности фильтрации получается при 5'|д — 52д и равен 23/4 = 1,68 раз по дисперсии ошибки фильтрации дальности.
12.2. Комплексный измеритель дальности и радиальной скорости
В задачах радиолокации, радионавигации и радиоуправления при определении параметров движения подвижных объектов, как правило, определяют задержку сигнала и доплеровское смещение частоты, которые пропорциональны соответственно дальности R и радиальной скорости сближения V . Так как скорость V является производной от дальности, то, располагая двумя датчиками (задержки сигнала t j и доплеровского смещения частоты сОд), можно ставить задачу синтеза комплексной системы фильтрации дальности и радиальной скорости. В отличие от рассмотренной ранее задачи, здесь различные датчики измеряют различные компоненты многомерного процесса — координату и ее производную. 338
Положим,
что
фильтрации
по-прежнему
подлежит
вектор
X = R Vf , который описывается векторным уравнением (12.4).
В рассматриваемой задаче на входе приемника имеем реализацию >'(0 = 5(Тз,Шд,/)+л(/), A / [ / i ( 0 « 0 + x)] = iVo/25(x),
где Тз = 2R/CQ ; Юд = AKV/XQ ; Я-о —длина волны несущего колебани Если проводить полный синтез комплексной системы фильтрации (как это было сделано в п. 12.1), то необходимо ввести вектор
л
т
2/со
О
Л = Хз (0„ , матрицу с =
, такую, что Л = сх, и восполь0 4K/Xq зоваться аппаратом теории оптимальной нелинейной фильтрации. Однако, если нас интересует точность фильтрации при малых ошибках, лежащих в пределах линейных участков дискриминационных характеристик, то для синтеза и анализа линеаризованной системы можно воспользоваться более простой теорией линейной фильтрации. Для этого определим линеаризованные наблюдения :Р,(Г) = Л ( 0 + Я л ( 0 . M[nR{t)n^{t + x)] = Nj,/25{x); =
M[nfr{i)ny{t
(12.21)
+ x)] = Ny/28{z);
(12.22)
введем векторы у =
, п = |л1 йг]^ и запишем наблюдения в век1 О тором виде у ( / ) = Нх + п(/), где Н = О 1 Уравнения фильтра Калмана для рассматриваемой задачи линейной фильтрации имеют вид
(12.23)
dt
^^
Np Nr
Nv Ny 2 тг>2
2Dt2 dt
2
Nr
mi
Ny
'
dt
^^
NB
NV
(12.24)
339
в установившемся режиме система дисперсионных уравнений (12.24) преобразуется в систему алгебраических уравнений, которая имеет следующее решение:
2 ( 1 . V^)
Д22уст=' где р = NyIs^Nfi
.
(12.25)
—безразмерный параметр.
Как следует из (12.25), точность фильтрации зависит от соотношения спектральных плотностей шумов в каналах измерения дальности и скорости (от величины р). При р » 1 , что соответствует, например, очень большому уровню шума в канале измерения скорости, из (12.25) получаем
A l y c T ,
Azycr =
,
(12.26) Формулы (12.26) соответствуют дисперсиям ошибок фильтрации в автономном измерителе дальности (12.20). Таким образом, эффективность комплексной системы фильтрации по сравнению с автономной возрастает с уменьшением интенсивности аддитивного шума в канале измерения скорости. При р « 1 , например, при малом уровне шума в канале измерения скорости, из (12.25) получаем (12.27) Точность измерения дальности в этом случае определяется только уровнем шумов в каналах измерения дальности и скорости и не зависит от спектральной плотности динамического возмущения (ускорения объекта). Подставляя (12.27) в уравнение для оценки дальности (12.23), получаем ^ 340
=
(12.28)
Из (12.28) видно, что при условии р « 1 оценка скорости V не входит в уравнение для оценки дальности, т. е. фильтрация скорости в отдельном канале не является необходимой для фильтрации дальности, а в кольце слежения по дальности используется нефильтрованнное наблюдение скорости y2{t). Отсутствию наблюдения по дальности соответствует N^^ -*оо , При этом из соотношений (12.26) следует
Таким образом, наблюдение только в канале скорости приводит к бесконечной дисперсии ошибки по дальности, в отличие от случая наблюдения только в канале дальности, когда дисперсии ошибок по т S - 1 Е -г» Ая ' • S /> обеим координатам коmi нечны. Схема оптимального линеаризованного комщ. Nr плексного фильтра приведена на рис. 12.2. 1 1 Ш I Из схемы рис. 12.2 Ny J " р нетрудно получить схему реального комплексного измерителя дальРнс. 12.2. Схема оптимального линеаризованного комплексного фильтра ности и скорости (рис. 12.3), дополнив ее дискриминаторами дальности и доплеровской частоты: 2 Э5(тз,а)д,г) Эх, ЛГп "дсод =
2 Э5(Тз,а)д,/) N.
Эш„
в схеме рис. 12.3 пунктиром выделены фильтры измерения скорости и дальности. Видно, что в оптимальной комплексной системе фильтрации есть перекрестные связи между каналами измерения дальности и скорости, как по выходам дискриминаторов, так и по формируемым оценкам координат R и V (оценка Я вводится в канал измерения дальности). 341
Дкк)|шав«тв))ы эмцжп 2£ll
л. Т Л')
s
2 —
p1
2D,,
I т •^(ь.Юд,») * '
'2(0-е(0
(12.35)
и подставим полученное выражение в (1233) =
(12-36)
в (12J6) входят наблюдения ух (/), У2 (/) и случайный щюцесс е(де =
приращения процесса е(г), то при изменении
Z второй сомножитель в (12.38) меняется существенно медленнее первого. Поэтому при синтезе алгоритма оптимальной фильтрации второй сомножитель можно считать константой, т.е. полагать = с />(}1д|2,У2о),афункцию F(z,0 =
F{z,t)
=
в (12.38) определять как
Э/
Тогда алгоритм оптимальной в гауссовском приближении фильтрации вектора z{t) записывается в виде di 2 (dS{y2it)-bz,t) — = F,z + — dt Щ dz 346
(:H,(/)-S(>'2(0-bi,0).
0239)
dz
oz
-^z •
Сффкофовав оцеяку ё(/) = bz(/), искомая оценка прсщесса
(12.40) опре-
деляется из (1235) как
^(0 = >'2(0-ё(0-
(12.41)
Модифицированный алгоритм комплексной фильтрации (12.39)(12.419) является приближенным, тем не менее, при сделанных допущениях точность фильтрации процесса Я.( ' ( / ) - 0 , 5 Н ( 0 х ( а ) ) - 0 . 5 Г г [ о , (а)Н^ ( 0 Н ( 0 ] .(13-24) где Тг [*] — обозначает след матрицы. Для нелинейных наблюдений (13.1) можно воспользоваться стандартной методикой (см. гл. 11) разложения нелинейной функции в ряд по степеням разности ( x - i ( a ) ) с удержанием линейных членов разложения. В этом случае для F{o.,t) получается приближенное выражение
360
-0,57r
Эх
.(13.25)
Эх
Соотношения (13.16), (13.18)—(13.21) дают общее решение задачи адаптивной фильтрации. Дальнейшая их конкретизация сводится, практически, к тому, как трактовать формулу (13.16). При этом различают два принципиально разных подхода, которые подробно рассматриваются ниже.
13,4. Многоканальные адаптивные системы фильтрации Практическая реализация адаптивного алгоритма фильтрации (13.16), (13.18)—(13.21) возможна в следующей форме. Дискретизируем область [«^(п.апих] возможных значений параметров а , т.е. полагаем, что а может принимать дискретные значения а , , i = l,M из заданной области. Интеграл в (13.16) при этом заменяется суммой, и выражение для оптимальной оценки принимает вид i = ix(a,)/>(a,|yo'), j=i где Р (а,
(13.26)
— апостериорная вероятность значения а = а,.
При дискретизации возможных значений вектора а (13.21) переходит в соотношение
выражение
ехр t м Хехр \F{ai,x)dx /=1 .0
Pap{0.i)
в котором Р ^ (а,-) — априорные вероятности значений а = а,. Алгоритм (13.26) определяет структуру многоканальной адаптивной системы (рис. 13.3). Она содержит набор фильтров, каждый из которых рассчитан на оптимальное выделение информационного процесса с параметром а = а^, вычислитель апостериорных вероятностей, перемножители и сумматор. В процессе работы системы условные оценки 361
X (а,-), формируемые на выходах канальных фильтров, умножаются на вероятности Р^а,- Iq) и суммируются, образуя выходную оптимальную оценку X. С течением времени апостериорная вероятность того значения а,-, которое наиболее близко к истинному значению а , стремится к единице, а вероятности остальных Oj убывают до нуля. Поэтому после завершения процесса адаптации из всех канальных фильтров оказывается "включенным" лишь тот фильтр, параметры которого соответствуют характеристикам принимаемого информационного процесса. Втнопгтелъ р(а,|Го')< = Гл7 v(a,) Отгсямаяьвый фиьтр а^
яо
о/ \
i(a2) ^ Ошташльный фнь1р а^
Оатимшный фньтр а,
г X
Рис. 13.3. Схема многоканальной адаптивной системы
В многоканальной системе формируется вся АПВ Р^а, Jq j неизвестных параметров, а условные оценки х(а, ) фильтруемого процесса усредняются по этой АПВ. Поэтому данный метод относится к штегральным методам адаптации. Процесс адаптации здесь заключается в перестройке апостериорных вероятностей /'^а, YQ j . Многоканальный адаптивный фильтр в задаче дискретной фильтрации. В задаче дискретной фильтрации полагается, что фильтруемый процесс задается уравнением (для простоты изложения взята линейная модель сообщения)
362
где ^^ — векторный ДБГШ с матрицей дисперсий D ^ ( a ) . Наблюдения также будем считать линейными и т -мерными п^п} = D A y
( 1 . )
Так как соотношения (13.14)—(13.17) являются общими и не зависят от того, в непрерывном или дискретном времени сформулирована задача фильтрации, то можно записать выражение для оптимальной оценки сообщения в виде, аналогичном (13.16); (13.29) где ж^ ( а ) — условная оценка сообщения, определяемая уравнениями фильтра Калмана при фиксированном значении а , i i (а) =
(а)+К^ (а)(у, - Щ х , (а)),
=
(13.31)
=
(13.32)
К к («) =
(a)F/_,
= Dx.^ ( a ) = (I
(13.30)
(a)D^ (a)Gl_, ( a ) , (13.33) или
(a)H,_i
Уравнение для АПВ
(a).
(13.34)
YQ ) , полученное в п. 9.5 (формула (9.44),
запишем в виде , p(a|Yo") = /7,p(a). (13.35)
Как и в случае непрерывного времени, для получения практически реализуемой системы область возможных значений параметров а дисекретизируем, что приводит к замене в (13.29) интегрирования на суммирование, а ГШ заменяется на соответствующие вероятности
1=1
363
Для апостериорных вероятностей значений неизвестных параметров можно записать выражение, аналогичное (13.35),
|Yo°) = Р^р (а,-),i = U7. Рассмотрим ПВ
(13.37
Yo~',a, j . Как следует из (13.27)—(13.28),
при фиксированном значении данная ПВ а, является гауссовской с МО М Ук
=
(а,).
(13.38)
и матрицей дисперсий М Таким образом, можно записать (13.39) ехр - ^ ( У *
(а,)Г
(а,ОН! + D „ ) ' ' ( у ,
(а,))
-im/2
Уравнения (13.30)—(13.34), (13.36)—(13.39) полностью определяют алгоритм адаптивной многоканальной фильтрации. Приведем пример работы многоканальной адаптивной системы. П р и м е р 13.2. Рассмотрим задачу адаптивной фильтрации дальности до цели в дискретном времени. Положим, что изменение дальности описывается уравнениями (13.27), в которых \ = \Д V^, а матрицы 0 1 т. , G= , где Tj — шаг временной дискретизации; = \. 0 1 Наблюдаемый процесс (13.28) в данной задаче скалярный, а матрица наблюдений равна Н = |l 0|. В качестве неизвестного параметра F=
364
определим интенсивность ускорения цели
Для синтеза многока-
нальной системы полагаем, что о^ принимает дискретные значения Оптимальная оценка процесса Х/^ определяется соотношением
где ijt (Од,) — условная оценка фильтруемого процесса при фиксированном значении параметра Стд , которая описывается уравнениями 4
)=h
^k
) = Ук-l
h
) = K,) + ^A-l Ki).
^U
)+^it
)+
)(Ук -Rk ы Ы)(Ук
- Rk
). )-
) = A1 Ki )/£>« . ^2k (Oa.i) = A2 K, )ID„ .
Уравнения для дисперсий ошибок фильтрации Ду, i,j = \,2 приведены в (10.75)—(10.76). Апостериорные вероятности значения интенсивности ускорения определяются рекуррентными соотношениями
где условная одношаговая функция правдоподобия в соответствии с (13.39) дается формулой ч2 (п-ЛлК,/)) 1 exp Схема многоканального адаптивного измерителя дальности приведена на рис. 13.4. В данной схеме апостериорные вероятности P^Caj YQ^ значений интенсивности ускорения формируются отдельными блоками, а перекрестные связи между блоками реагшзуют^ю
нормировку, так что ^ / ' ( а д , - 1о*) = 1. Если в результате адаптации 1=1 ^ ' ' некоторая P{oa j zf
то остальные апостериорные вероятности
стремятся к нулю. jL
Н Е Н ^ В Ч Ж Н З i
ный филыр 1
1
i л» к / )
Ук
Каы&льиыи филь1рi j т
1^
Г
^ J
1 Кшшшвыб филыр М Рис. 13.4. Схема многоканального адаптивного измерителя дальности
Рассмотрим характеристики многоканального адаптивного фильтра. Положим Л(0) = 50 км, К(0) = - 500 мс"', Tj = 0,02 с, D„=\0/Tj м^ М =3, Од 1 =0,707 мсЛ Од 2 = 10 мс"^, Од з =50 мс"^. Положим также, что априорные вероятности возможных значений интенсивности ускорения равны, т.е. Р^р (од, ) = / = 1,3. На рис. 13.5 приведены усредненные по 1000 реализациям зависимости апостериорных вероятностей для различных истинных значений интенсивности ускорения цели, из которых видно, что многоканальный измеритель успешно адаптируется к априорно неизвестной интенсивности маневра цели. При этом время адаптации к слабому маневру (Од 3/4
1/2
dSf
4л/2
к
Ha рис. 13.11 приведены зависимости нормированной к истинному значению оцен1си
от времени для двух значений S^ =20 м^с"',
= 2000 м^с'^, полученные моделированием адаптивной системы фильтрации на ЦВМ при S^ (0) = 400 mV^, NQ = 20 м^с '. Как видно из рисунка, адаптация в целом проходит успешно, т.е.
. Время
адаптации составляет 4...6 с. S./& !
on ат
•• - f -
-
]
с
I. с
а)
б)
Рис. 13.11. Характеристики процесса адаптации: а— = 2000м^с"'; = 20м^с"' Отметим, что алгоритм адаптации (13.50) чувствителен к выбору начального значения коэффициента D^^ (0), и при его неправильном выборе сходимость оценки
к истинному значению может нарушаться.
13.5 J . Понятие контура адаптации Во многих алгоритмах с точечной оценкой неизвестных параметров процесс адаптации и такие его характеристики, как сходимость, продолжительность и точность можно проанализировать, представив адап375
тивную систему в виде системы автоматического регулирования, осуществляющей слежение за неизвестными параметрами. Другими словами, в составе таких адаптивных систем можно выделить контур адаптации. Для этого представим уравДис ФНЧ а . нение (13.45) в виде схемы, приведенной на рис. 13.12, где обозначено: Дис — Т дискриминатор контура адаптации, ФНЧ Рис. 13.12. Контур адаптации — фильтр нижних частот. Из (13.45) следует, что ФНЧ— это интегратор с переменным коэффициентом усиления Dq ( / ) , а дискриминатор описывается соотношением
ds(i{a),t) '•да (0=
Эа
NQ
дХ
(y(0-5(ci(a),/))-
ГЭЧ'(а) Nn
да
(13.51)
Дискриминатор контура адаптации является устройством безынерционным по отношению к изменениям параметра а и его оценки а , а его выходной процесс (13.51) зависит от рассогласования а - а . Случайный процесс (13.51) можно представить в виде суммы МО и центрированной случайной составляющей
При таком представлении Л/ ид„(/) =U(a,a)—дискриминационная характеристика дискриминатора контура адаптации, а спектральная плотность процесса характеризует флуктуационную характеристику дискриминатора. В результате анализа дискриминационной характеристики U ( a , a ) можно ответить на вопрос о сходимости процесса адаптации, а анализ флуктуационной характеристики позволяет судить о точности адаптации [3]. 13.5.4. Алгоритм скользящего адаптивного приема в дискретном времени Рассмотрим задачу адаптивной фильтрации дискретного процесса (13.27) при линейных наблюдениях (13.28). 376
Общая структура адаптивной системы фильтрации, построенной по методу скользящей адаптации, остается такой же, как и в случае непрерывного времени (см. рис. 13.8). Основной блок фильтрации описывается уравнениями фильтра Калмана (13.30)—(13-34) при оценочном значении а неизвестных параметров. Для получения оценки а рассмотрим уравнение (13.35) для АПВ неизвестных параметров. Введем гауссовскую аппроксимацию АПВ на Л: - и (Л - 1 ) -м шагах p(a\Yi)
=' ylilKfdctiD^)
D ^ ( a - d t ) } , (13.52)
exp
-
7(27trdet(D^_,)
У
(a -
)|,
где m — размерность вектора неизвестных параметров а ; Djf;^. — матрица дисперсий ошибок оценивания данного вектора на к -м шаге. Условная ПВ р^у/^
входящая в (13.35) является гауссов-
ской с МО М Ук
^ =Н,х,(а)
(13.53)
и матрицей дисперсий М (yj^
(a)f
^ Д(а) =
( а ) Н | -hD„. (13.54)
Подставляя (13.52)—(13.54) в (13.35) и логарифмируя полученное уравнение, получаем 1(а - а ^ ( а
- аО =^(а -
У
(а -
+v(a)-Hc,,
) -н (13.55)
где С] — константа, не зависящая от а , v(a) = iln{5(a))+ -
( a ) f 5 - ' ( а ) ( п - Щ х , (а)).
Разложим функцию v ( a ) в ряд в окрестности точки
(13.56) и огра-
ничимся тремя членами разложения 377
. Используя +(®*-l
da Э
(13.57)
да
очевидное
представление
а - а ^ =(a-a^t_l)+
подставляя его и (13.57) в (13.55) и приравнивая в полу-
ченном выражении коэффициенты при одинаковых степенях разности а - d j t _ i , получаем (13.58)
da
Эа
(13.59)
Эа
Найдем выражение для производной
^ ^ ' * ' ^ , дифференцируя да
(13.56),
да
да 1
ЭВ(а,_,)
. (13.60) г'"" " да 2B(a^_,) Эа Среднее значение суммы двух последних слагаемых в (13.68) равно нулю, поэтому можно принять
да
. (13.61)
да
Приближенное выражение для второй производной можно записать в виде \т т э
да
да к
>
да
да
(13.62) Подстановка (13.61)—(13.62) в (13.58), (13.59) дает итоговый алгоритм работы блока адаптации 378
да
(Ук-ЩЧ
(a*-i)). (13.63)
da
да
(13.64) Из (13.63) следует, что входным сигналом для блока адаптации является разностный процесс (yj^ - Щх/^. )), который формируется в основном блоке фильтрации. Структура адаптивной дискретной системы фильтрации аналогична той, что приведена на рис. 13.9, с заменой блоков обработки в непрерывном времени (например, интеграторов) соответствуюидами блоками обработки в дискретном времени. Как и в непрерывном времени, уравнения для производной Эх^ (ajt_i )/Эа, входящей в (13.63)—(13.64), получаются дифференцированием по а уравнений основного блока фильтрации (13.30)—(13.34). Контрольные вопросы к главе 13 1. Как определяется выигрыш в точности фильтрации в адаптивной и неадаптивной системах фильтрации? 2. Что такое сходимость процесса адаптации и время адаптации? 3. Чем принципиально отличаются многоканальные адаптивные фильтры от адаптивных фильтров, построенных по методу скользящего адаптивного приема? 4. Что такое контур адаптации и как он описывается с позиций радиоавтоматики? 5. Можно ли определить дискриминационную характеристику контура адаптации и как? 6. Какими параметрами системы фильтрации определяется время адаптации?
379
Глава
14
ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ПРИ ПРИЕМЕ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ СИГНАЛОВ
14.1. Оптимальная фильтрация при приеме пространственно-временного сигаала на фоне внутренних шумов 14.1.1. Оптимальная фильтрация при известном направлении на источник сигнала Рассмотрим задачу фильтрации информационного процесса А,(г), переносимого пространственно-временным сигналом. Пусть приемник имеет линейную антенную решетку (АР) (рис. 14.1), состоящую из т всенаправленных антенных элементов, расположенных на одинаковом друг от друга расстоянии d . На АР падает плоская электромагнитная волна, причем направление на источник излучения характеризуется углом а ^ , который полагаем известРис. 14.1. Геометрия приема сигнала ным. Принимаемое /-м антенной решеткой антенным элементом колебание имеет вид >',(/, Х() = Sj (/, X, Xj)+и, (/, X,-) =
i(tXxi)
+ ni{t,Xi),
i= \
(14.1) где Р^ — мощность сигнала;
) — нормированный сигнал с
единичной мощностью; jc,- — координата /-го антенного элемента; А,(/) — фильтруемый процесс, который отображается в пространстве состояний вектором х(/),так что А, = с х , а x(t) описывается уравнением (9.2); щ (t,Xj) — помеха с корреляционной функцией 380
М [щ {t,x, )nj
)] = Л„о§(,5(х) =
Так же как и в п. 4.6 полагаем, что сигнал
б(т).
(14.2)
— узкополос-
ный и, следовательно, может описываться комплексной амплитудой (запаздыванием огибающей сигнала по апертуре АР можно пренебречь). Пусть = = 0 ) соответствует комплексной амплитуде сигнала в момент времени t на первом антенном элементе. Тогда комплексная амплитуда сигнала на i-м антенном элементе равна где ф . ( а , ) =
=
волны принимаемого сигнала. Вводя комплексную амплитуду
длина
( / Д ) нормированного сигнала с
= a/^Sh (/,>.), комплексные векторы
соотношением У (О = li-l ('.
, Xq -
) >"2 ('.
n = й, (/) «2 (О ...
) - ^-т
Хт f .
(/)
с корреляционной матрицей М п(г)п*^(/ + т) =Л^о15(т), запишем наблюдения (14.1) в векторном виде
Н0 = Н(«с)5„(/Д)+п(/).
(14.3)
Чтобы использовать комплексную запись наблюдений (14.3), в алгоритмах оптимальной фильтрации необходимо преобразовать уравнение Стратоновича (9.5). Заметим, что входящая в него функция F{x,t) — это производная по времени от логарифма отношения правдоподобия. В то же время, для логарифма отношения правдоподобия в п. 4.6.2 (формула (4.105)) с использованием комплексных наблюдений вида (14.3) получено следующее представление:
ln(p(Y5)) =
381
= - L R e Js: (тД)Н*^ (a, )(y (т)-0.5Н(а,
(тЯ)) Л • (14.4)
.0
Дифференцируя (14.4) по времени, получаем выражение
^(х,/) = - ^ К е Г 5 : ( / Д ) Н * ^ ( а , ) ( у ( / ) - 0 , 5 Н ( а с ) 5 „ ( / Д ) ) 1.
(14.5) yV(j L Подставляя (14.5) в алгоритм оптимальной в гауссовском приближении фильтрации (11.14), получаем
. M l R e
э5;;о,сх) Эх
Н*^(а,){у(0-Н(ас)5н(/,сх))
.(14.6)
Как и в (4.105), преобразуем выражение Н*М«с)(у(0-Н(ас)5„(Лсх)) = = Н*^ ( а ,
- Н*^ К )Н («е
= Н'^ (а, ) Н (а, = Н*- ( а , ) Н ( а ,
('.«) =
(а, ) Н (а,))'' Н*^ (а, )у ( / ) - 5» (^.сх) (а, )у {t)-S„ {t,ci)
=
=
(14.7)
где H * ^ ( a e ) H ( a c ) = />cm; Р ( а , ) = н ( а , ) [ н ' ^ ( а , ) н ( а , ) р ' =H(a,)/(Pem).
(14.8)
Введем эквивалентное наблюдение Лкв(0 = Г ( « с ) у ( 0
(14.9)
и запишем уравнение оптимальной фильтрации (14.6) в виде
dt
382
No
dx
(ЛквСО-^О.сх))
.(14.10)
Переходя от комплексных амплитуд к действительным функциям, с учетом (2.4), получаем fay^x) dt
щ
Эх
(14.11) Из уравнений (14.9), (14.11) следует, что оптимальная пространственно-временная система фильтрации распадается на пространственную (14.9) и временную (14.11). На выходе блока пространственной обработки формируется временной процесс Лкв ( О = Г («с )У С ) = Г («с ) ( н («с
О д ) + й (О)=
=
(14.12)
в котором «з^в {t) — комплексный БГШ с двусторонней спектральной плотностью Ы^/Р^т . Поэтому для эквивалентных наблюдений (14.12) можно записать Re[>'3KB ( 0 ] = Лкв ( 0 = где
Изкв (/)
—
(0.
БГШ с двусторонней спектральной
(14.13) плотностью
Таким образом, временная система фильтрации (14.11) есть ни что иное, как оптимальный временной фильтр для эквивалентных наблюдений (14.13), формирующихся на выходе блока пространственной обработки. Можно также показать, что уравнение для матрицы дисперсий ошибок фильтрации D, {/) совпадает с (11.17), в котором надо использовать спектральную плотность шума для эквивалентных наблюдений (14.13). Рассмотрим пространственную обработку принимаемых колебаний (14.9), а более точно, сигнальную компоненту U^ = = р*^ (ttg )Н(а^. )5„ {t,X) , где
(а,.) — вектор весовых коэффициен-
тов системы пространственной обработки; Н(ас)5„ (/,А.) — вектор приходящих сигналов. В теории пространственно-временной обработки сигналов используют понятие характеристики напра&пенности, под которой понимают зависимость комплексной амплитуды f/c("coi"c'®n) на выходе системы пространственной обработки от направления прихо383
да ttco пробного сигнала (гармонической плоской волны) при заданных направлениях прихода полезного а^ и мешающих Сп (если они есть) сигналов. Функция t/„ (а^о |ас>®п («сО |®с>«п) ^ называется диаграммой направленности. В рассматриваемом случае мешающих сигналов нет (внутренние шумы приемника не рассматриваются как мешаюпще сигналы), поэтому можно записать (14.14)
г/с(«со|«с) = Г ( а с ) Н ( а е о ) .
Рис. 14.2. Диаграмма направленности пятнадцатиэлементной АР
Диаграмма направленности для пятнадцатиэлементной АР приведена на рис. 14.2 при а^ = = 30 град и rf = Я-о / 2 . Из графика видно, что диаграмма направленности в направлении на источник сигнала имеет ярковыраженный максимум, что обеспечивает наилучшие условия приема полезного сигнала (фокусировку на сигнал). При этом в направлении на сигнал всегда выполняется условие Г ( а е ) Н ( а , ) = 1.
14.1.2. Оптимальная фильтрация при неизвестном направлении на источник сигнала Рассмотрим более сложную задачу, когда направление а^ на источник сигнала неизвестно. Будем описывать а^ случайным процессом, например: da.
• = F^a^ . ttc (/ = 0) = tteo e 0,180° , (14.15) dt где ^(f) —БГШ с двусторонней спектральной плотностью S^/2 . Область возможных начальных значений а,, о ограничена интервалом [0,180°] с целью устранения неоднозначности измерений, обу384
словленной симметричностью задачи относительно оси X , что видно на рис. 14.2 (симметричный максимум диаграммы направленности). Учитывая то, что нас интересует оценка процесса направление прихода сигаала а^ можно считать неинформативным параметром. Наличие такого дополнительного, меняющегося во времени случайного параметра, в соответствии с результатами п. 11.5.4, приводит к необходимости рассмотрения задачи фильтрации расширенного вектора х(0 . Формадьно такая задача не отличается от рассмотренной v(0 =
«с (О
выше, поэтому запишем ее решение в форме (14.6) d\ оэто>
(14.16)
dt = F(f)v + , Р у ( 0 Re Щ где F{t) =
F(0 О
Эу
О , а для производной, стоящей в квадратных скобК
ках, справедливо выражение Э(н*(ае)5„*(г,сх)) Эа^
Эх
Эу
(14.17) Так как процессы
и
не коррелированны, то матрица
дисперсий ошибок фильтрации Dy(/) является диагональной, т.е. Dv =
Dx О
О . С учетом этого факта, а также (14.17), уравнение D„
(14.16) можно записать в виде двух уравнений di dt
= F(Oi +
. М ) я е
Эх
,(14.18) 385
da. dt эн*(«с) Эа^
N.
. (14.19)
Уравнение (4.19) совпадает с (14.6) с тем лишь отличием, что вместо истинного значения а^ в нем используется оценочное значение а ^ , которое формируется в соответствии с (14.19). Учитывая это и проделав такие же преобразования, что и в п. 14.1.1 (формулы (14.8)-(14.12), нетрудно показать, что формирование оценки х распадается на два этапа: пространственную обработку в соответствии с алгоритмом Лкв (О - Р*' ( а , )у (О. Э{«с) = Н ( а , )lP,m
(14.20)
и временную обработку сформированных эквивалентных наблюдений
Эх
dt
(Лкв (О-"^н ( ' . « ) ) . (14.21)
Таким образом, пространственная и временная обработки по информационному процессу Х,(/) = сх(/), по-прежнему, разделяются. При этом настройка блока пространственной обработки определяется оценкой dg углового положения источника излучения. Поэтому рассмотрим уравнение (14.19). Заменим производную ЭН*(ас)/Эа(. конечной разностью ЭН* (ttc)
Н* (йс + Аас /2) - Н* (бСс - Aa^. /2)
Эа^ '•с
Да, Подставляя (14.22) в (14.19), получаем do-r. dt
(ОRe
Nn
(14.23)
Да^
где Да^ — фиксированная расстройка. При записи (14.23) отброшено слагаемое вида 386
(14.22)
Н')
Да^ которое близко к нулю ввиду симметричности характеристики направленности (см. рис. 14.2) относительно направления на максимум. По аналогии с (14.20) введем параметры $(а, + Да,/2) = Н ( а , +Да,/2)//>т, р(ае - Д а е / 2 ) = Н ( а , - ^ a J 2 ) ^ P , m и новое эквивалентное наблюдение
Тогда (14.23) можно записать в виде dt
щ {рРст N.
S*{t,cx)u^^
(О (14.25)
Следовательно, формирование оценки а,, углового положения источника сигнала также распадается на пространственную обработку (14.24) и временную (14.25). Структура блока пространственной обработки (14.24) аналогична (14.9) с той лишь разницей, что в нем имеется «два канала обработки», в которых весовые коэффициенты $ сдвинуты на ±Дас/2 относительно оценки а ^ . Как и в п. 14.1.1, для алгоритма пространственной обработки (14.24) можно ввести понятие характеристики направленности С/де (а,о К , Дае) =
( а , + Да ,/2)-$*-^ (а^ - Да j 2 ) ] H ( a e o ) . (14.26)
Для пятнадцатиэлементной АР с d = XQ/2, Аа^^ 10 град и а^. = =30 град (0,523 рад) зависимость г/д(асо) = Яе ^/дс(«со|«с) "Ри единичной мощности сигнала приведена на рис. 14.3. Из графика видно, что в окрестности истинного значения угла прихода сигнала а^ вид функции UJ^{aco) аналогичен поведению типичной дискриминацион387
ной характеристики с нулем при а,. = а^о . Следовательно, блок пространственной обработки (14.24) выполняет функцию пространственного (углового) дискриминатора, на выходе которого формируется временной процесс (14.24), поступающий далее в блок временной фильтрации (14.25), представляющий собой обычную следящую систему. Уравнения (14.20), (14.21), (14.24), (14.25) описывают пространственноОсо. р«д временную систему обраРис. 14J. Характеристика направленности ботки, схема которой привепространственного дискриминатора дена на рис. 14.4. :Бяок пространсткииой обработш
f Блок •реиенвой о6р«6сття Блок вреь«енвой фильтрашш
З'Мйс) уО)
: 1 1 жрсмеавой т т Блок фильтрации ac{l) \
Г(йс + Дас/2)
г ъ LJ^
I Z 3 = =
j ! i !
i I
L
.J.j
Рис. 14.4. Схема пространственно-временной обработки В схеме можно выделить блоки пространственной и временной обработки. Блок пространственной обработки включает три канала, которыми формируются характеристики направленности в направлениях otg, а с + А а с / 2 и а ^ - А а ^ / ! . Блок временной обработки содержит две подсистемы слежения: за информационным процессом X{t) и за направлением ag(/) на источник сигнала. Сформированная в блоке временной обработки оценка а^ (/) направления прихода сигнала вводится в блок пространственной обработки с целью его фокусировки на 388
сигнал и подстройки нуля дискриминационной характеристики в направление на сигнал.
14.2. Оптимальная фильтрация при наличии пространственно-распределенных помех Пусть кроме внутренних шумов приемника присутствуют помеховые сигналы, приходанцие с различных направлений Оп^ , j - \ , p . Попрежнему полагаем, что АР — линейная (рис. 14.1), а все приходящие сигналы имеют плоский фронт волны. Принимаемое J-M антенным элементом колебание в этом случае описывается выражением yi{t,Xi) = Si{tXxi)+'^S^.{t,Xi)-^ni(t,Xi), i = Н где л,
(14.27)
) —внутренние шумы приемника с характеристиками (14.2);
Si {t,X, Xi) — полезный сигнал с комплексной амплитудой =
(l, А,, х,) =
и известным направлением прихода а,,; S,, (/,Jt,) —
помеховые сигналы, которые также будем считать узкополосными и, следовательно, допускающими описание комплексными амплитудами
(Здесь, как и выше, полагается, что запаздыванием огибающих сигнала и помех по раскрыву АР можно пренебречь.) Комплексные амплитуды помеховых сигналов (t) будем описывать комплексными гауссовскими случайными процессами, спектральная плотность которых равномерна в полосе пропускания приемника и равна Q . Такие процессы удовлетворяют требованию узкополосности, так как полоса пропускания приемника много меньше несущей частоты. В то же время в интересах синтеза оптимальной системы приема их можно заменить БГШ с двусторонней спектральной плотностью N^, о j l . В общем случае комплексные амплитуды различных помеховых сигналов могут быть коррелированны и задаваться корреляционной матрицей М [s„
(О] = ^ п . где S„ (/) =
(О ^ ^ {t) ...
('f 389
— вектор комплексных амплитуд помеховых сигналов. Если помехи не коррелированны, то V^ = V^ — диагональная действительная матрица, диагональные элементы которой равны спектральным плотностям соответствующих помех. Введем вектор а^ = «п, «п, . - а „
СМп) =
и матрицу
exp{jФп,l(0}
exp{jф„J,(^)}
...
exp{jфп^,(^)}
exp{jФп,2(0}
exp{j0„^2(O}
-
exp{jф„^2(0}
exp{jФп,ш(0} exp{jф„^„(^)} ...
exp{jф„^„(0
характеризующуто пространственное положение помех. Тогда наблюдения (14.27) можно записать в векторном виде Я 0 = Н(ае)5„(^Д)+С(г,а„)8„(0+п(0-
(14-28)
Введем суммарную помеху с коррелящюнной матрицей М [nj; (Опх^
+ т)] = ( с ( / , а „ )
= Nj:(05(t),
(f,a„
W =
(14.29)
где Nz ( а „ ) = С(/,а„ (/,а„ . (14.30) С учетом введенных обозначений, наблюдения (14.28) принимают стандартный вид y(0 = H(aj4(f,X)+nj:(0, (14.31) для которого можно записать уравнение оптимальной фильтрации процесса X (?), аналогичное (14.5) dx • = F(Oi + dt + D, (г) Re 390
(14.32)
Эх
Н*^ ( а ,
(а„ )(у 0 ) - Н ( а , )S„ (r.ci))
При Nj; = N QI уравнение (14.32) переходит в (14.5). Рассмотрим выражение, стоящее по знаком Re[»] и преобразуем его, аналогично тому, как это сделано в (14.7): Н*^ ( а , ) N i ' (а„ )(у (/) - Н ( а , )5„ ( / , « ) ) = = Н*- ( а ,
(а„ )у (г)-Н^- ( а , ) N i ' («„ ) Н ( а
(,,ci) =
= H*^(a,)Ni'(a„)H(ac)x (Н*^ ( a , ) N i ' ( а „ ) Н ( а , ) ) " ' Н*^
= Н'^ (а,
(а„ ) Н ( а ,
{a„)Ht)-S„
(/.сх)
(14.33)
( а „ а „ ) у ( О " ^н
где \-1
0 ( а „ а „ ) = Ni' (а„ )Н(ае
(а^ ) N i ' (а„
)Н(а,))
(14.34)
Введем, как и выше (14.8), эквивалентное наблюдение (14.35)
Лкв ( 0 = Р * М « с . а п ) у ( 0 . для которого после ряда преобразований можно записать >экв (О = Р
(«с.ап
= (н*' («с )Ni' (а„ )Н («е ))'' Н*^ ( а , )х
xN£' ( a „ ) ( H ( a J S „ ( г Д ) + п х ( 0 ) = 5„
Рассчитаем
корреляционную
функция
(О-
эквивалентного
(14-36)
шума
"экв (О М [йзкв
(' +
хМ
(г)]Ni' (an
[nj:
= (Н*^ ( а ,
=
(«с )Ni' («„ ) Н ( а , ))•' Н*^ ( а ,
(а„ )х
(а^ )Ni' (а„ )Н(а^))"' Н ( а ^ ) =
( а „ ) Н (а,))"' 5(т) =
,
где ^экв («с . « п ) = ( н * ' («с ) N i ' ( а „ ) Н ( а , ) ) " '
(14.37)
— спектральная плотность эквивалентного БГШ. 391
с учетом (14.37) выражение (14.34) для вектора весовых коэффициентов можно представить в виде Р ( а „ а „ ) = ЛГз,з(ае,а„)1Ч2'(ап)Н(ае),
(14.38)
а уравнение (14.32) — (14.39)
Эх
dt
Переходя от комплексных амплитуд к действительным функциям, с учетом (2.4), получаем dt
N..
(14.40)
Эх
Из уравнений (14.35), (14.40) следует, что, как и п. 4.1.1, оптимальная пространственно-временная система фильтрации распадается на два раздельных блока — пространственной обработки (14.35) и временной (14.40). На выходе блока пространственной обработки формируется временной процесс
Уэкв (О = Р*' (ас.а„)у (/) =
(О.
в котором /jj^g (?) — комплексный БГШ с двусторонней спектральной плотностью ^зкв (14.37). При этом
Re[>'3KB (0] = >'эк8 (О = "Sh ('Д) + Пэкв (О.
(14
где Идкв (/) —БГШ с двусторонней спектральной плотностью N ^ ^ j l . Таким образом, временная система фильтрации (14.40) — это оптимальный временной фильтр для эквивалентных наблюдений (14.41), формирующихся на выходе блока пространственной обработки. Заметим, что уравнение (14.40), описывающее блок временной фильтрации, по форме полностью совпадает с уравнением (14.10). Различаются они лишь характеристиками эквивалентного шума наблюдения «экв (О • Причем при отсутствии пространственно-распределенных помех выражение (14.37) переходит в соответствующее выражение для эквивалентного шума, входящего в (14.12), т.е. Л^зкв («с .«п) = (н*^ (а, 392
(а„ ) Н (а,))"' =>
Следовательно, в оптимальной пространственно-временной системе влияние пространственно-распределенных помех можно оценивать по изменению спектральной плотности эквивалентного шума наблюдений (14.37) или, что более удобно, по изменению обратной величины ^
(I
„ . = Н*^ ( а ,
(а„ ) Н ( а , ) .
(14.42)
П р и м е р 14.1. Рассмотрим задачу приема сигнала, приходящего с направления а,., при воздействии одной помехи, приходящей с направления а^ . При этом С(/,ап) является вектором. Для определения Л^экв ( " с ^ п ) в соответствии с (14.42) рассчитаем обратную матрицу п-1
(14.43)
Для этого воспользуемся л е м м о й о б о б р а щ е н и и м а т р и ц ы, согласно которой в общем случае для произвольных комплексных матриц M,P,Q • 1-1 . п-1 MPM*^+Q MP. = Р-РМ Обозначим Подставляя данные выражения в (14.43) получаем п-1 J_ = — I - No щ
1С(а„)
C * ^ ( a „ ) I . (14.44)
пJ Подставляя полученное выражение в (14.42), запищем 1
^ = -LH*-^ (tte )Н (ас ) -
393
N.
ЛГп Далее, учшывая, что Н*^
п .
а,, )Н (r.Og ) = Р^т и С^ (а^ )С* («„ ) =
= т , получаем окончательный результат:
^экв(ас.ап)
ЛГо
Введем q^^^ = —^ Щ
т—'
PcNo{mVjNo+l)
(14.45)
отношение спектральных плотностей помехи
и шума (отношение помеха/шум), Н (а^ ) = Н (а^ ную спектральную плотность N^^ (a^.ttn ) = N^^ («с.ап
и нормирован• Тогда
(14.45) принимает вид 1
9п/ш H^-'CaJCCan)!^ • = т--
(14.46)
На рис. 14.5 приведена зависимость l/N„ как функция а,, при а^ = = 30 град для семиэлементной АР и 9п/ш = 10 •
Рис. 14.5. График зависимости функции
Как видно из рисунка, при совпадении направления прихода помехи с направлением на сигнал спектральная плотность существенно возрастает, что приводит к заметному ухудшению условий фильтрации информационного процесса. Рассмотрим диаграмму направленности синтезированной системы, которую по аналогии с (14.14) опред^им как
и„ (а,о |ае ,а„) = |с7, (а,о К ,а„ f = 394
(а,.а„ ) Н ( а , о f • (14.47)
Подставляя (14.44), (14.45) в (14.38), а полученное выражение в (14.47), запишем ч2 t/„(a,oK,a„) = ЛГп (ае )С(а„ ) ) ( с ( а „ )Н (а,о)) ('"9П/Ш+1) Заметим, что при a j o = a c всегда имеем
. (14.48)
(а^ [а^. , а п ) = 1, что
соответствует представлению (14.36), т.е. фокусировке системы на полезный сигаал. На рис. 14.6 приведены графики зависимости С/„(асо|ас'"п) для пятнадцатиэлементной АР.
Рнс. 14.6. Диаграммы направленности: а— 60 град, а^ = 30 град, = 10 ; б—Ос = 30 град, а„ = 30 град, 9п/ш = Из рис. 14.6, а следует, что в синтезированной системе характеристика направленности имеет максимум в направлении на сигнал и минимум в направлении на помеху. :>го качественно отличает оптимальную систему от неоптимальных систем, например, компенсаторов помех, в которых формируется только минимум характеристики направленности на помеху и не контролируется ее значение в направлении на сигнал. 395
Из рис. 14.6, б видно, что даже при совпадении направлений прихода сигнала и помехи характеристика направленности равна единице, т.е. система фокусируется на сигнал. Однако из этого графика непосредственно не видно влияние помехи на систему в этой ситуации. Поэтому необходимо проводить дополнительный анализ для оценки такого влияния. В то же время, из графика рис. 14.5 сразу видно изменение уровня помехи на выходе блока пространственной обработки. Следовательно, с точки зрения оценки качества работы системы временной фильтрации за информационным параметром более информативным оказывается характеристика (14.45). Еще одним критерием, часто используемым при оценке качества блока пространственной обработки, является отношение мощности сигнала к спектральной плотности суммарной помехи на выходе данного блока ^вых' с '. Так как, в соответствии с (14.36), мощность действительного сигнала на выходе блока равна единице, а спектральная плотность суммарной помехи — N^,^, то получаем ?вых =l/iV,KB = H * ^ ( a c ) N i ' K ) H ( a e ) .
(14.49)
Отметим один существенный факт. Уравнение (14.40) является уравнением оптимальной фильтрации, в котором процесс
близок к некоррелированному процессу (белому шуму), спектральная плотность которого минимальна и равна спектральной плотности исходных наблюдений, т.е. в данном случае N^^^ [9, 13]. Из этого положения следует, что обратная величина 1/Л^экв имеет максимальное для данной задачи значение. Таким образом, в рассматриваемой оптимальной системе отношение сигнал/(помеха+щум) на выходе блока пространственной обработки, определяемое формулой (14.49), является максимальным, т.е. наилучшим из тех которые могут быть достигнуты. Другими словами, алгоритм пространственной обработки (14.34), (14.35) максимизирует выходное отношение сигнал/(помеха+Ц1ум). Контрольные вопросы к главе 14 1. При каких условиях алгоритмы пространственно-временной обработки сигналов распадаются на раздельные: пространственный и временной алгоритмы?
396
2. Что такое характеристика и диаграмма направленности блока пространственной обработки? 3. Чем отличаются структуры систем пространственно-временной обработки при фильтрации параметров сигнала с известным и неизвестным направлением прихода? 4. Что такое пространственный (угловой) дискриминатор, и как он может быть сформирован? 5. Как изменится структура пространственного (углового) дискриминатора при наличии пространственно-распределенных помех? 6. Как определяется отношение сигнал/(помеха+шум) на выходе блока пространственно-временной обработки и какие его свойства ? 7. Как зависит значение диаграммы направленности в направлении на сигнал от характеристик сигнально-помеховой обстановки?
397
ЛИТЕРАТУРА
1. Гришин Ю.П., Ипатов В.П., Казаринов Ю.М. и др. Радиотехнически системы/ Под ред. Ю.М. Казаринова. — М.: Высшая школа, 1990. 2. Колмогоров А.Н. Интерполирование и экстраполирование стационарных случайных последовательностей// Изв. АН СССР. Сер. Математика, 1941, т. 5, № 1, с. 3-14. 3. Первачев С.В. Радиоавтоматика. — М.: Радио и связь, 1982. 4. Первачев С.В., Перов А.И. Адаптивная фильтрация сообщений. — М.: Радио и связь, 1991. 5. Репин ВТ., Тартаковский Г.П. Статистический синтез при априорной неопределенности и адаптация информационных систем. — М.: Сов. Радио, 1977. 6. Сейдж Э.П., Меле Дж. Теория оценивания и ее применение в связи и управлении. Пер. с англ./ Под ред. Б.Р. Левина. —М.: Связь, 1976. 7. Сосулин Ю.Г. Теория обнаружения и оценивания стохастических сигналов.— М.: Сов. радио, 1978. 8. Сосулин Ю.Г. Теоретические основы радиолокации и радионавигации. — М.: Радио и связь, 1992. 9. Стратонович Р.Л. Условные Марковские процессы и их применение к теории оптимального управления. — М.: Изд. МГУ, 1966. 10. Стратонович Р.Л. Принципы адаптивного приема. — М.: Сов. радио, 1973. И . Тихонов В.И. Оптимальный прием сигналов. — М.: Радио и связь, 1983. 12. Тихонов В.И., Миронов М.А. Марковские процессы. — М.: Сов радио, 1977. 13. Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радиотехнических устройств и систем. — М.: Радио и связь, 1991. 14. Трифонов А.П., Шинаков Ю.С. Совместное различение сигналов и оценка их параметров на фоне помех. — М.: Радио и связь, 1986. 15. Ярлыков М.С., Миронов М.А. Марковская теория оценивания случайных процессов. — М.: Радио и связь, 1993. 16. Задачник по курсу «Основы теории радиотехнических систем»/ Под ред. П.А. Бакулева и В.А. Вейцеля. —М.: Радио и связь, 1996. 17. Kalman R.E. А New Approach to Liner Filteringand Prediction Problems// Trans. ASME, J. Basic Eng., 1960, vol. 82D. 18. Wiener N. Extrapolation, Interpolation and Smoothing of Stationary Time Series. — N . -Y.: John Wiley, 1949. 398
Учебное
издание
Александр Иванович Перов
Статистическая теория радиотехнических систем
Зав. редакцией И. А. Кузьмина Редактор-оператор Ю.А. Ковелина
П1Д. Х» 79. Сдано в набор 01.03.2003. Подписано в печать 09.04.2003. Формат 60 х 90 1/16. Бумага офсетная. Гарннтура Тайме. Печать офсетная Печ. л. 25. Тираж 3 ООО эк1. Зак. № 2041
Издательство «Радиотехника». 103031, Москва, К-31, Кузнецкий мост, д. 20/6. Тел./факс: 921-48-37; 925- 78-72, 925-92-41. E-mail: ipry.hrtgonline.ru >\A\w. webcenter.ru / - i p r z h r /
. Отпечатано в ООО П Ф "Полиграфист" 160001, г. Вологда, ул. Челюскинцев, д. 3.
/
Перов
Александр
Иванович
доктор техии'кнжих п а у к , jipocfjcccoi) кафе/1,ры Р?|;1,иотсхнимеских систс^м Московскслю '>не{:)гет и ч с с к о г о и н с т и т у т а (техиичсс^кого у н и в е р с и т е т а ) . Облает», н а у ч н ы х и н т е р е с о в - о п т и м а л ь н ы й и р и е м с и г н а л о в в сисп^емах р а д и о н а в и г а ц и и , р а д и о л о к а ции и радиоуправления.
Т е л . / ф а к с : (095) 9 2 5 - 9 2 4 1 E-mail: iprzhr