5 sl sign
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
731
On Slideshare
731
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
2
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. РАЗДЕЛ 5. ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ СИГНАЛОВ Введение. При передаче сообщений детерминированное описание сигналов принципи-ально невозможно и на смену ему приходит вероятностное (статистическое)описание. Отличительная черта случайного сигнала состоит в том, что его мгновенныезначения заранее не предсказуемы. Однако, изучая такой сигнал более при-стально, можно заметить, что ряд характеристик весьма точно описываются ввероятностном смысле. Например, напряжение на зажимах нагретого резисторапредставляет собой последовательность малых, быстроизменяющихся во вре-мени случайных отклонений, называемых флуктуациями. Примечательно, чточаще всего наблюдаются небольшие отклонения от среднего уровня; чембольше отклонения по абсолютному значению, тем реже они наблюдаются. Уже в этом проявляется некоторая статистическая закономерность. Распола-гая сведениями о вероятностях флуктуаций различной величины, удается со-здать математическую модель случайного колебания, вполне приемлемую как внаучном, так и в прикладном плане. Исходные понятия. Математический аппарат анализа случайных сигналов строится на базе тео-рии вероятностей и ее разделов – теории случайных процессов, теории стати-стических решений и т.п. Ведущим понятием в теории вероятностей являетсяслучайное событие. Если N событий равновозможны, но только n из них обладают признаком A,то вероятность события, имеющего этот признак, P(A)=n/N. По смыслу определения вероятность всегда удовлетворяет условию 0≤P≤1. Соотношения между вероятностями различных событий, т.е. разных исходовопыта, называют законом распределения вероятностей. Группа событий представляет множество возможных исходов опыта.Несколько событий образуют полную группу, если в результате испытанийобязательно будет происходить одно из них. Несовместимые события характерны тем, что появление в опыте одного изних исключает возможность осуществления другого. Часто возникает необходимость выразить вероятность некоторого сложногособытия через вероятности составляющих его событий. Для этого используют-ся понятиями суммы и произведения событий. Суммой двух событий A и B называют событие C, состоящее в наступле-нии или A или B: C=A+B. Произведением двух событий A и B называют событие C, состоящее в осу-ществлении A и B вместе: C=AB. 53
  • 2. Вероятность суммы несовместимых событий определяется теоремой сложе-ния и находится по формуле: P(A+B)=P(A)+P(B). Вероятность суммы несовместимых событий A1, A2, … An, имеющихвероятности P(A1), P(A2) … P(An) равна P (A1+A2+ … An)=P(A1)+P(A2)+ … P(An) Следствием такого обобщения является «правило нормировки»: если A1, A2,… An несовместимы и составляют полную группу, то сумма вероятностейэтих событий равна единице: n ∑ P( Ai ) = 1 i =1 Вероятность произведения двух событий A и B можно определить, пользу-ясь «теоремой умножения»: вероятность произведения событий A и B равнапроизведению вероятности первого из них на условную вероятность второгопри условии, что осуществилось первое P (AB) =P (A) P (B/A) =P (B) P (A/B) Если A и B независимы, то это означает, что P(A/B)=P(A) и P(B/A)=P(B),откуда следует, что P(AB)=P(A)P(B). Приведенная формула обобщается на случай произведения нескольких неза-висимых событий, имеющих вероятности P(A1), P(A2), … P(An): P (A1A2...An) =P (A1) P (A2)…P (An). Если различным результатам опыта приписать количественные характери-стики, придем к понятию случайной величины. В зависимости от структурымножества возможных значений случайной величины могут быть дискретнымиили непрерывными. Описание случайной величины состоит в том, чтобы указать все возможныеее значения и вероятности их наступления. В радиотехнике понятие случайной величины используется при описанииреальных процессов, протекающих в различных устройствах под действиемсигналов и помех. Эти процессы являются случайными функциями времени,поскольку значения таких функций в произвольно взятые моменты времени мо-гут быть охарактеризованы только как случайных величины. Рассмотрим ток через телеграфный ключ (рис. 5.1), с помощью которого i(t) t1 t2 ti t Рис. 5.1формируется последовательность посылок или пауз. Если содержание теле-граммы заранее неизвестно, то мгновенное значение тока в любой из моментов 54
  • 3. t1, t2, …ti, можно рассматривать как случайное, и для его описания необходимывероятностные характеристики. Здесь мы впервые столкнулись со случайнымпроцессом, представляющим поток случайных величин, которые описываютповедение этого процесса во времени. Виды случайных процессов в радиотехнике. Все реальные физические процессы протекают в непрерывном времени инаиболее точно описываются непрерывными функциями. Однако при практиче-ском анализе случайных колебаний и сигналов часто используют математиче-ские модели, опирающиеся на дискретное представление, как аргументов, так ифункций. Применение той или иной модели определяется необходимой степе-нью детализации различных сторон явления. Используется следующая класси-фикация. 1) Вполне непрерывный случайный процесс. Физическим прообразом можетслужить флуктуационный шум, существующий на выходе всякого радиоприем-ного устройства даже в отсутствие принимаемого полезного сигнала. Шкаламгновенных значений непрерывного случайного процесса является сплошной,так как выходное напряжение в различные моменты может принимать любые u(t) t Рис. 5.2значения (рис. 5.2). 2) Случайный процесс, непрерывный по времени и квантованный по уровнюотличается от вполне непрерывного тем, что его мгновенные значения не обра-зуют непрерывного ряда. Пример – телеграфный сигнал (Рис. 5.1). 3) Случайный процесс, дискретный по времени и непрерывный по уровню,т.е. дискретный поток непрерывных случайных величин (Рис. 5.3). Прообраз -последовательность видеоимпульсов большой скважности («выборок», ам- u(t) 0 t Рис. 5.3плитуда которых изменяется от импульса к импульсу по случайному закону,причем модулирующая кривая представляет непрерывный случайный процесс. 55
  • 4. Случайные сигналы такого вида могут получаться в передающих устройствахсвязных радиолиний с АИМ. 4) Случайный процесс дискретный по времени и квантованный по уровню,т.е. дискретный поток дискретных случайных величин (Рис. 5.4). Отличие отпроцесса предыдущего вида состоит в том., что последовательность образуетсявыборками из дискретного случайно процесса. u(t) 0 t Рис. 5.4 Приведенные графики, изображают отдельные вполне детерминированныереализации случайных процессов. Но такая отдельная реализация являетсяпредставителем целого ансамбля возможных реализаций данного случайногопроцесса. Ансамбль составляет полную группу событий, поэтому очевидно дляисчерпывающего описания статистических свойств процесса необходимо опре-делить вероятность каждой реализации. Однако практически это можно сделатьтолько в случаях, когда реализации, входящие в ансамбль, отличаются друг отдруга параметрами, постоянными на протяжении каждой реализации. Подобный ансамбль соответствует, например, случайному процессу видаx(t)=Umcos(ω0t+ϕ), где Um и ω0 – одинаковые для всех реализаций постоянныевеличины а ϕ - фаза, случайная по величине, но постоянная на протяжении лю-бой отдельной реализации (Рис.5.5). Такая функция удовлетворительно описы- вает напряжение на выходе генератора гармони- x1(t) ческих колебаний с неизвестной заранее началь- ной фазой. Для полного описания вероятностных t характеристик процесса достаточно задать рас- x2(t) пределение вероятностей фазы ϕ. Ансамбль реализаций случайного процесса t более общего вида (Рис. 5.6) – его физическим эк- вивалентом можно считать, например, набор шу- мящих источников одинаковой физической при- xi(t) роды, находящихся в идентичных условиях − од- нотипных электронных ламп или транзисторов t при одинаковой окружающей температуре и рав- ных питающих напряжениях. Здесь нельзя точно Рис. 5.5 предсказать поведение отдельной реализации по одному или нескольким мгновенным значениям,или по найденной начальной фазе. Чтобы описать статистические свойства та-ких колебаний, необходимо уметь задавать законы распределения вероятностей 56
  • 5. мгновенных значений, а также учитывать вероятности смены одних значений x1(t) 0 t x1(t1) x2(t) 0 t x2(t1) xN(t) xN(t1) 0 t t1 Рис. 5.6другими. Одномерные законы распределения и их моменты. Поскольку определение случайного процесса основано на понятии случай-ной величины, необходимо установить достаточно универсальный способ пред-ставления законов распределения вероятностей случайных чисел (величин).Если случайная величина дискретна, ее закон можно описать таблицей. Веро-ятностные характеристики непрерывных случайных чисел нельзя табулировать,а графическое или аналитическое их описание должно отражать возможностьпоявления в случайном опыте любого из несчетного множества значений. Зафиксируем на всех реализациях момент времени t1 (Рис. 5.6) и измеримполучившиеся в этот момент мгновенные значения. В результате получим на-бор отличающихся друг от друга чисел x1(t1), x2(t1),…xN(t1). Выделив из общего количества N те n чисел, которые заключены в достаточ-но малом интервале (x, x+∆x), можем установить, что относительная доля n/Nзначений, попавших в этот интервал, с ростом N стремится к определенной ве-личине, пропорциональной ∆x. Коэффициент пропорциональности зависит от xи может изменяться также при сдвиге точки отсчета t1. Таким образом, можнонаписать n lim = p1( x , t1)∆x N (5.1) N →∞ Коэффициент p1(x, t1) называют одномерной плотностью вероятности слу-чайного процесса X(t). Индекс при t1 можно опустить, если p1 задается для лю-бого t. 57
  • 6. Приведенное определение, по сути дела, повторяет определение плотностивероятности случайной величины. Рассмотрим простой случайный опыт. Пустьрадиолокатор с дальностью действия от 0 до L км при включении обнаружива-ет точечную цель, расстояние до которой обозначим xi. Определим вероятностьтого, что при обнаружении очередной цели расстояние до нее окажется в интер-вале (x, x+∆x), если предположить достаточную малость этого интервала. Веро-ятность интересующего нас события P(x≤xi<x+∆x) пропорциональна ∆x и пристягивании интервала в точку, очевидно, стремится к нулю. Следовательно, мо-жем записать P(x≤xi<x+∆x)≈p1(x) ∆x, (5.2)где p1(x) – одномерная плотность вероятности случайной величины X. Видфункции p1(x) зависит от условий опыта. Если дальность до цели может равно-вероятно оказаться любой из интервала от 0 до L, то p1(x)=const. Для численно-го определения этой константы следует воспользоваться правилом нормировки,по которому сумма вероятностей попадания точки xi на бесконечно малые от-резки, в целом образующие L, должна быть равна единице. Это правило удоб-нее записывать в интегральной форме ∞ ∫ p1(x )dx = 1 . (5.3) −∞ Бесконечные пределы интегрирования фактически предусматривают инте-грирование по всему интервалу возможных значений случайной величины. Внашем примере это дает L ∫ p1( x )dx = Lp1( x ) = 1, (5.4) 0откуда получаем выражение для равномерного закона распределения случай-ной величины в интервале L: p1(x)=1/L. График этого закона распределения приведен на рис. 5.7. Легко видеть, чтоплощадь под кривой равна 1. p1(x) 1/L 0 x x L Рис. 5.7 Для одномерной плотности вероятности случайного процесса правило нор-мировки записывается аналогично: ∞ ∫ W1(x, t )dx = 1. (5.5) −∞ 58
  • 7. Как и сама вероятность, плотность вероятности неотрицательна. Плотностьвероятности p1(x) иначе называют дифференциальным законом распределения вотличие от интегральной функции распределения F(x), которая представляетсобой вероятность P события, заключающегося в том, что случайная величинаокажется внутри интервала (-∞, x). По определению интегральная функция рас-пределения выражает вероятность суммы событий, состоящих в попадании слу-чайной величины X во все бесконечно малые интервалы слева от точки x, и этавероятность может быть записана в виде интеграла x F( x, t ) = P(X( t ) < x ) = ∫ p1(x, t )dx . (5.6) −∞ Параметр t в этой записи указывает на то, что данная случайная величина яв-ляется выборкой случайного процесса, взятой в момент t. В случаях, когда за-кон распределения от времени не зависит, аргумент t опускают. В соответствии с последней формулой, интегральная функция распределе-ния соответствует площади, заключенной под кривой плотности вероятностислева от выбранной точки x. В приведенном примере с равномерным диффе-ренциальным законом распределения функция F(x), численно выражающая этуплощадь, линейно зависит от аргумента на интервале длиной L, вне него слеваравна нулю, а справа – единице (рис. 5.8). F(x) 1 0 x L Рис. 5.8 Два последних свойства присущи любым интегральным функциям распреде-ления и сводятся к предельным соотношениям: lim F( x ) = 0 x → −∞ (5.7) lim F( x ) = 1 x →∞ Обратный переход от интегрального закона распределения к дифференци-альному совершается по формуле d p1 ( x ) = F( x ) , (5.8) dxкоторая получена в результате дифференцирования интеграла по верхнему пре-делу. При нахождении производной от ступенчатой функции возникают формаль-ные осложнения, связанные с необходимостью математического описания раз-рывов плотности вероятности в точках, где интегральная функция терпит скач-ки. Эту трудность можно обойти, если воспользоваться для представленияплотности вероятности в таких точках δ-функцией. Можно показать, что в точ- 59
  • 8. ке разрыва производная от интегральной функции определяется произведениемразности значений функции F(x) справа и слева от рассматриваемой точки x0 наδ-функцию p1(x)=[F+(x0)-F-(x0)]δ(x-x0), где F+(x0) и F-(x0) – значения интеграль-ной функции справа и слева от x0 соответственно. Так, например, аналитическое выражение для плотности вероятности слу-чайной величины, представляющей число очков при случайных опытах с броса-нием игральной кости, записываются в виде 1 1 1 p1( x ) = δ( x − 1) + δ( x − 2) + ... + δ( x − 6). (5.9) 6 6 6 Используя δ-функцию, удается описывать статистические свойства случай-ных процессов или величин смешанного типа. Примером такого процесса слу-жит флуктуационное напряжение на выходе идеального широкополосногоограничителя. Числовые характеристики случайных величин и процессов. Одномерные моментные функции. Одномерные законы распределения величин и процессов дают исчерпываю-щие сведения о вероятностях отдельных значений таких величин или однократ-ных (не связанных между собой) выборок из возможных реализаций случайно-го процесса. Однако при некоторых преобразованиях случайного процесса за-кон его распределения претерпевает изменения, точный расчет которых осуще-ствим далеко не всегда. Более легкой оказывается задача пересчета отдельныхчисловых характеристик распределения. Опыты по определению плотностейвероятностей также сложнее и дороже экспериментов с нахождением числовыххарактеристик. К тому же ответы на многие практические вопросы можнонайти, пользуясь лишь достаточно грубыми числовыми параметрами. Вспомним числовые характеристики одномерных распределений случайныхвеличин, а затем, зная связь между понятиями случайной величины и случайно-го процесса, определим аналогичные характеристики последнего. Все числовые параметры законов распределения (иначе говоря, самой слу-чайной величины) находятся путем вычисления математического ожиданияэтой величины или простейших функций от нее. Понятие математическогоожидания вытекает из определения среднего арифметического. Если случайная величина X является непрерывной, то ее математическоеожидание или среднее значение находят по формуле ∞ M (X) = x = x = m1( x ) = ∫ xp1(x )dx , (5.10) −∞которая представляет предел взвешенной суммы для случая, когда возможныезначения X образуют несчетное множество. Пользуясь δ-функцией для описа-ния плотностей вероятности дискретных случайных величин, можно применятьпоследнюю формулу при решении любых задач с нахождением среднего. 60
  • 9. Математическое ожидание детерминированной функции от случайной ве-личины ϕ(X) находим, рассматривая совокупность возможных значений этойфункции ϕ(x1), ϕ(x2),…ϕ(xn) как новую случайную величину. Таким образом ∞ M[ ϕ( x )] = ϕ( x ) = ∫ ϕ( x )p1( x )dx . (5.11) −∞ Эта формула устанавливает правила нахождения других числовых характе-ристик случайной величины. К ним относятся моменты m2(x), m3(x),…mn(x) длялюбого n: ∞ n n n m n ( x ) = M (X ) = x = ∫x p1( x )dx . (5.12) −∞ Связь между формой закона распределения и его числовыми характеристи-ками становится нагляднее при использовании понятия центрированной слу-чайной величины. Случайная величина называется центрированной, если ее среднее значениеравно нулю. Случайную величину X можно центрировать, если вместо неерассматривать новую величину X-M(X). Поскольку это соотношение эквивалентно изменению всех возможных зна-чений X на одну и ту же постоянную M(X), это равносильно смещению началакоординат на графике одномерной плотности вероятности на M(X) вдоль осиабсцисс и не связано с какими-либо деформациями закона распределения. Моменты центрированной случайной величины называют центральными, вотличии от начальных моментов. По определению центральный момент n-гопорядка ∞ µ n ( x ) = [ x − m1( x )] n = ∫ [ x − m1(x )] n p1( x )dx (5.13) −∞ Первый центральный момент центрированной случайной величины всегдаравен 0. Второй центральный момент можно выразить через начальные моменты. Егоназывают дисперсией случайной величины X, пользуясь для нее обозначениемσ2(x). Дисперсия характеризует рассеяние возможных значений случайной ве-личины X относительно ее среднего значения. Первая степень σ(x), равная положительному значению корня квадратногоиз второго центрального момента, носит название среднего квадратического от-клонения (СКО) случайной величины X. Размерность СКО совпадает с размер-ностью X, поэтому СКО может использоваться в качестве непосредственноймеры ширины кривой плотности вероятности p1(x). Числовые характеристики одномерных распределений случайных процессовопределяются точно так же, как для случайных величин, с той лишь разницей,что получаемые результаты могут оказаться зависящими от времени, посколькусами функции распределения в общем случае тоже изменяются во времени. Та-ким образом, указанные характеристики вместо чисел становятся функциямивремени и носят название моментных функций. 61
  • 10. Двумерные и многомерные характеристики случайных величин и про-цессов. До сих пор мы рассматривали способы математического описания отдель-ных случайных величин или выборок случайного процесса. Введенные одно-мерные характеристики дают важные, но не полные сведения об исследуемыхявлениях. Так, одномерная плотность вероятности случайного процесса не даетпредставления о динамике его развития. Более полной характеристикой случайного процесса является двумернаяплотность вероятности, отражающая вероятностную связь между значениямислучайной функции в два произвольных момента времени t1 и t2. Если рассмат-ривать ансамбль возможных реализаций процесса, то двумерная функция рас-пределения будет характеризовать совместно как вероятности его значений вмоменты t1 и t2, так и вероятности смены одних значений другими при переходеот t1 к t2. Совокупность выборок xi(t1) и xi(t2) можно представить как две случайныевеличины, между которыми существует статистическая связь. Пользуясь такимподходом, нетрудно понять смысл определения двумерной плотности вероятно-сти. Оно вытекает из записи выражения, представляющего вероятность попада-ния конца случайного вектора в пределы достаточно малой площадки ∆x1, ∆x2 x2 ∆x2 x2 ∆x1 x1 x1 Рис. 5.9около точки с координатами x1, x2 (рис. 5.9)  x ≤ X1 < x1 + ∆x1  P 1  x ≤ X < x + ∆x  ≈ p 2 ( x1, x 2 ) ∆x1∆x 2  (5.14)  2 2 2 2 Поделив обе части этого выражения на ∆x1∆x2 и устремив полученный ре-зультат к пределу, найдем двумерную плотность вероятности  x ≤ X1 < x1 + ∆x1  P 1  x ≤ X < x + ∆x   p 2 ( x1, x 2 ) = lim  2 2 2 2. (5.15) ∆x1 →0 ∆x1∆x 2 ∆x 2 →0 Свойства введенной функции распределения во многом подобны свойствамодномерной плотности вероятности. Как всякая вероятность, двумерная плот-ность – неотрицательная функция. 62
  • 11. Правило нормировки двумерной плотности вытекает из условия, что вероят-ность того, что конец двумерного случайного вектора попадет в какую либо източек плоскости X 1X2 есть вероятность достоверного события, равная единице.Поэтому ∞ ∞ ∫ ∫ p 2 (x1, x 2 )dx1dx 2 = 1 (5.16) −∞ −∞ При решении практических задач часто используют правило перехода отдвумерной плотности вероятности к одномерной. Для такого перехода необхо-димо проинтегрировать двумерную плотность вероятности по лишней перемен-ной. Например, ∞ p1( x 2 ) = ∫ p 2 ( x1, x 2 )dx1 . (5.17) −∞ Двумерные законы распределения учитывают статистическую связь отдель-ных пар значений случайных величин или выборок случайного процесса. Дляучета связи между большим числом значений необходимо пользоваться функ-циями распределения более высокой размерности. Плотность вероятностиpn(x1, x2, …,xn) применительно к случайному процессу называется его n - мер-ной плотностью и определяет вероятность того, что значения случайной функ-ции x(t) в моменты t1, t2,…tn заключены соответственно в интервалах (x1,x1+∆x1), (x2, x2+∆x2),…,(xn+xn+∆xn). При достаточно малых ∆xi эта вероятностьравна pn(x1, x2, …xn) ∆x1∆x2…∆xn. Описание случайного процесса при помощи n – мерной плотности вероятно-сти будет тем детальнее, чем больше n. Корреляционные моменты. Многомерные плотности вероятности (как и одномерные) можно описыватьчастными числовыми характеристиками, которые в дополнение к моментам од-номерных распределений дают информацию о статистической связанности зна-чений случайных величин и процессов. Простейшей, хотя и не всегда исчерпывающей мерой связи между значения-ми случайных величин или процессов служат смешанные моменты (моментныефункции) второго порядка. В общем случае они находятся через двумернуюплотность вероятности p2(x1, x2) по формуле ∞ ∞ m12 = ∫ ∫ x1x 2 p 2 (x1 x 2 )dx1dx 2 . (5.18) −∞ −∞ Это выражение представляет собой математическое ожидание произведенияслучайных величин x1 и x2, которые могут быть, например, выборками из слу-чайного процесса X(t) в точках t1 и t2, либо значениями двух разных случайныхфункций X1(t) и X2(t). Наиболее употребительной из смешанных числовых ха- 63
  • 12. рактеристик является математическое ожидание произведения центрированныхслучайных величин ∞ ∞ µ12 = ∫ ∫ [ x1 − m1 ( x1 )][ x 2 − m1 (x 2 )] ⋅ p 2 (x 1 , x 2 )dx1dx 2 . (5.19) −∞ −∞ Эту характеристику называют корреляционным моментом случайных чиселx1 и x2. Если представляют выборки из одной и той же случайной функции X(t),то иногда такую характеристику называют автокорелляцией. В случае, когдаусредняется произведение центрированных значений, взятых из разных процес-сов, его называют также взаимной корреляцией. Рассматривая автокорреляцию случайного процесса, легко установить, чтопри достаточно малом интервале τ между моментами отсчета t2(i) и t1(i) любые  пары центрированных значений x (i) и x (i) лишь немногим отличаются по 1 2величине и почти никогда не различаются знаками. Поэтому среднее для ан-самбля реализаций X(t) произведение таких величин остается положительным ипо мере уменьшения τ приближается к дисперсии, т. е. µ12(t1=t2)=σ2(t) Невозможность сколь угодно быстрой смены значений в реализациях функ-ции X(t), если она описывает физический процесс, объясняется инерционно-стью элементов, в которых он протекает. Ими, в частности, могут быть конден-саторы, катушки индуктивности, распределенные реактивности проводников.Если реализации не содержат детерминированной или квазидетерминирован-ной составляющей, то такой процесс называют чисто случайным. Такой про-цесс по определению является центрированным, ибо отличное от нуля среднеезначение представляет уже некоторую детерминированную компоненту. С уве-личением интервала τ между выборками из чисто случайного процесса относи-  тельное количество реализаций, в которых x 1 и x 2 противоположны по знаку,растет и становится соизмеримо с числом пар, где знаки совпадают. Это умень-шает математическое ожидание произведения центрированных величин. Такоесвойство автоковариации можно представить неравенством µ12(t1=t2)≥µ12(t1≠t2). При значительном разносе по оси времени точек отсчета в чисто случайном  процессе связь значений x и x уменьшается. Это свойство выражается со- 1 2отношением lim µ12 = 0 t 2 − t1 = τ→∞ . Стационарные и эргодические случайные процессы. В радиотехнике большую роль играют стационарные случайные процессы. 64
  • 13. Случайный процесс X(t) является стационарным, если любая n – мернаяфункция распределения его значений не меняется при любом сдвиге всей груп-пы точек t1, t2, …tn вдоль оси времени, что эквивалентно переносу начала отсче-та времени. Из этого определения следует, что для стационарного случайногопроцесса: 1) одномерная функция распределения неизменна в любой момент времени p1(x, t)=p1(x, t+∆t)=p1(x); 2) двумерная функция распределения зависит только от разности t2-t1=τ, т. е. p2(x1, x2, t1, t2)=p2(x1, x2, τ). То, что это действительно так, можно доказать, если учесть, что ∆t можетбыть любым, в том числе и (–t1). Тогда p2(x1, x2, t1, t2)=p2(x1, x2, t1-t1, t2-t1)=p2(x1, x2, 0, t2-t1)=p2(x1, x2, τ). 3) трехмерная функция распределения зависит от двух разностей t2-t1 и t3-t1 и т.д. Очевидно, n – мерный закон распределения зависит от (n-1) разно- стей, определяющих взаимное положение всех точек отсчета. Поскольку одномерные плотности вероятности стационарного процесса отвремени не зависят, все моменты одномерного распределения и, в частности,среднее значение и дисперсия постоянны. В силу п2. автокорреляция стационарного процесса зависит лишь от разно-сти τ=t2-t1. Стационарные случайные процессы получаются в установившихся режимахработы источников случайного сигнала при неизменных внешних условиях ипостоянстве параметров цепей, пропускающих такой сигнал. Признаком нестационарности случайного процесса служит невыполнениеперечисленных условий неизменности распределений. Нестационарные случайные колебания создает любой источник шумовыхколебаний в переходном режиме работы (например, дробовой шум в электрон-ной лампе в период разогрева катода после включения накала, случайный про-цесс на выходе инерционной радиоцепи в течение некоторого времени послеподачи на ее вход даже стационарного случайного процесса). Анализ нестацио-нарных случайных процессов значительно сложнее, чем стационарных. До сих пор характеристики случайного процесса определялись через соот-ветствующие статистические средние значения, находимые путем усредненияпо ансамблю возможных реализаций. Оказывается, что для многих стационар-ных случайных процессов законы распределения или их моментные функцииможно получать, усредняя необходимые величины по одной реализации за до-статочно большой промежуток времени. На эту возможность указывает тот факт, что однотипные физические систе-мы (например, радиоприемные устройства одинаковой конструкции) не могутобладать заметно различающимися «шумовыми» характеристиками, если онисостоят из аналогичных друг другу элементов. Для создания физической моде-ли ансамбля следовало бы заставить работать все эти системы совместно ирассматривать каждое из выходных колебаний как отдельную реализацию. Од-нако опыт показывает, что в реальных условиях при достаточной идентичности 65
  • 14. изучаемых систем каждая отдельно взятая реализация случайного процесса мо-жет служить «полномочным» представителем ансамбля в целом. Процессы подобного типа носят название эргодических. Стационарные слу-чайные процессы могут и не обладать свойством эргодичности. Физической мо-делью неэргодического ансамбля может служить тот же набор «шумящих» ра-диоприемников при произвольном положении регуляторов усиления в каждомиз них. Характеристики, получаемые усреднением по отдельной реализации, вэтом случае не обязательно совпадают с аналогичными характеристиками ан-самбля. При анализе двух и более случайных процессов приходится интересо-ваться тем, насколько они связаны между собой и постоянна ли эта статистиче-ская связь. Простейшей функцией распределения, характеризующей степеньсвязи процессов, является двумерная совместная плотность вероятности p(x1,y2, t1, t2), где в общем случае x1 и y2 – значения разных процессов X(t) и Y(t),взятые в различающиеся моменты времени t1 и t2. В случае эргодических стационарных процессов усреднение по ансамблюреализаций и по времени в пределах одной реализации приводит к одинаковымрезультатам: T ∞ 1 2 ∫ xp1 ( x )dx = lim T →∞ T T ∫ x (t )dt = x ( t ), (5.20) −∞ − 2 T ∞ 1 2 ∫ x 2 p1 ( x )dx = lim ∫x 2 ( t )dt = x 2 ( t ), (5.21) −∞ T →∞ T T − 2 T ∞ ∞  2    ∫ ∫ x1 (t ) x 2 (t )p 2 ( x1x 2 )dx1dx 2 = Tlim ∫ x1 (t ) x 2 (t )dt = x1 (t ) x 2 (t ) →∞ (5.22) −∞ −∞ T − 2 Черта сверху везде обозначает усреднение по времени. Первая из этих фор-мул определяет среднее значение непрерывного колебания, а вторая – равно-значна полной средней мощности, развиваемой током или напряжением X(t) наединичном сопротивлении. Если считать x1 и x2 значениями одного и того же процесса x1=x=x(t), x2=xτ=x(t-τ),то правая часть последней формулы может рассматриваться как определениеавтокорреляционной функции (АКФ) колебания x(t), точнее – его переменной,т.е. центрированной слагающей. 66
  • 15. В теории случайных процессов различают понятия стационарности в узкоми широком смысле. Случайную функцию называют стационарной в узком(строгом) смысле, если выполняются условия стационарности распределенияpn, каким бы ни было n. Если же это условие гарантируется лишь до n=2 (т.е.для функций распределения не выше второго порядка), то такой процесс назы-вают стационарным в широком смысле. В этом случае необходимо толькоопределить, как ведут себя первый и второй моменты одномерного распределе-ния. Если они зависят от времени, то процесс нестационарен. Если же эти двамомента не зависят от времени, то можно сделать вывод о стационарности про-цесса в широком смысле. Чтобы убедиться, что процесс стационарен в узкомсмысле, необходимо убедиться, что и все моменты более высоких порядков независят от времени. По реализациям случайного процесса можно сделать вы-вод только о независимости от времени первых двух моментов. На рис. 5.10представлена реализация случайного процесса, с неизменной дисперсией ипеременным во времени средним значением, а на рис. 5.11 – реализация про-цесса среднее значение которого равно 0, а дисперсия вполне определеннымобразом (неслучайно) зависит от времени. x(t) x(t) σ2(x, t) σ2(x, t)=const t 0 t 0 m1(x, t) m1(x, t)=0 Рис. 5.10 Рис. 5.11 Нормальные случайные процессы. Центральная предельная теорема. Корреляционные характеристики являются исчерпывающими для случай-ных процессов с нормальным (Гауссовым) распределением. Такие процессывстречаются в природе и технике чаще других. Поэтому корреляционная теориявыделена, как прикладной раздел теории вероятностей. Одномерный нормаль-ный закон распределения плотности вероятности случайной величины X естьфункция вида (рис. 5.12): 1 2 2 p1( x ) = e − ( x − a ) / 2σ , (5.23) σ 2πгде σ2 – дисперсия случайной величины, a – ее среднее значение (первый мо-мент). Интегральная форма этого закона распределения (рис. 5.13) представляетсяпри помощи интеграла 67
  • 16. x 1 − ( x − a ) 2 / 2σ 2 F( x ) = ∫e σ 2π − ∞ dx (5.24) p1(x) F(x) 1 a x x Рис. 5.12 Рис. 5.13 Значения этого интеграла табулированы, потому что он в элементарныхфункциях не вычисляется. С нормальным законом распределения приходится сталкиваться в случаях,когда рассматривают явления, возникшие в результате совокупного действиябольшого числа случайных факторов. Впервые этот закон был получен при анализе случайных ошибок, присущихмногократным измерениям одной и той же физической величины. А.М. Ляпунов доказал теорему, получившую название центральной пре-дельной теоремы. Из этой теоремы следует, что нормальное распределениевозникает почти во всех случаях, когда анализируемая величина складываетсяиз множества независимых или слабо зависимых случайных слагаемых. Значение нормального закона распределения для анализа случайных процес-сов в радиотехнике очень велико, поскольку большинство первичных источни-ков флуктуаций создают Гауссовы шумы. Причиной случайных флуктуаций служит дискретная природа электрическо-го заряда. Закон распределения случайных отклонений тока или напряжения отсвоего среднего значения можно выявить, рассматривая механизм образованиясуммарного процесса, например, тока в выходной цепи электронной лампы. Не только шумы и помехи, но и полезные сигналы, являющиеся суммойбольшого числа независимых случайных элементарных сигналов, напримергармонических колебаний со случайной фазой или амплитудой, часто можнотрактовать как случайные гауссовские процессы. На основе функции p1(x) можно найти относительное время пребывания сиг-нала x(t) в определенном интервале уровней, отношение максимальных значе-ний к среднеквадратическому (пикфактор) и ряд других важных для практикипараметров случайного сигнала. Рассмотрим пример. Дана одна из реализаций гауссовского процесса приm1=0. Эта функция времени соответствует шумовой помехе, энергетическийспектр которой простирается от нулевой частоты до некоторой граничной ча- 68
  • 17. стоты. Вероятность пребывания значений x(t) в интервале от a до b определяет-ся выражением b Pt1 (a < x ≤ b) = ∫ p1 ( x , t 1 )dx . (5.25) aПодставим в это выражение формулу p1(x): b 2 2 b 2 2 1 1P (a < x < b ) = ∫ e − x / 2σ x dx = ∫ e − x / 2σ x dx − 2πσ x a 2πσ x 0 a b / σx a / σx 1 − x 2 / 2σ x 2 1 − y2 / 2 1 2 ∫e dx = ∫ e dy − ∫ e − y / 2 dy = (5.26) 2πσ x 0 2π 0 2π 0 b aФ( ) − Ф( ). σx σx Функция 1 u − y2 / 2 Ф( u ) = ∫e 2π 0 dy (5.27)называется интегралом вероятностей. В математических справочниках приво-дятся таблицы этой функции. Подставив в формулу для вероятности b/σx = 1, 2, 3 и a/σx=-1, -2, -3, нетруд-но найти вероятности пребывания x(t) в полосах шириной 2σx, 4σx, 6σx, симмет-ричных относительно оси ординат. В рассматриваемом частном случае (|a|=b) формулу для расчета вероятностиможно упростить на основании симметрии относительно оси ординат.Таким образом b / σx 2 1 b ∫ P ( − b < x < b) = 2e − y / 2 dy = 2Ф( ) . (5.28) 2π 0 σx Результаты вычислений сведены в таблицу. В последней графе приведенывеличины, равные 1-2Ф(b/σx). Из этой таблицы следует, что ширину шумовойдорожки нормального шума можно приравнять (4…5) σx. Интервал значений Вероятность пребывания Вероятность пребывания в интервале вне интервала. (-σx, σx) 2·0,3413=0,6826 ~0,317 (-2σx, 2σx) 2·0,4772=0,9544 ~0,046 (-3σx, 3σx) 2·0,49865=0,9973 ~0,003Приведенные данные о распределении вероятностей не дают никаких представ-лений о поведении функции x(t) во времени. Для описания временных характе-ристик функции x(t) необходимо привлечь двумерную плотность вероятности, 69
  • 18. позволяющую найти корреляционную функцию. Другой способ – нахождениеспектра мощности случайного процесса. Энергетический спектр стационарного случайного процесса. Одним из эффективных средств анализа сигналов в радиоцепях являетсяспектральный метод, основанный на представлении электрических колебаний ипередаточных функций систем при помощи преобразований Фурье. Естествен-но попытаться приложить математический аппарат спектрального метода к ана-лизу стационарных случайных процессов. Разложение реализаций случайного процесса общего типа в ряд Фурье недо-пустимо из-за непериодического характера случайной функции. В то же время,интегральное преобразование Фурье к стационарному процессу также неприме-нимо, так как подлежащие вычислению интегралы расходятся из-за невыполне-ния условий Дирихле. Если попытаться представить с помощью обычной спектральной плотностичастотные свойства хотя бы нестационарного случайного процесса, реализациикоторого {xi(t)}T ограничены длительностью T, это оказывается невозможнымиз-за возникшей неопределенности при усреднении по ансамблю соответствую-щих комплексных спектров. Причина в том, что фазовая характеристика усред-нению не поддается, поскольку фазы отдельных спектральных компонент рас-пределены случайно в интервале (-∞, ∞). Выход состоит в том, чтобы при отыс-кании усредненной спектральной характеристики вообще избавиться от фазо-вого множителя ejϕi (ω)T, а это достигается путем умножения комплексного спек-тра Фурье на сопряженную функцию, т.е. переходом к спектральной характери-стике энергии процесса ⋅ ⋅ Эi(ω) T = S i (ω) T S i ( −ω) T , (5.29)где подразумевается существование обычной связи между реализациями и ихспектрами Фурье: 1 ∞ ⋅ jωt ⋅ − jωt ∫ Si (ω) T e dω = x i ( t ) T → Si (ω) T = ∫ x i (t ) T e dt, 2π −∞ (5.30) T  ⋅ ⋅ x i ( t ) T = x i ( − t ) T ↔ S( −ω) T = Si ∗ (ω) T . (5.30) Чтобы не привязывать положение интервала T к началу отсчета t, вместопределов интегрирования здесь указана в скобках под символом неопределен-ного интеграла только величина области интегрирования. В последней формуле справа показаны варианты обозначения функции, ⋅комплексно-сопряженной с S(ω) , а слева – способы, которыми можно отме- Tчать инверсии знака аргумента какой-либо функции, т.е. знаком минус передсимволом аргумента либо галочкой над символом функции. Чтобы обойти трудности, связанные с расходимостью интеграла Фурье вслучае преобразования стационарного процесса X(t), из него исключают посто- 70
  • 19. янную составляющую. Затем вводят в рассмотрение «усеченные» реализацииxi(t)T, представляющие конечные отрезки длиной T неограниченных во времениреализаций xi(t) (рис.14). После этого при помощи предельного перехода T→∞ x(t) T 0 t Рис. 5.14находят так называемый энергетический спектр i-той реализации ⋅ ⋅ E i (ω) T Si (ω) Si ∗ (ω) T (5.31) Wi(ω) = lim = lim T →∞ T T →∞ T Wi характеризует частотное распределение усредненной по времени мощно-сти в i-той реализации процесса. Умножение на 1/T сопряжено с неограничен-ным возрастанием энергии при T→∞. Энергитическим спектром W(ω) cстаци-онарного случайного процесса называется математическое ожидание найден-ной спектральной характеристики 2 ⋅ S(ω)T (5.32) W (ω) = lim . T →∞ T ⋅ В этой формуле опущен индекс i у спектральной плотности S , посколькупри усреднении учитывается весь ансамбль реализаций. Энергетический спектр любой действительной функции – действительнаянеотрицательная функция частоты, т.е. W(ω)≥0. Учитывая, что модуль S(ω) обычного спектра Фурье вещественного процес-са является четной функцией частоты, можно из приведенного определенияэнергетического спектра заключить, что он также четная функция часто-ты:W(ω)=W(-ω). На этом основании вместо W(ω) нередко используют функцию W0(ω), назы-ваемую односторонним энергетическим спектром. Она считается отличной отнуля только в области положительной частоты ω и определяется как 2W (ω), ω > 0  W0 (ω) =  W (0), ω = 0 (5.33)  0, ω < 0  Соотношение между W(ω) и W0(ω) графически показано на рис. 5.15. 71
  • 20. W0(ω W(ω) W(0) 0 ω Рис. 5.15 Формулы Винера-Хинчина. Обычное преобразование Фурье устанавливает связь между законом измене-ния сигнала во времени и его частотным спектром. Усредненные характеристи-ки временных и частотных свойств случайного процесса, т.е. функция автокор-реляции и энергетический спектр, также взаимосвязаны. Существует формула,названная именами ученых Н. Винера и А.Я. Хинчина, независимо друг от дру-га получивших ее. Согласно этой формуле энергетический спектр стационарно-го случайного процесса с нулевым средним значением и его автокорреляцион-ная функция связаны прямым и обратным интегральными преобразованиямиФурье: ∞ ∞ 1 ∫ Ψ (τ) у − jωτ dτ ↔ Ψ (τ) = ∫ W(ω)e dω . jωτ (5.34) −∞ 2π − ∞ Здесь Ψ(τ) – автокорреляционная функция стационарного (не обязательноэргодического) случайного процесса X(t) с нулевым средним значением. Свойства спектрально-корреляционных характеристик стационарногослучайного процесса. Функции корреляции и энергетическому спектру всякого процесса присущисвойства, которые характерны для любой пары функций, связанных преобразо-ванием Фурье. В частности, чем шире спектрW(ω), тем более узка функцияΨ(τ). В качестве меры ширины энергетического спектра стационарного случайно-го процесса часто берут «энергетическую ширину» ∆fэ, определяя ее по форму-ле ∞ W0(f0) ∆f э = ∫ W (f )df / W (f 0 ), 0 (5.35) где W(f0) – значение энергетического спек- ∆fэ тра на некоторой характеристической часто- те (рис. 5.16). Обычно f0 соответствует поло- жению максимума спектральной плотности f мощности. Значение ∆fэ в общем случае пре- f0 восходит полосу, определяемую по уровню Рис. 5.16 половинной мощности 0,5W(f0) (по напряже-нию – по уровню 0,7). 72
  • 21. Ширину кривой Ψ(τ) принято оценивать интервалом корреляции, которыйнаходят по формуле ∞ ∫ Ψ (τ)dτ ∞ . (5.36) ∆τ к = 0 = ∫ R ( τ ) dτ Ψ ( 0) 0 Иначе говоря, интервал корреляции есть полуширина прямоугольника еди-ничной высоты, равновеликого с площадью, заключенной под кривой коэффи-циента корреляции. Пользуясь свойствами четности функции корреляции и энергетическогоспектра, а также понятием односторонней спектральной плотности, можно припомощи формулы Эйлера избавиться от показательных функций в формулахВинера-Хинчина и представить их иначе: ∞ 1 W (ω) = 2 ∫ Ψ (τ) cos ωτdτ = W0 (ω), (5.37) 0 2 ∞ ∞ 1 1 Ψ ( τ) = ∫ W0 (ω) cos ωτdω = π ∫ W(ω) cos ωτdω 2π 0 (5.38) 0 Нередко вместо «круговой » частоты ω берут «циклическую» частоту f=ω/2π. При такой замене прямое и обратное преобразование приобретают симмет-ричный вид: ∞ W (f ) = 2 ∫ Ψ (τ) cos 2πfτdτ , (5.39) 0 ∞ Ψ (τ) = 2 ∫ W (f ) cos 2πfτdf (5.40) 0 Из этих формул следуют следующие соотношения: ∞ W (0) = 2 ∫ Ψ ( τ)dτ, (5.41) 0 ∞ Ψ (0) = 2 ∫ W (f )df (5.42) 0 Если f0=0, то W(f0)=W(0) и тогда: 73
  • 22. ∞ ∫ W(f )df 0 ∆f э = ∞ , (5.43) 2 ∫ Ψ (τ)dτ 0 ∞ ∫ Ψ (τ)dτ 0 ∆τ к = ∞ (5.44) 2 ∫ W (f )df 0 Удвоив каждое из полученных равенств и перемножив правые и левые ча-сти, придем к окончательной формуле 2∆fэ2∆τк=1. (5.44) Таким образом, зная интервал корреляции случайного процесса, можноопределить энергетическую ширину спектра как величину, обратно ей пропор-циональную. Иногда интервалом корреляции называют 2∆τк, а энергетическойшириной спектра − 2∆fэ. Но это не меняет существа дела, поскольку произведе-ние названных параметров остается постоянным. В тех случаях, когда ширина спектра ∆fэ не намного отличается от частоты,соответствующей его верхней границе fв (случайный процесс с таким спектромназывается широкополосным), все приведенные формулы остаются достаточноточными. Но, если ∆fэ<<f0 (узкополосный процесс), определение интервала кор-реляции по приведенным формулам теряет смысл, так как сам случайный про-цесс становится похожим на гармонический сигнал, параметры которого (ам-плитуда и фаза) изменяются гораздо медленнее мгновенного значения колеба-ния частоты f0. Коэффициент корреляции узкополосного процесса с симметрич-ным относительно f0 спектром обычно представляется в виде R(τ)=ρ(τ)cosω0τ, (5.45)где ρ(τ) – медленная функция, представляющая собой корреляционную харак-теристику случайных параметров процесса. Особого внимания заслуживает формула ∞ Ψ (0) = 2 ∫ W (f )df , (5.46) 0которую удобнее переписать в виде ∞ 2 σ x = ∫ W0 (f )df . (5.47) 0Она показывает, что весь энергетический спектр случайного процесса заключа-ет в себе всю среднюю мощность. Как следует из этой формулы, если σ2x –мощность, то энергетический спектр W(f) имеет размерность энергии[Вт/Гц=Вт⋅с]. Этим и объясняется название спектра – энергетический. 74
  • 23. Белый шум. В случаях, когда шум возникает в результате совместного протекания мно-жества слабо зависимых явлений (например, вылета электронов с поверхностикатода), мгновенные значения получаемого процесса оказываются почти несвязанными в статистическом смысле в достаточно близкие моменты времени.(«достаточно близкие» - в сравнении с постоянными времени исследуемых си-стем). Для многих задач весьма продуктивным является приближенное представле-ние корреляционной характеристики подобного процесса x(t) в виде δ-функции. Ψ(τ)=(W0/2)δ(τ), (5.48)где W0/2 - постоянный множитель. Смысл такого выражения для функции корреляции состоит в том, что значе-ние x(t) в любые два сколь угодно близкие моменты времени считаются некор-релированными. Энергетический спектр такого процесса, вычисленный по фор-муле прямого преобразования Фурье, равен ∞ W0 W0 ∫ δ(τ)e − jωτ W (ω) = dτ = , (5.49) 2 −∞ 2так как ∞ ∫ δ ( τ) e − jωτ dτ = 1 . −∞ Таким образом, спектральная плотность мощности процесса постоянна привсех частотах равна W0 (рис. 5.17). W0(f) W0 0 f Рис. 5.17. Случайный процесс, обладающий равномерным энергетическим спектром,называют белым шумом, по аналогии с белым светом, имеющим в видимой ча-сти спектра равномерный сплошной спектр. Если найти полную мощность (дисперсию) рассматриваемого процесса, торезультат σ2=∞ будет абсурдным с физической точки зрения. Это являетсяследствием принятой идеализации. В то же время такая идеализация вполнеприменима, когда время корреляции шума много меньше постоянной временисистемы, питаемой от источника такого случайного процесса, или иначе, когдаАЧХ исследуемой радиоцепи дает возможность считать спектральную плот-ность на входе приближенно постоянной. Использование белого шума позволяет находить все необходимые характе-ристики случайного процесса на выходе радиосистемы только через собствен-ные параметры радиоцепей, входящих в ее состав. 75
  • 24. Законы распределения плотности вероятности белого шума могут быть лю-быми и во многих приложениях их удобно считать нормальными. Примеры корреляционных характеристик случайных процессов. Рассмотрим пример. Пусть стационарный эргодический случайный процесс обладает односто-ронней спектральной плотностью мощности W0(f)=W0 постоянной в интервалечастот (0, f0) и равной нулю вне этого интервала (рис. 5.17). Найдем корреляци-онную функцию такого процесса. W0(f) 0 f0 f Рис. 5.17 ∞ fв sin 2πf в τ Ψ (τ) = 2 ∫ W (f ) cos 2πfτdf = ∫ W0 cos 2πfτdf = W0 f в . (5.50) 0 0 2πа в τПолученная корреляционная функция имеет вид, представленный на рис. 5.18 Ψ(τ) 0 τ 1/2fв 1/fв Рис. 5.18 76