Характеристики случайных сигналов и помех. Измерение характеристик случайных сигналов

💖 Нравится? Поделись с друзьями ссылкой

1. Особенности исследования САУ при случайных воздействиях

При детерминированных заранее заданных воздействиях состояние САУ в любой момент t определяется начальным состоянием системы в некоторый момент времени t0 и приложенными к системе воздействиями. Эта задача определяется решением соответствующего дифференциального уравнения

anx (n)+an-1x(n-1)+…+a0x=bmg(m)+bm-1g(m-1)+…+b0g. (26.1)

Если ai, bj - постоянные коэффициенты, а g - определенная функция времени, то решение этого уравнения для заданных начальных условий будет единственным и определенным для всего интервала времени.

Однако в реальных условиях часто внешние воздействия изменяются случайно, т.е. заранее не предвиденным образом. Например:

суточные изменения нагрузки энергосистемы;

порывы ветра, действующие на самолет;

удары волны в гидродинамических системах;

сигналы радиолокационных установок;

шумы в радиотехнических устройствах и т.д.

Случайные воздействия могут прикладываться к системе извне (внешние воздействия) или возникать внутри некоторых ее элементов (внутренние шумы).

Очевидно, если в уравнении (26.1) g - входное воздействие заранее не определено, т.е. является случайной функцией, или параметры системы ai, bj изменяются случайным образом, то получить решение этого уравнения в детерминированном (т.е. определенном) виде невозможно.

Конечно, можно задаться некоторыми максимальными значениями этих параметров и решить поставленную задачу (расчет системы на заданную точность при максимальных значениях случайных воздействий). Но поскольку максимальные значения случайной величины наблюдаются редко, то в этом случае к системе будут предъявлены заведомо более жесткие требования, чем это вызывается реальностью.

Правда, такой подход иногда является единственно возможным(высокоточное производство, иначе – брак). Поэтому в большинстве случаев расчет системы при случайных воздействиях ведут не по максимальному, а по наиболее вероятному значению случайных величин, т.е. по такому значению, которое встречается наиболее часто.

В этом случае получают наиболее рациональное техническое решение (меньший коэффициент усиления системы, меньшие габариты отдельных устройств, меньшее потребление энергии), хотя для маловероятных значений задающего воздействия будет иметь место ухудшение работы системы.

Расчет САУ при случайных воздействиях с помощью специальных статистических методов, которые оперируют статистическими характеристиками случайных воздействий, являющихся не случайными, а детерминированными величинами.

САУ, спроектированная на основе статистических методов, будет обеспечивать соответствующие требования не для одного, детерминированного воздействия, а для целой совокупности этих воздействий, заданных с помощью статистических характеристик (если ошибка САУ носит случайный характер, то точное ее значение в какой-либо момент времени при статистическом расчете получить невозможно).

Статистические методы расчета САУ основаны на расчетах и работах советских ученых: Хинчина А.Я., Колмогорова А.Н., Гнеденко В.В., Солодовникова В.В., Пугачева В.С., Казакова И.Е. и др., а также зарубежных ученых – Н. Винера, Л. Заде, Дж. Рагоцине, Калмана, Бьюси и др.

2. Краткие сведения о случайных процессах.

Случайной функцией называется функция, которая при каждом значении независимой переменной является случайной величиной. Слу­чайные функции, для которых независимой переменной является время t,называют случайными процессами. Так как в САУ процессы протекают во времени, то в дальнейшем будем рассматривать только случайные процессы.

Случайный процесс x(t) не есть определенная кривая, он явля­ется множеством определенных кривых x i (t) (i=1,2,…,n), по­лучаемых в результате отдельных опытов (рис.26.1). Каждую кривую этого множества называют реализацией случайного процесса, и сказать, по какой из реализаций пойдет процесс, невозможно.

Рис. 26.1. Графики реализаций и математического ожидания случайного процесса

Для случайного процесса, как и для случайной величины, для определения статистических свойств вводят понятие функции распре­деления (интегральный закон распределения) F(x, t) и плотнос­ти вероятности (дифференциальный закон распределения) w(x, t). Данные характеристики зависят от фиксированного момента времени наблюдения t и от некоторого выбранного уровня x, то есть явля­ются функциями двух переменных - x, и t.

Функции F(x, t) и w(x, t) являются простейшими статис­тическими характеристиками случайного процесса. Они характеризуют случайный процесс изолированно в отдельных сечениях, не раскрывая связи между сечениями случайного процесса.

К основным характеристикам случайных процессов, наиболее ши­роко используемых при исследовании систем управления, относят: математическое ожидание, дисперсию, среднее значение квадрата слу­чайного процесса, корреляционную функцию, спектральную плотность и другие.

А. Математическое ожидание m x (t) является средним значением случайного процесса x(t) по множеству и определяется

(26.2)

где w 1 (x, t) - одномерная плотность вероятности случайного про­цесса x(t).

Математическое ожидание случайного процесса x(t) представляет собой некоторую неслучайную функцию времени m x (t), около которой группируются и относительно которой колеблются все реализации дан­ного случайного процесса (рис. 26.1).

Средним значением квадрата случайного процесса называют вели­чину

(26.3)

Часто вводят в рассмотрение центрированный случайный процесс , под которым понимают отклонение случайного процесса X(t) от его среднего значения m x (t), или

(26.4)

Б. Дисперсия. Чтобы учесть степень разбросанности реализаций случайного про­цесса относительно его среднего значения, вводят понятие дисперсии случайного процесса, которая равна математическому ожиданию квад­рата центрированного случайного процесса

(26.5)

Дисперсия случайного процесса является неслучайной функцией времени D x (t) и характеризует разброс случайного процесса Х(t) от­носительно его математического ожидания m x (t).

На практике широко применяются статистические характеристики, имеющие ту же размерность, что и случайная величина, к которым от­носятся:

Среднее квадратическое значение случайного процесса

равное значению квадратного корня из среднего значения квадрата случайного процесса;

Среднее квадратичное отклонение случайного процесса

(26.7)

равное значению квадратного корня из дисперсии случайного процесса.

Математическое ожидание и дисперсия являются важными характе­ристиками случайного процесса, но не дают достаточного представления о внутренних связях случайного процесса, которые оказывают су­щественное влияние на характер его реализаций в пределах заданного интервала времени.

Одной из статистических характеристик, отражающих особенности внутренних связей случайного процесса, является корреляционная функция.

В. Корреляционной функцией случайного процесса Х(t) называют неслучайную функцию двух аргументов R x (t 1 ,t 2), которая для каж­дой пары произвольно выбранных значений моментов времени t 1 и t 2 равна математическому ожиданию произведения двух случайных величин -Х(t 1) и Х(t 2), соответствующих сечений случайного процесса:

где w 1 (x 1 , t 1 , x 2 , t 2) двумерная плотность вероятности.

Случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Различают стационарность в узком и широком смысле .

Стационарным в узком смысле называют случайный процесс Х(t), если его n-мерные функции распределения и плотность вероятнос­ти при любом n не зависят от положения отсчета времени t.

Стационарным в широком смысле называют случайный процесс X(t), математическое ожидание которого постоянно:

М[Х(t)]= m x =const, (26.9)

а корреляционная функция зависит только от одной переменной - раз­ности аргументов t=t 2 -t 1:

В теории случайных процессов пользуются двумя понятиями сред­них значений: среднее значение по множеству и среднее значение по времени.

Среднее значение по множеству определяется на основе наблюде­ния над множеством реализаций случайного процесса в один и тот же момент времени, т.е.

(26.11)

Среднее значение по времени определяется на основе наблюде­ний за отдельной реализацией случайного x(t) на протяжении доста­точно длительного времени Т, т.е.

(26.12)

Из эргодической теоремы вытекает, что для так называемых эргодических стационарных случайных процессов среднее значение по множеству совпадает со средним значением по времени, т.е.

(26.13)

В соответствии с эргодической теоремой для стационарного слу­чайного процесса с математическим ожиданием m 0 x =0 корреляционную функцию можно определить

где x(t) - любая реализация случайного процесса.

Статистические свойства связи двух случайных процессов Х(t) и G(t) можно характеризовать взаимной корреляционной функцией R xg (t 1 ,t 2), которая для каждой пары произвольно выбранных значении аргументов t 1 и t 2 равна

Согласно эргодической теореме вместо (26.15) можно записать

(26.16)

где x(t) и g(t)- любые реализации стационарных случайных процес­сов Х(t) и G(t).

Если случайные процессы Х(t) и G(t) статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех t равна нулю.

Приведем некоторые свойства корреляционных функций.

1. Начальное значение корреляционной функции равно среднему

значению квадрата случайного процесса:

2. Значение корреляционной функции при любом t не может превышать ее начального значения, то есть

3. Корреляционная функция есть четная функция от t, т.е.

(26.18)

Другой статистической характеристикой, отражающей внутреннюю структуру стационарного случайного процесса Х(t), является спект­ральная плотность S x (w), которая характеризует распределение энергии случайного сигнала по спектру частот.

Г. Спектральная плотность S x (w) случайного процесса Х(t) опре­деляется как преобразование Фурье корреляционной функции R(t),

(26.19)

Следовательно,

так как спектральная плотность S x (a ) является действительной и четной функцией частоты w.

Соотношения (26.19) и (26.20) позволяют установить некоторые зависимости между структурой случайного процесса Х(t) и видом ха­рактеристик R x (t) и S x (w) (рис.26.2).

Ид приведенных графиков следует, что с увеличением скорости изменения реализации Х(t) корреляционная функция R x (t) сужает­ся (обостряется), а спектральная плотность S x (w) расширяется.

Входные сигналы х і (t ) Выходные сигналы АС Вероятностные выходные сигналы МФСП Матричные (нечеткие) блоки е і состояния Блоки сос-тояний π j
у 1 у 2 у 3 у 4 у 5 у 6 у 7 у 8 е 1 е 2 е 3
x 1 , x 8 , x 11 A 22 , А 22 π 4
x 1 , x 8 , x 11 A 2 3 , А 2 4 π 5
x 1 , x 8 , x 11 A 2 5 , А 2 6 π 6
x 2 , x 8 , x 11 A 2 7 , А 2 8 π 7
x 2 , x 8 , x 11 A 2 9 , А 30 π 8
x 2 , x 8 , x 11 A 31 , А 32 π 9
x 3 , x 8 , x 11 A 33 , А 34 π 10
x 3 , x 8 , x 11 A 35 , А 36 π 11
x 3 , x 8 , x 11 A 37 , А 38 π 12

Теоретическая вероятность Р н такого нечеткого перехода в состояние А н равна произведению вероятностей переходов , то есть

Р н = × = × =

В реальных N -уровневых устройствах памяти (N ≥ 3) вероятности нечетких переходов колеблется от 0 до 1 (0 ≤ Р н ≤ 1).

Возможно, при проектировании нейрона предусмотреть установку нейрона в нулевое состояние, когда на выходных сигналах МФСП не будет активного сигнала. Это можно осуществить при подаче на сохраняющие входные узлы МФСП входного сигнала из автомата стратегии е (Δ), который отключит все ее логические элементы, когда на них одновременно подать логическую единицу (этот вариант в данной главе не рассматриваетсяЮ, но поясняется как его можно осуществить).

Заключение к 12 главе

В данной главе были рассмотрены принципы и методы проектирования элементарного трехуровневого разряда нейрона и показаны его однозначные, укрупненные детерминированные, вероятностные и нечеткие переходы.

Показано, как строить такие произвольные элементарные нейроны с аналогичными свойствами, что очень важно для разработчиков нейронов и нейронных сетей.

Этот подход несколько отличается от известных биологических нейронов, но функционально к ним приближается по своим функциональным качествам переходов.

Однако, биологический нейрон обладает качествами связи с другими нейронами. Так выходные сигналы нейрона могут соединяться через аксон с 10 000 подобных нейронов, а входные сигналы через дендриты соединяются с другими нейронами, образуя возбуждающие и тормозящие сигналы.

В следующей 13 главе мы рассмотрим структуру нейрона, состоящую из элементарных нейронов, которая будет решать задачи связи с другими нейронами.


Лекция 13

Когнитивные системы на нейронах

Введение

Рассмотрены свойства искусственного элементарного нейрона, такие как:

1. Он должен хранить информацию. Иначе говоря, иметь память.

2. Обладать свойством: перестраивать структуру своей памяти в процессе работы.

3. Иметь два множества входных сигналов: устанавливающих x (t ) – возбуждающих сигналов и перестраивающих структуру подмножеств памяти е (Δ), при которых запоминаются установленные состояния – тормозящих сигналов.

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ИНФОРМАТИКИ ИРАДИОЭЛЕКТРОНИКИ

Кафедра метрологии и стандартизации

РЕФЕРАТ

На тему:

« Измерение характеристик случайных сигналов »

МИНСК, 2008

Статистические измерения - это методы и средства измерения параметров и характеристик случайных сигналов. Они базируются на общих принципах измерений параметров сигналов, но имеют свою специфику и особенности, вытекающие из теории случайных процессов.

Вероятностные характеристики случайных сигналов

Случайным называется сигнал, мгновенные значения которого изменяются во времени случайным образом. Он описывается случайной функцией времени Х(t). Эту функцию можно рассматривать как бесконечную совокупность функций x i (t), каждая из которых представляет собой одну из возможных реализаций X(t). Графически это можно представить следующим образом (рисунок 1):

Полное описание случайных сигналов может быть произведено с помощью системы вероятностных характеристик. Любая из этих характеристик может быть определена либо усреднением по совокупности реализации x i (t), либо усреднением по времени одной бесконечно длинной реализации.

Зависимость или независимость результатов таких усреднений определяет следующие фундаментальные свойства случайных сигналов - стационарность и эргодичность.

Стационарным называется сигнал, вероятностные характеристики которого не зависят от времени.

Эргодическим называется сигнал, вероятностные характеристики которого не зависят от номера реализации.

Для стационарных эргодических сигналов усреднение любой вероятностной характеристики по множеству реализаций эквивалентно усреднению по времени одной теоретически бесконечно длинной реализации.

Для практических целей наиболее важными являются следующие вероятностные характеристики стационарных эргодических сигналов, имеющих длительность реализации Т:

Среднее значение (математическое ожидание). Оно характеризует постоянную составляющую сигнала

Средняя мощность. Она характеризует средний уровень сигнала

Дисперсия, характеризующая среднюю мощность переменной составляющей сигнала:

Среднеквадратическое отклонение (СКО)

Функция распределения, которая определяется как интегральная вероятность того, что значение xi(tj) в j-й момент времени будут ниже некоторых значений X:

Для заданных стационарных эргодичных сигналов F x характеризуется относительным временем пребывания реализации ниже уровня Х (ф i -, i -й интервал пребывания, n - количество интервалов, рисунок 2)

Одномерная плотность вероятности, называемая дифференциальным законом распределения:

где - расстояние между соседними уровнями X(t), называемое дифференциальным коридором;

I - й интервал пребывания реализации в пределах (см. рисунок 1.11).

Корреляционная функция. Она характеризует стохастическую (случайную) связь между двумя мгновенными значениями случайного сигнала, разделенного заданным интервалом времени ф

Взаимная корреляционная функция. Она характеризует стохастическую связь мгновенными значениями случайных сигналов x(t) и y(t), разделенными интервалом времени ф

Из выражений (1)-(8) видно, что все вероятностные характеристики представляют собой неслучайные числа или функции и определяется по одной реализации бесконечной длительности. Практически же длительность Т, называемая продолжительностью анализа, всегда ограничена, поэтому на практике мы можем определить не сами характеристики, а только их оценки. Эти оценки, полученные экспериментальным путем, называются статическими характеристиками. А раз оценка, значит приближение, которое характеризуется погрешностями, называемыми статистическими погрешностями.

Измерение среднего значения средней мощности и дисперсии

Согласно формуле (1) измерение m x сводится к интегрированию случайного сигнала за время Т. Интегрирование можно выполнить с помощью анало-

говых или цифровых интегрирующих устройств, применяемых в вольтметрах.

При практическом выборе времени интегрирования Т надо минимизировать статистические погрешности. Это условие соблюдается при Т(ф м.к. - максимальный интервал корреляции, за пределами которого выборки сигнала можно считать практически некоррелированными).

Измерение P x характерно тем, что согласно формуле (2) усредняется квадрат сигнала, поэтому измеритель P x содержит в своем составе устройство с квадратичной характеристикой. Задача измерения P x решается с помощью вольтметра среднеквадратичного значения, имеющего открытый вход. Показания такого вольтметра равно. К вольтметрам, измеряющим P x , предъявляются повышенные требования в отношении широкополосности, протяженности квадратичного участка характеристики детектирования и времени усреднения Т.

Для измерения D x тоже может быть использован вольтметр среднеквадратичного значения, только в соответствии с формулой (3) он должен иметь закрытый вход. Показания такого вольтметра согласно (4) будут соответствовать значениям у х.

Анализ распределения вероятностей

Метод измерения по относительному времени пребывания

При измерении этим методом удобнее измерять не значение ф i , фигурирующее в формуле (7), а значение ф i ", характеризующее время пребывания функции х(t) выше уровня х, поэтому при экспериментальном анализе определяется функция

Для определения в соответствии с формулой (7) необходимо образовать дифференциальный коридор?х, как показано на рисунке 3, и измерить кроме значений ф i " еще и ф i "", характеризующее время пребывания реализации х(t) выше уровня х+?х, причем

T i =?t 1i +?t 2i = ф i - ф i . (10)

Анализаторы, реализующие данный метод, могут быть как аналоговыми, так и цифровыми. Структурная схема аналогового анализатора предоставлена на рисунке 3.

С помощью ВУ обеспечивается уровень сигнала, необходимый для нормальной работы других функциональных узлов измерителя. Компараторы К1 и К2 выполняют функции амплитудных селекторов и имеют уровни срабатывания х и х+?х соответственно. Эти уровни задаются регулятором уровня (РУ) и могут изменяться при одновременном обеспечении постоянства ширины дифференциального коридора?х. Таким образом сигналы на выходе К1 и К2 имеют вид импульсов U1 и U2 (рисунок 3), длительности которых соответственно равны ф i " и ф i "". Формирующие устройства ФУ1 и ФУ2 стандартизируют эти импульсы по форме и амплитуде. Напряжения U1 и U2 позволяют измерить и.

При измерении осуществляется усреднение или интегрирование напряжения U1 (переключатель П в положении «1»), а при измерении с помощью схемы вычитания образуется разностное напряжение U3, которое тоже усредняется. Вид индикаторного устройства (ИУ) определяется назначением анализатора. Например, в панорамных анализаторах управление уровнями срабатывания компараторов К1 и К2 осуществляется синхронно и автоматически с разверткой осциллографа, применяемого в качестве ИУ. Такое ИУ позволяет регистрировать графики функций и.

Измерение корреляционных функций

Метод дискретных выборок

Для измерения корреляционных функций наиболее часто используется метод перемножения. Алгоритм работы аналогового коррелометра, реализующего метод дискретных выборок, вытекает из формул (8) и (9). Этот метод предусматривает выполнение следующих операций:

Задержку исследуемого сигнала или одного из сигналов на время ф;

Перемножение задержанного и незадержанного сигналов;

Усреднение результатов перемножения.

Если коррелометр цифровой, то перечисленным выше операциям должна предшествовать дискретизация по времени и квантование по уровню. Поэтому алгоритм работы цифрового коррелометра будет определяться следующим соотношениями

где и - квантованные по уровню значения центрированных реализаций X(t) и Y(t) в дискретные моменты времени;

Интервал сдвига во времени, р = 0,1,2,…;

N - количество выборок.

Коррелометры бывают двух модификаций: последовательного и параллельного действия.

В цифровых коррелометрах последовательного действия сначала по формуле (1.16) вычисляется значение корреляционной функции при р=0, т.е. значение реализации умножается само на себя, затем вводится задержка ф 0 , (р=1) и определяется значение функции и далее проводятся вычисления при p=2,3,…, до =ф м.к. . (ф м.к - максимальный интервал корреляции, за пределами которого выборки сигнала можно считать практически некоррелированными).

Цифровой коррелометр параллельного действия позволяет одновременно вычислить все р- значений корреляционной функции, но становится при этом многоканальным прибором. Поэтому на практике чаще всего реализуются коррелометры последовательного действия (рисунок 5).

Работа всех узлов коррелометра синхронизируется устройством управления (УУ). Схема задержки состоит из р регистров сдвига, управляемых тактовыми импульсами УУ. Вместо перемножителя и усреднителя может быть использован микропроцессор. Накопление результатов перемножения производится в течение всего цикла измерения, и в конце цикла мы имеем полную информацию о корреляционной функции. Эта информация воспроизводится на ИУ в виде коррелограммы. Эта схема работает в диапазоне до сотен килогерц.

Анализ распределения вероятностей методом дискретных выборок

Если с помощью уровней квантования сформировать дифференциальный коридор, а тактовые импульсы УУ использовать в качестве импульсов опроса, то прибор, структурная схема которого приведена на рисунке 5, будет работать как измеритель распределения вероятностей, реализующий метод дискретных выборок.

Суть этого метода та же, что и рассмотренного выше метода измерения по относительному времени пребывания. Однако теперь это сравнение происходит в дискретных точках, которые задаются стробирующими импульсами опроса с периодом следования Т 0 . Эти импульсы задаются УУ. Значение Т 0 определяет шаг дискретизации при преобразовании аналоговой величины х(t) в дискретную.

Количество импульсов, соответствующее числу выборок n, накапливается в усреднителе за время Т. Обозначив, получим после подстановки в формулы (1.14) и (1.11) следующие выражения:

После обработки значения и воспроизводится на индикаторном устройстве.

Основная погрешность работы прибора во всех режимах не превышает значения ±5 %.

ЛИТЕРАТУРА

1 Метрология и электроизмерения в телекоммуникационных системах: Учебник для вузов /А.С. Сигов, Ю.Д. Белик. и др./ Под ред. В.И. Нефедова. - 2-е изд., перераб. и доп. - М.: Высш. шк., 2005.

2 Бакланов И.Г. Технологии измерений в современных телекоммуникациях. - М.: ЭКО-ТРЕНДЗ, 2007.

3 Метрология, стандартизация и измерения в технике связи: Учеб. пособие для вузов /Под ред. Б.П. Хромого. - М.: Радио и связь, 2006.

Подобные документы

    Понятие случайных процессов, их математическое описание; показатели Ляпунова. Измерение вероятностных характеристик стационарных эргодических сигналов. Анализ распределения вероятностей методом дискретных выборок. Измерение корреляционных функций.

    доклад , добавлен 20.05.2015

    Процесс приема сигналов на вход приемного устройства. Модели сигналов и помех. Вероятностные характеристики случайных процессов. Энергетические характеристики случайных процессов. Временные характеристики и особенности нестационарных случайных процессов.

    дипломная работа , добавлен 30.03.2011

    Вычисление математического ожидания и дисперсии, плотности распределения случайных величин. Реализация квазидетерминированного случайного процесса. Помехоустойчивость сигналов при когерентном приеме. Вероятности ложной тревоги и пропуска сигнала.

    контрольная работа , добавлен 20.03.2015

    Сущность линейной обработки дискретных сигналов. Характеристика основных структурных элементов цифровых фильтров - элемента единичной задержки (на интервал дискретизации сигнала), сумматора и умножителя. Виды последовательности дискретных отчетов.

    презентация , добавлен 19.08.2013

    Функции распределения системы из двух случайных величин (СВ), ее числовые характеристики. Двумерная плотность вероятности как предел отношения. Условные законы распределения отдельных СВ в системе. Статистическая взаимозависимость и независимость.

    реферат , добавлен 30.03.2011

    Методы цифровой обработки сигналов в радиотехнике. Информационные характеристики системы передачи дискретных сообщений. Выбор длительности и количества элементарных сигналов для формирования выходного сигнала. Разработка структурной схемы приемника.

    курсовая работа , добавлен 10.08.2009

    Характеристики векторного пространства. Прием дискретных сигналов с неопределенной фазой. Их преобразование в электрические. Эффективная ширина спектра импульса. Спектры фазомодулированных и частотно-модулированных колебаний. Гармонический синтез функции.

    контрольная работа , добавлен 02.07.2013

    Особенности использования параллельной передачи дискретных сообщений. Анализ принципов технической реализации многочастотных сигналов и их помехоустойчивости. Пути повышения энергетической эффективности усилителей мощности многочастотных сигналов.

    дипломная работа , добавлен 09.10.2013

    Угрозы, существующие в процессе функционирования сетей с кодовым разделением каналов. Исследование методов защиты информации от радиоэлектронных угроз, анализ недостатков сигналов. Построение ансамблей дискретных ортогональных многоуровневых сигналов.

    курсовая работа , добавлен 09.11.2014

    Сигналы и их характеристики. Линейная дискретная обработка, ее сущность. Построение графиков для периодических сигналов. Расчет энергии и средней мощности сигналов. Определение корреляционных функций сигналов и построение соответствующих диаграмм.

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ

НОВОСИБИРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ
УНИВЕРСИТЕТ

ФАКУЛЬТЕТ АВТОМАТИКИ И ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ

Кафедра Систем Сбора и Обработки Данных

ЛАБОРАТОРНАЯ РАБОТА № 12

СЛУЧАЙНЫЕ СИГНАЛЫ И ИХ ХАРАКТЕРИСТИКИ

Группа: АТ-73 Преподаватель: доц. Щетинин Ю.И.

Студент: Витенкова С.Е.

Новосибирск

Цель работы: изучение основных характеристик стационарных случайных сигналов (среднего значения, автокорреляционной функции, спектральной плотности мощности) и приобретение практических навыков их вычисления и анализа в среде Matlab.

1. Генерация 500 отсчётов случайного сигнала X с нулевым математическим ожиданием и единичной дисперсией и вычисление оценок среднего и дисперсии для X .

Воспользуемся следующим script-файлом для генерации 500 отсчётов случайного сигнала X с нулевым математическим ожиданием и единичной дисперсией и построения графика X .

Полученный график представлен на рис. 1.

Рис. 1. График случайного сигнала X .

Случайные процессы могут характеризоваться математическим ожиданием и дисперсией. Математическим ожиданием называется среднее значение случайной величины, а дисперсия характеризует рассеяние сигнала относительно его среднего значения.

Данные характеристики можно приближённо определить, зная N отсчётов сигнала, с помощью выражений (1) и (2).

(1)

(2)

Воспользуемся пользовательскими функциями dispersiya () и ozhidanie() для определения оценок математического ожидания и дисперсии по выражениям (1) и (2).

function D = dispersiya(y)

% дисперсия

m = ozhidanie(y);

D = sum((y - m).^2)/(length(y)-1);

function m = ozhidanie(y)

% математическое ожидание

m = sum(y)/length(y);

Получим значения оценок:

При генерации были заданы нулевое математическое ожидание и единичная дисперсия. Видим, что полученные значения оценок близки к заданным. Причиной их неполного совпадения является то, что для получения оценок была использована конечная выборка из N отсчётов, а оценки сходятся к истинным значениям при .

2. Построение графика плотности вероятности и гистограммы сигнала X .

С помощью следующего script-файла построим график плотности вероятности нормальной случайной величины (по выражению (3)) и график гистограммы сигнала X с помощью функции hist () .

(3)

f = (exp(-(x-m).^2/(2*D)))/(sqrt(2*pi*D));

title("График плотности распределения вероятности");

set(gca,"FontName", "Times New Roman","FontSize", 10);

title("Гистограмма случайного сигнала X");

Полученные графики представлены на рис. 2.

Рис. 2. График плотности распределения

вероятности и гистограммы.

Видим, что гистограмма случайного сигнала X сходна по форме с графиком плотности распределения вероятности. Они не совпадают полностью, т.к. для построения гистограммы была использована конечная выборка из N отсчётов. Гистограмма сходится к графику плотности распределения вероятности при .

3. Определение АКФ выходного сигнала системы аналитически и используя функцию conv().

Одной из характеристик случайного сигнала является его автокорреляционная функция (АКФ), которая определяется выражением (4).

АКФ определяет степень зависимости отсчетов сигнала, разделенных друг от друга интервалом m .

Белым шумом называется случайный процесс, АКФ которого равна нулю для любого , т.е. значения, разделенные интервалом m не зависят друг от друга. АКФ белого шума при определяется выражением (5).

Связь между АКФ дискретного выходного и входного сигналов системы определяется выражением

Используя выражение (6), определим АКФ выходного сигнала системы с уравнением при подаче на вход системы белого шума.

Определим импульсную характеристику заданной системы, подав на её вход единичный дельта-импульс .

Рис. 3. Графики , , .

При АКФ белого шума равна . Свёртка любого сигнала с единичным импульсом даёт исходный сигнал, значит, .

Пользуясь геометрическим смыслом операции свёртки, найдём .

Рис. 4. График АКФ выходного сигнала системы

при подаче на вход белого шума.

Видим, что по сравнению с АКФ входного сигнала в выходном появились ненулевые составляющие при , т.е. выходной сигнал является коррелированным процессом в отличие от входного белого шума.

Определим АКФ выходного сигнала системы при подаче на вход случайного сигнала X , определённого в п.1.

Оценку АКФ сигнала X можно определить по выражению

Оценку АКФ, определяемую выражением (7) можно вычислить с помощью функции xcorr () Matlab. Пользуясь данной функцией, найдём оценку АКФ сигнала X и построим график этой оценки.

Xcorr(X, "biased");

stem(lags, Kxx);

set(gca,"FontName", "Times New Roman Cyr", "FontSize", 10)

title("Оценка АКФ сигнала X");

Рис. 5. График оценки АКФ случайного сигнала X .

Видим, что оценка сигнала X АКФ близка к АКФ белого шума (рис. 3), значит, связь между различными значениями сигнала X мала. Наличие составляющих при объясняется конечностью выборки.

Используя функцию conv() Matlab, определим АКФ выходного сигнала по выражению (6).

h1 = ;

h2 = ;

c = conv(h1,h2);

Kyy = conv(c, Kxx);

stem(-(N+3):(N+3), Kyy)


Рис. 6. АКФ выходного сигнала при подаче на вход сигнала X .

На увеличенном фрагменте рис. 6 можно видеть, что значения АКФ выходного сигнала при входном сигнале X близки к значениям АКФ выходного сигнала при подаче на вход белого шума (рис. 4).

С помощью следующей последовательности команд построим графики АКФ входного и выходного сигналов для их сравнения.

stem(lags, Kxx);

set(gca,"FontName", "Times New Roman Cyr", "FontSize", 10)

title("Оценка АКФ сигнала X");

stem(-(N+3):(N+3), Kyy)

set(gca,"FontName", "Times New Roman Cyr", "FontSize", 10)

title("АКФ выходного сигнала");

Рис. 7. Графики АКФ входного и выходного сигналов фильтра.

На рис. 7 видим, что выходной сигнал более коррелирован, чем входной, т.к. присутствует большее число ненулевых составляющих и между значениями выходного сигнала есть зависимость.

4. Построение диаграмм рассеивания выходного сигнала Y системы.

Рассказать друзьям