Расчёт характеристик системы связи

  • СОДЕРЖАНИЕ
  • ИСХОДНЫЕ ДАННЫЕ
  • ВВЕДЕНИЕ
  • 1. РАСЧЕТНАЯ ЧАСТЬ
  • 1.1 Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений
  • 1.2 Теоретическая и эмпирическая вероятность появления на выходе источника цепочек символов
  • 1.3 Вычисление безусловной и условной энтропии источника
  • 1.4 Статистическое двоичное кодирование источника
  • 1.5 Построение графиков модулирующего и модулированного сигнала
  • 1.6 Расчет спектров модулирующего и модулированного сигналов
  • 1.7 Расчет средней мощности и практической ширины спектра модулирующего сигнала
  • 1.8 Расчет пропускной способности двоично-симметричного сигнала
  • 1.9 Расчет коэффициента использования линий связи
  • 1.10 Расчет эквивалентной вероятности ошибочного приема двоичного элемента
  • 1.11 Код Хэмминга
  • ЗАКЛЮЧЕНИЕ
  • СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

ИСХОДНЫЕ ДАННЫЕ

Система связи состоит из источника дискретных сообщений, кодера источника, кодера канала, модулятора, линии связи, демодулятора, декодера канала, декодера источника и получателя сообщений.

Определить характеристики системы:

1. Статистический анализ вероятностных свойств источника для заданной реализации отрезка его выходного текста сообщений — таблица 1.

2. Оценить теоретически и эмпирически вероятности появления на выходе источника цепочек символов — таблица 2. Определить количество информации, содержащееся в этих цепочках сообщениях.

3. Вычислить безусловную и условную энтропию источника, а также его коэффициент избыточности и производительность при заданных длительностях символов первичного алфавита

Таблица

Номер варианта

Цепочки символов

Длительность символов

Та, мS

Тb, мS

Тс, мS

7

СА

ВВС

ABBС

2.7

1.4

3.8

4. Провести статистическое кодирование источника по методу Шеннона-Фано. Кодирование источника необходимо выполнить для первичного алфавита и для вторичного (укрупненного) алфавита при объединении символов в блоки по m=3 символа.

5. Для произвольно выбранной цепочки из 12 символов первичного алфавита построить графики модулирующего и модулированного сигналов с двоичной АМ, ЧМ и ФМ.

Примечание: 1) Модулирующий сигнал формируется на выходе кодера источника для укрупненного алфавита в соответствии с пунктом 4 и состоит из однополярных прямоугольной формы двоичных посылок с длительностью согласованной с производительностью источника из пункта 3; 2) Несущая частота модулированного гармонического сигнала должна быть выбрана такой, чтобы на длительности одной двоичной посылки укладывалось ровно p=6 периодов колебаний. 3) Амплитуды модулирующего и модулированного сигналов принять равными 1 В.

6. Рассчитать и построить графики спектров модулирующего и модулированного сигнала, взяв скважность Q=4, а длительность посылки — как в пункте 5.

7. Рассчитать среднюю мощность единичной посылки и практическую ширину спектра модулирующего сигнала.

8. Рассчитать пропускную способность двоично-симметричного канала между входом модулятора и выходом демодулятора.

9. Рассчитать коэффициент использования для пропускной способности линии связи.

10. Рассчитать эквивалентную вероятность ошибочного приема двоичного элемента при использовании помехоустойчивого блочного кода с исправлением 2-кратных ошибок и длине блока = 15.

Примечание. При расчете в п. 8 и 9 полагать, что: 1) спектральная плотность мощности аддитивной гауссовской помехи, действующей в линии связи =1 мВт/Гц; 2) Амплитуда сигнала на выходе передатчика подбирается из расчета выполнения следующего условия для вероятности ошибочного приема двоичного элемента: ; 3) Метод приема сигналов в демодуляторе — оптимальный когерентный.

ВВЕДЕНИЕ

Обобщенная структурная схема рассчитываемой системы имеет вид:

Система связи состоит из источника дискретных сообщений, кодера источника, кодера канала, модулятора, линии связи, демодулятора, декодера канала, декодера источника и получателя сообщений.

1. РАСЧЕТНАЯ ЧАСТЬ

1.1 Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений

Дискретным источником сообщений называют источник, выдающий последовательность символов, принадлежащих некоторому алфавиту , где K — объем алфавита; — символы алфавита. В данном курсовом проекте: K=3, , и . Источник считается заданным, если известны априорные вероятности и переходные (условные) вероятности появления символов.

Статистический анализ свойств источника заключается в нахождении указанных вероятностей. Для этого следует воспользоваться классической формулой определения вероятности:

. (1)

Отсюда априорную вероятность появления отдельных символов можно найти как

,(2)

где — количество символов в тексте сообщения; — общее количество символов в тексте сообщения (в данном курсовом проекте = 200). Аналогично переходные вероятности появления символов для простейшего источника с памятью (марковский источник 1-го порядка) могут быть определены по формуле

,(3)

где — вероятность появления символа , если перед ним был символ ; — количество появлений пар сочетаний символов в тексте.

Результаты расчета априорных и переходных вероятностей по формулам (2),(3), выполненные по условиям курсового проекта, показаны в таблицах 1.1.1 и 1.1.2, соответственно.

Таблица 1.1.1 — Априорные вероятности источника сообщений

55

47

98

Таблица 1.1.2 — Переходные вероятности источника сообщений

Для найденных вероятностей соблюдаются следующие условия нормировки:

1.2 Теоретическая и эмпирическая вероятность появления на выходе источника цепочек символов

Эмпирическая вероятность — это вероятность, получаемая в результате практических испытаний. В нашем случае эмпирическая вероятность некоторой цепочки символов может быть найдена в соответствии с формулой (1)

.(4)

В частности, пусть, например, требуется определить вероятность цепочки `CA’. Тогда формула (4) приобретет вид

,(5)

где — количество появлений цепочки `CA’ в тексте; N-1- количество полных двоек со смещением в тексте.

Требуется определить вероятность цепочки `BBC’. Тогда формула (4) приобретет вид

,(5)

где N(`BBC’) =5 — количество появлений цепочки `BBC’ в тексте; N-2- количество полных двоек со смещением в тексте.

Требуется определить вероятность цепочки `AABB. Тогда формула (4) приобретет вид

,(5)

где N(`ABBC’) =5 — количество появлений цепочки `ABBC’ в тексте; N-3- количество полных двоек со смещением в тексте.

Теоретическая вероятность — это вероятность, определяемая с помощью формул и теорем теории вероятностей. В частности, для рассматриваемой цепочки `BA’ теоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий

(6)

где входящие в формулу значения вероятностей взяты из таблиц 1.1.1, 1.1.2.

Для рассматриваемой цепочки `BBC’ теоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий

(6)

где входящие в формулу значения вероятностей взяты из таблиц 1.1.1, 1.1.2.

Для рассматриваемой цепочки `ABBC’ теоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий

(6)

где входящие в формулу значения вероятностей взяты из таблиц 1.1.1, 1.1.2.

Следует заметить, что выполненные вычисления по формулам (5) и (6) могут не совпадать в общем случае, особенно, для редких цепочек. Это связано с недостаточно полным объёмом исходных статистических данных (ограниченной длиной текста сообщения N = 200 символов).

Расчёт количества информации содержащейся в цепочке проводится согласно определению: количество информации — это величина, определяющая число двоичных символов, необходимых для передачи цепочки, и вычисляемая в соответствии с мерой информации по К.Шеннону:

[бит/сообщ],(7)

где log — здесь и далее обозначает двоичный логарифм; — вероятность цепочки, например, эмпирическая или теоретическая.

Отметим, что количество информации не зависит от качественного содержания сообщения (цепочки), в частности от степени его важности для получателя, возможных последствий его передачи и т.д. Количество информации, содержащейся в сообщении , есть логарифмическая функция от вероятности . Количество информации в достоверном событии равно нулю, а количество информации в невозможном событии (имеющем вероятность = 0) равно бесконечности. Отсюда можно сделать вывод, что чем меньше вероятность сообщения (цепочки), тем большее количество информации оно содержит. Расчет теоретической и эмпирической вероятностей появления цепочек символов в сообщении приведен в таблице.

Таблица 1.2.1 — Теоретическая и эмпирическая вероятности появления цепочек символов в сообщении

Цепочка

I(цепочка), [бит/сообщ]

`CA’

0,1608

0,1000

3,3219

`BBC’

0,0253

0,0233

5,4252

`ABBC’

0,0254

0,0038

8,0371

1.3 Вычисление безусловной и условной энтропии источника

Поскольку сообщения случайные, то и количество информации является случайной величиной. Для того чтобы охарактеризовать источник более полно используют среднюю меру, называемую энтропией. Отсюда, энтропия — это математическое ожидание по частным количествам информации сообщений, генерируемых источником. Безусловная энтропия источника вычисляется по формуле

[бит/сообщ.](8)

В данную формулу подставляются значения априорных вероятностей появления отдельных символов, вычисленных в пункте 1. Отметим, что формула (8) не учитывает статистическую связь между символами, поэтому такая энтропия называется безусловной.

Энтропия является показателем средней априорной неопределенности при выборе очередного символа из источника. Выражение (8) можно рассматривать, как меру неопределенности (энтропии) состояния источника, заданного своими безусловными вероятностями.

Из выражения (8) следует, что энтропия источника равна нулю тогда и только тогда, когда одна из вероятностей равна единице, а остальные вероятности соответственно равны нулю, т.е. когда имеет место полной определенности выбора.

С другой стороны, легко показать, что наибольшая неопределенность выбора при заданном объёме алфавита K соответствует ситуации, когда априорные вероятности всех выборов равны между собой. В этом случае энтропия равна

,[бит / сообщ] . (9)

Между значениями величин энтропий, вычисленными по формулам (8) и (9), должно соблюдаться очевидное условие

(10)

Учет статистических связей между символами, последовательно выбираемых источником ведет к дальнейшему уменьшению энтропии, определяемой формулой (8), не учитывающей этой связи. На самом деле, чем больше вероятностные связи символов, тем меньше свобода выбора последующих символов, тем меньше в среднем информации приходится на каждый вновь выбираемый символ источника и тем меньше энтропия. Энтропия, учитывающая статистическую зависимость между символами, называется условной и находится по формуле

[бит/сообщ] ,(11)

где(12)

— условная частная энтропия, вычисляемая для каждого символа . Для расчета условной энтропии по формулам (11), (12) необходимо использовать переходные вероятности , найденные раньше в пункте 1.2 курсавой работы.

Как следует из вышесказанного, между условной энтропией (11) и безусловной энтропией должно соблюдаться неравенство

.(13)

По сравнению с безусловной энтропией, условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому, является более точной характеристикой источника. В дальнейшем, всюду, говоря об энтропии, будем иметь в виду условную энтропию.

Для рассматриваемого варианта задания расчеты по формулам (8)-(12) имеют вид:

бит/сообщ,

бит/сообщ,

бит/сообщ,

бит/сообщ,

бит/сообщ,

бит/сообщ.

Наличие в сообщении большего числа букв или в кодовой комбинации большего числа элементов, чем это минимально необходимо для передачи содержащегося в них количества информации, называют избыточностью. Расчет избыточности проводится по формуле:

(14)

Следующей, рассчитываемой в курсовой работе, характеристикой источника является производительность источника, под которой понимают среднее количество информации, создаваемой источником в единицу времени:

[бит/с], (15)

где (16)

— средняя длительность одного символа, выдаваемого источником.

Для рассматриваемого варианта задания расчеты по формулам (14)-(16) имеют вид:

,

мс,

бит/с.

1.4 Статистическое двоичное кодирование источника

Статистическое (или эффективное) кодирование используется для исключения, точнее существенного уменьшения избыточности сообщений, обусловленной неравновероятностью и зависимостью символов, вырабатываемых источником. Суть статистического кодирования сводится к кодированию символов источника неравномерным двоичным кодом по следующему правилу: для часто встречающихся символов присваиваются короткие двоичные кодовые комбинации, а для редко встречающихся — длинные кодовые комбинации.

Одним из широко используемых на практике алгоритмов статистического кодирования, например, в программах-архиваторах компьютерных файлов, является код Шеннона-Фано. Кодирование по методу Шеннона-Фано состоит из следующих этапов:

1) Подлежащие кодированию символы алфавита источника дискретных сообщений располагают в первом столбце таблицы в порядке убывания вероятностей.

2) Символы алфавита разбивают на две группы с примерно равными суммарными вероятностями. Символам первой (верхней) группы присваивают 1 в качестве первого знака двоичной кодовой комбинации, а символам второй группы — 0.

3) Символы, входящие в каждую из групп, вновь разбивают на две группы с примерно равными суммарными вероятностями. Символам вновь полученных первых (верхних) подгрупп присваивают 1 в качестве следующего знака двоичной кодовой комбинации, а символам вторых подгрупп -0.

4) Пункт 3) продолжают до тех пор, пока в каждой из подгрупп не останется по одному символу.

Другим распространенным алгоритмом статистического кодирования, дающим примерно такой же эффект сжатия, является код Хаффмана. Кодирование по Хаффману выполняется в следующем порядке:

1) Размещают символы алфавита источника в первом столбце таблицы в порядке убывания их вероятностей.

2) Суммируют в полученном столбце две последние (наименьшие) вероятности и в результате получают новый столбец таблицы, в котором количество (с учетом суммарной вероятности) значений вероятностей на одну меньше.

3) Располагают все вероятности в новом столбце порядке убывания.

4) Повторяют шаги 2) и 3) до тех пор, пока не подучим столбец, состоящий из одной вероятности, равной 1.

5) По полученным столбцам строится двоичное дерево-граф, начальным узлом которого является последний столбец (вероятность = 1), а выходящие из каждого узла по две ветви отражают процесс объединения вероятностей, выполненный в пунктах 2) и 3).

6) Затем каждой выходящей из любого узла ветви приписывается 1, если она обладает большей вероятностью и 0, если ее вероятность меньше или равна.

7) Теперь искомые двоичные кодовые комбинации, соответствующие каждому из символов алфавита источника, можно прочесть из графа, двигаясь по ветвям дерева из начального узла к концевым точкам-вероятностям, отвечающих первому столбцу таблицы.

Если исходный алфавит источника имеет малый объем , то для повышения эффекта сжатия применяют метод укрупнения алфавита. Для этого соседние пары, тройки, четверки и т.д. символы в тексте сообщения считают за один «укрупненный» символ. При этом образуется новый (вторичный) алфавит, состоящий из укрупненных символов. Очевидно, что объем вторичного алфавита , будет равен объему первичного алфавита , возведенному в степень m — количество объединяемых букв первичного алфавита при укрупнении, то есть

(17)

Данный первичный алфавит состоит из трёх символов , и т.е. объем первичного алфавита . Будем укрупнять данный алфавит в символы (блоки), состоящие из m = 3 букв первичного алфавита каждый. Тогда по формуле (17) объем укрупненного алфавита будет равен символов. Обозначим данные символы, как . Рассчитаем вероятности символов укрупненного алфавита, используя формулу (4). Список всех возможных символов вторичного алфавита и их вероятностей показан в таблице 1.4.1.

Таблица 1.4.1 — Вероятности символов вторичного алфавита.

Символы вторичного алфавита

Комбинация

Частота появления в тексте

Вероятность появлений

b1

BBB

0

0

b2

AAA

0,015152

3

b3

BAC

0,045455

9

b4

BCB

0,030303

6

b5

CAC

0,080808

16

b6

CBC

0,025253

5

b7

CBA

0,060606

12

b8

ACA

0,030303

6

b9

ABC

0,065657

13

b10

ACB

0,025253

5

b11

ACC

0,080808

16

b12

CAB

0,060606

12

b13

CCC

0,10101

20

b14

CCA

0,09596

19

b15

BCA

0,035354

7

b16

BBA

0,010101

2

b17

CCB

0,040404

8

b18

CBB

0,005051

1

b19

CAA

0,020202

4

b20

BCC

0,055556

11

b21

ABA

0,005051

1

b22

AAB

0,015152

3

b23

BAB

0,025253

5

b24

AAC

0,010101

2

b25

ABB

0,030303

6

b26

BAA

0,005051

1

b27

BBC

0,025253

5

Результат статистического кодирования по алгоритму Шеннона-Фано, полученный в соответствие с описанным выше правилом.

Таблица 1.4.2 — Кодирование по алгоритму Шеннона-Фано.

Для того чтобы оценить эффективность полученного статистического кода, вычислим среднюю длину кодовой комбинации и коэффициент сжатия по формулам:

,(18)

(19)

где — общая длина исходного текста в двоичных разрядах, получаемая при простом равномерном (нестатистическом) кодировании символов источника. Нетрудно видеть, что длина двоичных разрядов для дискретного источника с двумя {A,B} символами в алфавите и разрядов для дискретного источника с тремя {A,B,C} или четырьмя {A,B,C,D} символами в алфавите;

,(20)

— количество укрупненных символов в исходном тексте, разбитом на блоки по m символов в каждом.

Найденные величины должны приближенно удовлетворять соотношениям:

(21)

(22)

Причем, чем точнее выполняются соотношения (21), (22), тем более эффективным можно считать результат статистического кодирования.

Для рассматриваемого примера варианта задания расчеты по формулам (18)-(20) имеют вид:

.

Отметим, что рассчитанные значения достаточно хорошо удовлетворяют условиям (21),(22).

Аналогичные расчеты проводятся и для варианта статистического кодирования по алгоритму Хаффмана.

1.5 Построение графиков модулирующего и модулированного сигнала

Выберем произвольную цепочку из 12 символов первичного алфавита ВСААВВССАААС.

Полученная кодовая последовательность 101011011000101111101.

Вычислим длительность для двоичной посылки модулирующего (первичного) сигнала из условия:

.(23)

Для облегчения дальнейших расчётов и построений графиков сигналов и спектров, величину округлим в меньшую сторону так, чтобы частота первой гармоники

(24)

была «круглым» числом, например кратна 100 Гц, где — скважность, взятая из пункта 6 задания.

Определим частоту несущей частоты по формуле

(25)

где p — количество периодов колебаний из пункта 5 задания, укладываемых на длительности одной посылки модулированного сигнала. Для частотно-модулированного сигнала следует также рассчитать несущие характеристические частоты для 0 и 1

(26)

(27)

Для рассматриваемого примера варианта задания расчеты по формулам (23)-(27) имеют вид:

мс,

мс,

Гц,

кГц,

кГц,

кГц.

На рисунке 1.5.1 изображено: а) модулирующий сигнал d(t); б) соответствующий модулированный сигнал для случая АМ; в) модулированный сигнал для случая ЧМ.

а)

Рисунок 1.5.1 — Графики модулирующего и модулированного сигналов

б)

в)

Рисунок 1.5.1 — Графики модурирующего и модулированного сигналов (продолжение)

1.6 Расчет спектров модулирующего и модулированного сигналов

Спектром сигнала называют функцию, показывающую зависимость интенсивности различных гармоник в составе сигнала от частоты этих гармоник. Спектр периодического сигнала — это зависимость коэффициентов ряда Фурье от частот гармоник, которым эти коэффициенты соответствуют.

Исходя из определения, найдём амплитуды гармоник спектра модулирующего сигнала

,(28)

где k — номер гармоники; значение её круговой частоты; — значение обычной частоты.

Подставляя в формулу (28) в качестве сигнала d(t) периодическую последовательность прямоугольных импульсов с амплитудой и скважностью Q, после интегрирования, получаем

(29)

для k=1,2,… и для нулевой гармоники k=0.

Для данного рассматриваемого варианта задания результаты расчета по формуле (29) при амплитуде 1В и скважности Q=4 приведены в таблице 1.6.1.

Таблица 1.6.1 — Амплитуды гармоник модулирующего сигнала

k

Fk (Гц)

Ak (В)

0

0

0,2500

1

200

0,4502

2

400

0,3183

3

600

0,1501

4

800

0,0000

5

1000

0,0900

6

1200

0,1061

7

1400

0,0643

8

1600

0,0000

9

1800

0,0500

10

2000

0,0637

11

2200

0,0409

12

2400

0,0000

13

2600

0,0346

14

2800

0,0455

15

3000

0,0300

16

3200

0,0000

17

3400

0,0265

18

3600

0,0354

19

3800

0,0237

20

4000

0,0000

21

4200

0,0214

22

4400

0,0289

23

4600

0,0196

24

4800

0,0000

25

5000

0,0180

26

5200

0,0245

27

5400

0,0167

График модулирующего (первичного) сигнала, а также его амплитудный спектр, показан на рисунке 1.6.1 а) и 1.6.1 б) соотвественно.

а)

б)

Рисунок 1.6.1 — График и спектр модулирующего сигнала

Спектр АМ сигнала показан на рисунке 1.6.2. Процесс построения спектра АМ сигнала заключается в следующем. АМ сигнал представим как произведение двух сигналов: модулирующего двоичного сигнала и гармонического сигнала-переносчика (несущая частота). Учитывая известную теорему о спектре произведения сигнала на гармоническое колебание, можно заключить, что спектр АМ сдвигается вправо по оси частот на частоту несущей, а форма спектра АМ будет повторять форму спектра модулирующего сигнала с точностью до множителя (1/2). То есть, для получения графика спектра необходимо:

взять из таблицы 1.6.1 гармоники модулирующего сигнала, начиная с первой;

умножить амплитуды гармоник на 0.5:

расположить их на оси частот симметрично относительно частоты несущей:

нулевую гармонику без изменений её амплитуды разместить на частоте несущей.

Отметим, что физическое объяснение происхождения множителя 0.5 заключается в наличие двух боковых полос («верхней» и «нижней») у АМ спектра по сравнению со спектром модулирующего сигнала, поэтому амплитуды боковых гармоник уменьшаются в два раза.

Рисунок 1.6.2 — Спектор АМ сигнала

Спектр ЧМ сигнала показан на рисунке 1.6.3. Идея построения спектра ЧМ строится на том факте, что график ЧМ сигнала может быть представлен суммой двух графиков: и составляющих АМ сигналов. Из свойства аддитивности спектров следует, что график спектра ЧМ сигнала будет равен сумме графиков спектров для составляющих и . Для нахождения промежуточных спектров и сигналов можно воспользоваться описанной выше методикой построения спектров АМ. Заметим, что скважность сигнала имеет дробный характер и равна 3/4, а скважность равна 4. Расчёты спектров промежуточных АМ сигналов проводятся, как и раньше, с использованием формулы (29) и сводятся в таблицу, аналогичную таблице 1.6.1.

Рисунок 1.6.3 — Спектр ЧМ сигнала

1.7 Расчет средней мощности и практической ширины спектра модулирующего сигнала

В соответствие с определением средняя мощность за период T прямоугольной последовательности импульсов выражается через интеграл

, (30)

где — длительность; — амплитуда; Q — скважность импульсов.

Другой способ нахождения средней мощности заключается в использовании равенства Парсеваля:

,(31)

где — мощности; — амплитуды гармоник спектра импульсов.

Используя формулы (30),(31), вводят понятие практической ширины спектра. А именно, практической шириной спектра называют такой интервал частот, в котором сосредоточена основная доля мощности, например, 95% от мощности выражаемой формулой (30). Таким образом, чтобы найти практическую ширину нужно суммировать мощности гармоник в ряде (31) до тех пор, пока, сумма не превысит значений 0.95 от величины мощности в (30). Найденный таким образом наибольший номер гармоники, учтенной в сумме, позволяет вычислить практическую ширину спектра как

, (32)

где — интервал частот между гармониками, равный частоте 1-ой гармоники.

Для рассматриваемого примера варианта задания результаты расчета по формулам (30)-(32), с учетом значений амплитуд гармоник из таблицы 1.6.1, имеют вид:

Вт,

.

Отсюда = 9 и практическая ширина модулирующего сигнала равна

Гц.

1.8 Расчет пропускной способности двоично-симметричного сигнала

Канал связи называется двоичным, если на его входе действует алфавит , а на выходе . Если в канале вероятность ошибок при передаче 0 и 1 одинакова, то такой канал называется симметричным. Типичным примером двоично-симметричного канала (ДСК) является канал, образованный между входом модулятора на передающей стороне и выходом демодулятора на приёмной стороне.

Самой общей и основной характеристикой канала является его пропускная способность. Она определяет максимальное количество информации, которое может быть передано по каналу в единицу времени при условии наилучшего согласования его с источником.

Если дискретный источник и вход канала работают с одинаковыми алфавитами, но оптимальное согласование в смысле наилучшего распределения вероятностей букв в передаваемом тексте не достигнуто, то количество не переданной (потерянной) по каналу информации определяется ненадёжностью.

В случае двоично-симметричного канала ненадежность определяется вероятностью ошибки в канале и равна:

. (33)

Пропускная способность ДСК вычисляется по формуле:

, [бит/с](34)

где — техническая скорость поступления двоичных посылок на вход модулятора, измеряемая в Бодах.

Сделаем ряд предположений относительно модели канала, линии связи и способа приёма:

пусть в канале действует только аддитивный белый шум с односторонней спектральной плотностью мощности ;

пусть коэффициент передачи линии связи равен единице во всей полосе частот, т.е. амплитуда сигнала на входе приемника равна амплитуде сигнала на выходе передатчика ;

пусть решающее правило в когерентном демодуляторе является оптимальным.

Вероятность ошибки рассчитывается по формуле

,(35)

где — энергия двоичной посылки длительности на входе приемника-демодулятора; — коэффициент, учитывающий вид модуляции и принимающий значения: =0.5 для АМ с пассивной паузой, =1 для ортогональной ЧМ;

(36)

интеграл ошибок.

Отметим, что интеграл ошибок является неберущимся, однако он связан с табулированным интегралом вероятности (функцией Лапласа) простым соотношением

дискретный спектр сигнал модулирующий

,

где обширные таблицы интеграла:

,

можно найти в справочной литераторе по теории вероятности и математической статистике.

Для быстрого приближенного вычисления полезна формула

,

которая дает погрешность не более 60% при x<5.5.

При расчете по формуле (35) подберём такое значение , при котором обеспечивается выполнение условия: . Необходимость соблюдения данного условия вызвано приёмлемостью получаемых результатов расчёта к обычной практике.

Для рассматриваемого варианта задания, в предположении, что = 5В, результаты расчета по формулам (33)-(35) имеют вид:

а) для АМ:

Дж,

,

,

, бит/c;

б) для ЧМ:

Дж,

,

,

, бит/c.

1.9 Расчет коэффициента использования линий связи

Дискретный канал связи содержит внутри себя линию связи, например физическую пару проводов, по которой передаются модулированные сигналы. Пропускная способность линии связи всегда больше, чем пропускная способность дискретного канала. Поэтому вводят понятие коэффициента использования линии связи, который рассчитывается по формуле

,(37)

где — пропускная способность непрерывного канала (линии связи).

Пропускную способность непрерывного канала вычисляют по формуле Шеннона

, [бит/с](38)

где — ширина непрерывного канала связи; — мощность сигнала на выходе канала; — мощность помехи. На практике полоса пропускания канала связи выбирается из условия , где — практическая ширина спектра модулированного сигнала, которая связана с практической шириной спектра модулирующего сигнала следующими приближенными соотношениями:

— для АМ, (39.1)

— для ЧМ, (39.2)

где — девиация частоты, равная максимальному отклонению частоты ЧМ сигнала от несущей частоты.

Для данного варианта задания результаты расчета по формулам (37)-(39) имеют вид:

а) для АМ:

Гц,

Гц,

Вт,

Вт

бит/с,

;

б) для ЧМ:

Гц,

Гц,

Вт,

Вт

бит/с,

1.10 Расчет эквивалентной вероятности ошибочного приема двоичного элемента

Наиболее распространенными помехоустойчивыми кодами являются блочные разделимые систематические коды. Кодовая комбинация такого кода имеет вид:

,

в которой k элементов информационные, а — контрольные проверочные элементы. Число проверочных элементов находится из условия:

,(40)

где — кратность исправляемых ошибок; m — некоторый коэффициент, определяемый из условия:

.(41)

Для рассматриваемого варианта задания результаты расчета по формулам (40),(41) имеют вид:

,

,

.

Значит, на каждые 7 информационных символов нужно добавить 8 контрольных проверочных символов, чтобы обеспечить требуемую исправляющую способность кода =2.

Эквивалентная вероятность ошибочного приёма двоичного элемента для помехоустойчивого блочного кода вычисляется по формуле

,(42)

где — вероятность ошибочного декодирования принятого блока; — вероятность правильного декодирования блока, которая может быть найдена как

,(43)

— вероятность того, что в блоке из принятых символов содержится 0 ошибок;

— вероятность того, что в блоке из принятых символов содержится ровно одна ошибка;

— вероятность того, что в блоке из принятых символов содержится ровно ошибок. Данные вероятности могут быть вычислены с помощью формулы Бернулли

,(45)

(46)

— число различных сочетаний из ошибок в блоке длиной ; — вероятность ошибочного приёма одного двоичного символа в дискретном канале связи, найденная раннее в пункте 1.8.

Для данного варианта задания результаты расчета по формулам (45)-(46) имеют вид:

а) для АМ:

,

,

,

;

б) для ЧМ:

,

,

,

,

.

Можно сделать вывод, что при использовании помехоустойчивого кода вероятность ошибочного приёма намного уменьшилась.

1.11 Код Хэмминга

Возьмем кодовую комбинацию размером k =6 символов: 001011.

Количество разрядов найдем из неравенства:

;

n =10;

Количество контрольных разрядов найдем по формуле n =k+r.

.

Допустим в произошла ошибка и вместо 0 получили 1.

1

0

0

1

0

1

1

0

1

1

Чтобы получить разряд, в котором произошла ошибка, выполним следующие действия:

Тогда получили 0111= 22+21+20= 7. Это значит, что в 7ом разряде допущена ошибка, котороая должна быть исправлена.

Код Хэмминга является избыточным корректирующим кодом и позволяет обнаружить наличие однократной ошибки.

ЗАКЛЮЧЕНИЕ

В ходе выполнения курсовой работы для системы связи, состоящей из источника дискретных сообщений, кодера источника, кодера канала, модулятора, линии связи, демодулятора, декодера канала, декодера источника и получателя сообщений был рассчитан статистический анализ вероятностных свойств источника для заданной реализации отрезка его выходного текста сообщений; произведена оценка теоретических и эмпирических вероятностей появления на выходе источника цепочек символов: СВ, АСС, АСВВ; определено количество информации, содержащееся в этих цепочках сообщениях. Вычислены безусловная и условная энтропии источника, а также его коэффициент избыточности и производительность при заданных длительностях символов первичного алфавита. Проведено статистическое кодирование источника по методу Шеннона-Фано. Для произвольно выбранной цепочки из 12 символов первичного алфавита построены графики модулирующего и модулированного сигналов, построены графики спектров модулирующего и модулированного сигналов. Рассчитана средняя мощность единичной посылки и практическая ширина спектра модулирующего сигнала, пропускная способность двоично-симметричного канала между входом модулятора и выходом демодулятора, коэффициент использования для пропускной способности линии связи. Рассчитана эквивалентная вероятность ошибочного приёма двоичного элемента при использовании помехоустойчивого блочного кода (n,k) с исправлением 2-кратных ошибок и длине блока n = 15.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

1. Расчёт характеристик системы связи. Методические указания к курсовой работе по дисциплине «Теория передачи сигналов» для студентов специальности «Автоматизированные системы обработки информации». — Минск,2006.

2. Конспект лекций по дисциплине «Теория передачи сигналов».

3. Инструкция по технике безопасности при работе с ЭВМ

Нужна похожая работа?

Оставь заявку на бесплатный расчёт

Смотреть все Еще 421 дипломных работ