Номер: 147761
Количество страниц: 21
Автор: marvel10
Контрольная Основы кодирования информации. (4 задания), номер: 147761
390 руб.
Купить эту работу
Не подошла
данная работа? Вы можете заказать учебную работу
на любую интересующую вас тему
Заказать новую работу
данная работа? Вы можете заказать учебную работу
на любую интересующую вас тему
- Содержание:
"ВВЕДЕНИЕ 3
ЗАДАНИЕ 1. 4
ЗАДАНИЕ 2. 9
ЗАДАНИЕ 3. 13
ЛИТЕРАТУРА 19
ПРИЛОЖЕНИЕ 20
ЗАДАНИЕ 1
1. Перевести десятичное число А в двоичную систему счисления, а из двоичной системы счисления – в код Грея.
2. Перевести число B, представленное кодом Грея в двоичный код, а затем – в десятичную систему счисления.
3. Перевести двоично-десятичный код С в десятичное число.
4. Перевести десятичное число D в двоично-десятичный код с весами 5-1-2-1 и в двоично-десятичный код с весами 2-4-2-1.
Исходные числа по вариантам представлены в таблице 1.
Методические указания к выполнению задания
Общепризнанным в настоящее время является позиционный принцип образования системы счисления. Значение каждого символа (цифры) зависит от его положения – позиции в ряду символов, представляющих число.
Единица каждого следующего разряда больше единицы предыдущего разряда в m раз, где m – основание системы счисления. Полное число получаем, суммируя значения по разрядам:
где i – номер разряда данного числа; l – количество разрядов; ai – множитель, принимающий любые целочисленные значения в пределах от 0 до m-1 и показывающий, сколько единиц ?-го разряда содержится в числе.
Чем больше основание системы счисления, тем меньшее число разрядов требуется для представления данного числа, и меньшее время для его передачи. Однако с ростом основания существенно повышаются требования к линии связи и аппаратуре создания и распознавания элементарных сигналов, соответствующих различным символам. Логические элементы вычислительных устройств в этом случае должны иметь большее число устойчивых состояний.
Таблица 1 – Исходные данные к заданию 1
Номер
варианта
А(10) B(г) С(2–10) D(10)
1
17 11001 0000 1000 0100
492
2
3 19 11111 0001 0001 0100 412
3 25 10101 0011 0011 0110 148
4 18 10110 0011 0101 0101 485
5 17 10011 0001 0111 0110 597
6 24 110000 0100 0110 0100 632
7 18 110011 0001 0000 1000 781
8 44 110111 0010 1001 0110 953
9 22 110101 0001100000111 712
10 15 111100 1010101000000 853
11 26 111110 0101 0000 1001 519
12 27 111011 0011 0110 0111 846
13 32 111001 0011 0011 0100 936
14 28 111000 0100 0001 0110 403
15 30 100001 0000 1001 0011 865
16 31 101010 0001 0010 1000 632
17 44 11001 0001 0011 0000 394
18 13 11111 0001 0010 1001 355
19 54 10101 0000 0100 1000 916
20 39 10110 0001 0100 0111 767
21 21 10011 0000100011000 732
22 37 110000 0011 0011 0101 227
23 77 110011 0010 0100 0110 945
24 75 110111 0001 0111 0001 823
25 56 110101 0101 0101 0101 147
26 87 111100 0011 0000 1001 797
27 82 111110 0010 0100 0000 632
28 49 111011 0000 1000 0001 307
29 53 111001 0001 0001 0110 403
30 55 111000 0001 0000 0111 344
ЗАДАНИЕ 2
1. Чему равна энтропия системы, состоящей из E элементов, каждый из которых может с равной вероятностью находится в F состояниях.
2. Чему равна энтропия системы, состоящей из Е элементов и принимающей G возможных равновероятных события.
3. Определить энтропию системы, состояние которой описывается дискретной величиной с распределением вероятностей состояний – р1, р2, р3, р4.
Методические указания к выполнению задания
Для определения эффективных способов передачи сообщений от источника к приемнику, следует ознакомиться с понятиями количества и скорости передачи информации по каналам связи, методами её кодирования.
Если информацию рассматривать как меру снятой неопределённости, то количество информации I вычисляют как произведение устранённой неопределенности H, снимаемой одним сообщением, полученным от источника, на число переданных сообщений K. Мерой неопределенности H в теории информации является энтропия.
Таким образом, если при передаче информации не было информационных потерь, то в случае однозначного кодирования количество информации на символ сообщения будет равно H, а количество информации при передаче k символов I = kH.
Если исходное множество сообщений A может быть представлено конечным множеством символов исходного алфавита (a1, а2…..am1) с распределением вероятностей (р1, р2….рm1), то энтропия есть величина, характеризующая источник сообщений в целом и представляет собой среднюю неопределённость появления на выходе источника одного из множества исходных сообщений.
Вероятность появления символа на выходе источника сообщений обозначим p(a1), p(a2), …., p(am) .
Таблица 4 – Исходные числа к выполнению задания 2
Номер
варианта
E F G р1, р2, р3, р4
1
2 4 32 0,1 0,2 0,3 0,4
2
3 3 4 27 0,5 0,1 0,3 0,1
3 4 4 64 0,6 0,2 0,1 0,1
4 5 4 25 0,25 0,3 0,02 0,43
5 6 1 216 0,2 0,35 0,25 0,2
6 7 1 49 0,15 0,45 0,05 0,35
7 8 1 72 0,1 0,45 0,05 0,4
8 9 1 81 0,22 0,28 0,05 0,45
9 2 3 64 0,25 0,05 0,55 0,15
10 3 3 81 0,44 0,05 0,16 0,35
11 4 3 256 0,33 0,05 0,17 0,45
12 5 3 125 0,21 0,05 0,19 0,55
13 6 2 36 0,25 0,25 0,19 0,31
14 7 2 343 0,1 0,5 0,09 0,31
15 8 2 576 0,2 0,4 0,09 0,31
16 9 2 729 0,4 0,3 0,07 0,23
17 2 2 128 0,22 0,41 0,3 0,07
18 3 2 243 0,15 0,45 0,05 0,35
19 4 2 16 0,22 0,28 0,05 0,45
20 5 2 625 0,6 0,2 0,1 0,1
21 6 3 216 0,25 0,05 0,55 0,15
22 7 3 2401 0,1 0,45 0,05 0,4
23 8 3 8 0,25 0,3 0,02 0,43
24 9 3 9 0,44 0,05 0,16 0,35
25 2 5 256 0,25 0,25 0,19 0,31
26 3 5 729 0,2 0,35 0,25 0,2
27 4 5 1024 0,33 0,05 0,17 0,45
28 5 5 5 0,21 0,05 0,19 0,55
29 6 4 1296 0,4 0,3 0,07 0,23
30 7 4 7 0,15 0,45 0,05 0,35
ЗАДАНИЕ 3
1. Создать префиксное дерево для двоичной последовательности символов. Префиксные коды символов приведены ниже:
Символы Код Символы Код
а1 0 а8 001
а2 1 а9 010
011
а3 00 а10 011
а4 01 а11 100
а5 10 а12 101
а6 11 а13 110
а7 000 а14 111
2. Построить оптимальный код методом Шеннона–Фано для передачи сообщений. Вероятности появления букв представлены в таблице 5. Рассчитать среднюю длину кодового слова и энтропию источника.
Методические указания к выполнению задания
Кодирование – однозначное преобразование символов одного алфавита в символы другого. При этом код есть правило, закон, алгоритм, по которому осуществляется это преобразование. Последовательность символов, которая в процессе кодирования присваивается каждому из множества передаваемых сообщений (символов), называется кодовым словом.
Процесс восстановления содержания сообщения по данному коду называется декодированием.
Коды, в которых сообщения представлены комбинациями с неравномерным количеством символов, называется неравномерными (некомплектными). Коды, в которых сообщения представлены комбинациями с равным количеством символов, называется равномерными (комплектными).
Неравномерный двоичный код Равномерный двоичный код
1 0001
10 0010
11 0011
100 0100
101 0101
110 0110
111 0111
1000 1000
Сущность теорем кодирования состоит в том, что влияние помех может быть сведено к нулю не за счёт уменьшения скорости передачи информации, а за счёт усложнения кодеров и декодеров.
Система передачи информации, в которой аппаратура не вносит никаких искажений, а канал связи – затуханий и помех, называется информационной системой без шумов.
Таблица 5 – Исходные данные к заданию 3
Номер
варианта
Двоичная
последовательность Вероятности
1
00101100001111110 1/3, 1/3, 1/9, 1/9, 1/9
2
3 101001101100011010 1/3, 1/3, 1/9, 1/9, 1/27, 1/27, 1/27
3 1011100100111101011000 2(1/3) 2(1/9) 2(1/27) 3(1/81)?
4 10110100111110000 2(1/3) 2(1/9) 2(1/27) 2(1/81) 3(1/243)
5 101001101100011010 1/23 2/23 3/23 4/23 6/23 7/23
6 1011100100001000 2(1/3) 2(1/9) 3(1/27) 1(1/81) 1(1/243)
7 1011100100111110 1/27 2/27 3/27 4/27 5/27 6/27 7/27
8 101110111110101100 2(1/3) 3(1/9) 1(1/243) 1(1/729)
9 100100011010001000 1/2 1/4 1/8 1/16 1/32 1/64 1/128 1/256
10 0010001011110110 1/37 2/37 3/37 4/37 5/37 6/37 7/37 9/37
11 10110100110011001 2(1/4) 2(1/8) 2(1/16) 3(1/32) 2(1/64)
12 110101100001011010 3(1/4) 1(1/8) 2(1/16)
13 1111011110100100011000 3(1/4) 1(1/8) 2(1/16)
14 11111111000100000 3(1/4) 1(1/8) 2(1/16) 2(1/64)
15 110101100001011010 3(1/4) 1(1/8) 2(1/16) 2(1/128)
16 1111000100001000 3(1/4) 1(1/8) 1(1/16) 2(1/32)
17 1111011111000100 3(1/4) 1(1/8) 2(1/16)
18 011011100101110111 3(1/4) 1(1/8) 2(1/16) 1(256)
19 1001000110100010001 2(1/4) 2(1/8) 3(1/16) 1(1/32) 3(128)
20 1011100100110011 3(1/4) 1(1/8) 2(1/16)
21 11111000101100001 2(1/4) 2(1/8) 3(1/16) 1(1/32) 2(1/64)
22 001011010110101100 2(1/4) 2(1/8) 3(1/16) 3(128)
23 0010001000011110111101 1/35 2/35 3/35 4/35 5/35 6/35 7/35 8/35
24 00100000111111110 1/33 2/33 3/33 4/33 6/33 7/33 8/33
25 001011010110101100 1/31 2/31 3/31 4/31 6/31 7/31 8/31
26 0010000100011110 1/29 2/29 3/29 4/29 5/29 6/29 8/29
27 0010011110111110 2(1/3) 2(1/9) 3(1/27) 1(1/243) 2(1/729)
28 111101111101011000 1/25 2/25 4/25 5/25 6/25 7/25
29 100001000001010011 2(1/3) 2(1/9) 2(1/27) 3(1/81) 1(1/243)
30 1111011000100010 1/17 2/17 3/17 5/17 6/17
"