355266 работ
представлено на сайте
Основы кодирования информации. (4 задания)

Контрольная Основы кодирования информации. (4 задания), номер: 147761

Номер: 147761
Количество страниц: 21
Автор: marvel10
390 руб.
Купить эту работу
Не подошла
данная работа?
Вы можете заказать учебную работу
на любую интересующую вас тему
Заказать новую работу
essay cover Основы кодирования информации. (4 задания) , "ВВЕДЕНИЕ 3
ЗАДАНИЕ 1. 4
ЗАДАНИЕ 2. 9
ЗАДАНИЕ 3. 13
ЛИТЕРАТУРА 19
ПРИЛОЖЕНИЕ 20

ЗАДАНИЕ 1
1. Пере...

Автор:

Дата публикации:

Основы кодирования информации. (4 задания)
logo
"ВВЕДЕНИЕ 3
ЗАДАНИЕ 1. 4
ЗАДАНИЕ 2. 9
ЗАДАНИЕ 3. 13
ЛИТЕРАТУРА 19
ПРИЛОЖЕНИЕ 20

ЗАДАНИЕ 1
1. Пере...
logo
144010, Россия, Московская, Электросталь, ул.Ялагина, д. 15А
Телефон: +7 (926) 348-33-99

StudentEssay

buy КУПИТЬ ЭТУ РАБОТУ.
  • Содержание:
    "ВВЕДЕНИЕ 3
    ЗАДАНИЕ 1. 4
    ЗАДАНИЕ 2. 9
    ЗАДАНИЕ 3. 13
    ЛИТЕРАТУРА 19
    ПРИЛОЖЕНИЕ 20

    ЗАДАНИЕ 1
    1. Перевести десятичное число А в двоичную систему счисления, а из двоичной системы счисления – в код Грея.
    2. Перевести число B, представленное кодом Грея в двоичный код, а затем – в десятичную систему счисления.
    3. Перевести двоично-десятичный код С в десятичное число.
    4. Перевести десятичное число D в двоично-десятичный код с весами 5-1-2-1 и в двоично-десятичный код с весами 2-4-2-1.
    Исходные числа по вариантам представлены в таблице 1.
    Методические указания к выполнению задания
    Общепризнанным в настоящее время является позиционный принцип образования системы счисления. Значение каждого символа (цифры) зависит от его положения – позиции в ряду символов, представляющих число.
    Единица каждого следующего разряда больше единицы предыдущего разряда в m раз, где m – основание системы счисления. Полное число получаем, суммируя значения по разрядам:
    где i – номер разряда данного числа; l – количество разрядов; ai – множитель, принимающий любые целочисленные значения в пределах от 0 до m-1 и показывающий, сколько единиц ?-го разряда содержится в числе.
    Чем больше основание системы счисления, тем меньшее число разрядов требуется для представления данного числа, и меньшее время для его передачи. Однако с ростом основания существенно повышаются требования к линии связи и аппаратуре создания и распознавания элементарных сигналов, соответствующих различным символам. Логические элементы вычислительных устройств в этом случае должны иметь большее число устойчивых состояний.
    Таблица 1 – Исходные данные к заданию 1
    Номер
    варианта
    А(10) B(г) С(2–10) D(10)
    1
    17 11001 0000 1000 0100
    492
    2
    3 19 11111 0001 0001 0100 412
    3 25 10101 0011 0011 0110 148
    4 18 10110 0011 0101 0101 485
    5 17 10011 0001 0111 0110 597
    6 24 110000 0100 0110 0100 632
    7 18 110011 0001 0000 1000 781
    8 44 110111 0010 1001 0110 953
    9 22 110101 0001100000111 712
    10 15 111100 1010101000000 853
    11 26 111110 0101 0000 1001 519
    12 27 111011 0011 0110 0111 846
    13 32 111001 0011 0011 0100 936
    14 28 111000 0100 0001 0110 403
    15 30 100001 0000 1001 0011 865
    16 31 101010 0001 0010 1000 632
    17 44 11001 0001 0011 0000 394
    18 13 11111 0001 0010 1001 355
    19 54 10101 0000 0100 1000 916
    20 39 10110 0001 0100 0111 767
    21 21 10011 0000100011000 732
    22 37 110000 0011 0011 0101 227
    23 77 110011 0010 0100 0110 945
    24 75 110111 0001 0111 0001 823
    25 56 110101 0101 0101 0101 147
    26 87 111100 0011 0000 1001 797
    27 82 111110 0010 0100 0000 632
    28 49 111011 0000 1000 0001 307
    29 53 111001 0001 0001 0110 403
    30 55 111000 0001 0000 0111 344

    ЗАДАНИЕ 2
    1. Чему равна энтропия системы, состоящей из E элементов, каждый из которых может с равной вероятностью находится в F состояниях.
    2. Чему равна энтропия системы, состоящей из Е элементов и принимающей G возможных равновероятных события.
    3. Определить энтропию системы, состояние которой описывается дискретной величиной с распределением вероятностей состояний – р1, р2, р3, р4.
    Методические указания к выполнению задания
    Для определения эффективных способов передачи сообщений от источника к приемнику, следует ознакомиться с понятиями количества и скорости передачи информации по каналам связи, методами её кодирования.
    Если информацию рассматривать как меру снятой неопределённости, то количество информации I вычисляют как произведение устранённой неопределенности H, снимаемой одним сообщением, полученным от источника, на число переданных сообщений K. Мерой неопределенности H в теории информации является энтропия.
    Таким образом, если при передаче информации не было информационных потерь, то в случае однозначного кодирования количество информации на символ сообщения будет равно H, а количество информации при передаче k символов I = kH.
    Если исходное множество сообщений A может быть представлено конечным множеством символов исходного алфавита (a1, а2…..am1) с распределением вероятностей (р1, р2….рm1), то энтропия есть величина, характеризующая источник сообщений в целом и представляет собой среднюю неопределённость появления на выходе источника одного из множества исходных сообщений.
    Вероятность появления символа на выходе источника сообщений обозначим p(a1), p(a2), …., p(am) .
    Таблица 4 – Исходные числа к выполнению задания 2
    Номер
    варианта
    E F G р1, р2, р3, р4
    1
    2 4 32 0,1 0,2 0,3 0,4
    2
    3 3 4 27 0,5 0,1 0,3 0,1
    3 4 4 64 0,6 0,2 0,1 0,1
    4 5 4 25 0,25 0,3 0,02 0,43
    5 6 1 216 0,2 0,35 0,25 0,2
    6 7 1 49 0,15 0,45 0,05 0,35
    7 8 1 72 0,1 0,45 0,05 0,4
    8 9 1 81 0,22 0,28 0,05 0,45
    9 2 3 64 0,25 0,05 0,55 0,15
    10 3 3 81 0,44 0,05 0,16 0,35
    11 4 3 256 0,33 0,05 0,17 0,45
    12 5 3 125 0,21 0,05 0,19 0,55
    13 6 2 36 0,25 0,25 0,19 0,31
    14 7 2 343 0,1 0,5 0,09 0,31
    15 8 2 576 0,2 0,4 0,09 0,31
    16 9 2 729 0,4 0,3 0,07 0,23
    17 2 2 128 0,22 0,41 0,3 0,07
    18 3 2 243 0,15 0,45 0,05 0,35
    19 4 2 16 0,22 0,28 0,05 0,45
    20 5 2 625 0,6 0,2 0,1 0,1
    21 6 3 216 0,25 0,05 0,55 0,15
    22 7 3 2401 0,1 0,45 0,05 0,4
    23 8 3 8 0,25 0,3 0,02 0,43
    24 9 3 9 0,44 0,05 0,16 0,35
    25 2 5 256 0,25 0,25 0,19 0,31
    26 3 5 729 0,2 0,35 0,25 0,2
    27 4 5 1024 0,33 0,05 0,17 0,45
    28 5 5 5 0,21 0,05 0,19 0,55
    29 6 4 1296 0,4 0,3 0,07 0,23
    30 7 4 7 0,15 0,45 0,05 0,35

    ЗАДАНИЕ 3
    1. Создать префиксное дерево для двоичной последовательности символов. Префиксные коды символов приведены ниже:
    Символы Код Символы Код
    а1 0 а8 001
    а2 1 а9 010
    011
    а3 00 а10 011
    а4 01 а11 100
    а5 10 а12 101
    а6 11 а13 110
    а7 000 а14 111
    2. Построить оптимальный код методом Шеннона–Фано для передачи сообщений. Вероятности появления букв представлены в таблице 5. Рассчитать среднюю длину кодового слова и энтропию источника.
    Методические указания к выполнению задания
    Кодирование – однозначное преобразование символов одного алфавита в символы другого. При этом код есть правило, закон, алгоритм, по которому осуществляется это преобразование. Последовательность символов, которая в процессе кодирования присваивается каждому из множества передаваемых сообщений (символов), называется кодовым словом.
    Процесс восстановления содержания сообщения по данному коду называется декодированием.
    Коды, в которых сообщения представлены комбинациями с неравномерным количеством символов, называется неравномерными (некомплектными). Коды, в которых сообщения представлены комбинациями с равным количеством символов, называется равномерными (комплектными).
    Неравномерный двоичный код Равномерный двоичный код
    1 0001
    10 0010
    11 0011
    100 0100
    101 0101
    110 0110
    111 0111
    1000 1000
    Сущность теорем кодирования состоит в том, что влияние помех может быть сведено к нулю не за счёт уменьшения скорости передачи информации, а за счёт усложнения кодеров и декодеров.
    Система передачи информации, в которой аппаратура не вносит никаких искажений, а канал связи – затуханий и помех, называется информационной системой без шумов.
    Таблица 5 – Исходные данные к заданию 3
    Номер
    варианта
    Двоичная
    последовательность Вероятности
    1
    00101100001111110 1/3, 1/3, 1/9, 1/9, 1/9
    2
    3 101001101100011010 1/3, 1/3, 1/9, 1/9, 1/27, 1/27, 1/27
    3 1011100100111101011000 2(1/3) 2(1/9) 2(1/27) 3(1/81)?
    4 10110100111110000 2(1/3) 2(1/9) 2(1/27) 2(1/81) 3(1/243)
    5 101001101100011010 1/23 2/23 3/23 4/23 6/23 7/23
    6 1011100100001000 2(1/3) 2(1/9) 3(1/27) 1(1/81) 1(1/243)
    7 1011100100111110 1/27 2/27 3/27 4/27 5/27 6/27 7/27
    8 101110111110101100 2(1/3) 3(1/9) 1(1/243) 1(1/729)
    9 100100011010001000 1/2 1/4 1/8 1/16 1/32 1/64 1/128 1/256
    10 0010001011110110 1/37 2/37 3/37 4/37 5/37 6/37 7/37 9/37
    11 10110100110011001 2(1/4) 2(1/8) 2(1/16) 3(1/32) 2(1/64)
    12 110101100001011010 3(1/4) 1(1/8) 2(1/16)
    13 1111011110100100011000 3(1/4) 1(1/8) 2(1/16)
    14 11111111000100000 3(1/4) 1(1/8) 2(1/16) 2(1/64)
    15 110101100001011010 3(1/4) 1(1/8) 2(1/16) 2(1/128)
    16 1111000100001000 3(1/4) 1(1/8) 1(1/16) 2(1/32)
    17 1111011111000100 3(1/4) 1(1/8) 2(1/16)
    18 011011100101110111 3(1/4) 1(1/8) 2(1/16) 1(256)
    19 1001000110100010001 2(1/4) 2(1/8) 3(1/16) 1(1/32) 3(128)
    20 1011100100110011 3(1/4) 1(1/8) 2(1/16)
    21 11111000101100001 2(1/4) 2(1/8) 3(1/16) 1(1/32) 2(1/64)
    22 001011010110101100 2(1/4) 2(1/8) 3(1/16) 3(128)
    23 0010001000011110111101 1/35 2/35 3/35 4/35 5/35 6/35 7/35 8/35
    24 00100000111111110 1/33 2/33 3/33 4/33 6/33 7/33 8/33
    25 001011010110101100 1/31 2/31 3/31 4/31 6/31 7/31 8/31
    26 0010000100011110 1/29 2/29 3/29 4/29 5/29 6/29 8/29
    27 0010011110111110 2(1/3) 2(1/9) 3(1/27) 1(1/243) 2(1/729)
    28 111101111101011000 1/25 2/25 4/25 5/25 6/25 7/25
    29 100001000001010011 2(1/3) 2(1/9) 2(1/27) 3(1/81) 1(1/243)
    30 1111011000100010 1/17 2/17 3/17 5/17 6/17

    "
logo

Другие работы