Оптимальне кодування

Процеси отримання, перетворення, накопичення та передачі інформації в інформаційних системах. Визначення ентропії джерела та максимальної ентропії. Побудування коду Шенона-Фано та коду Хафмена. Ймовірність появи елемента та частота появи елемента.

Рубрика Программирование, компьютеры и кибернетика
Вид контрольная работа
Язык украинский
Дата добавления 29.12.2014
Размер файла 210,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ВСТУП

Основна задача основ теорії телекомунікацій - вивчення закономірностей передачі та прийому повідомлень з метою створення систем зв'язку, що задовольняють заданим вимогам за найменших затрат. Окремими задачами при цьому є:

1) Вимірювання кількості інформації,

2) Вивчення властивостей інформації,

3) Розробка оптимальних методів кодування, що забезпечують максимальну пропускну здатність каналів зв'язку за наявності завад.

Широке впровадження автоматизованого управління неможливе без використання засобів зв'язку, телемеханіки, обчислювальної техніки та банків даних. Комплексна автоматизація та вдосконалення електронних цифрових обчислювальних машин супроводжується різким зростанням об'єму та швидкості передачі та обробки інформації. Одночасно підвищуються вимоги до достовірності передачі та обробки інформації.

З усієї різноманітності сучасних технічних систем можна виділити особливу групу так званих інформаційних систем, призначених для передачі, перетворення та зберігання інформації. Головним критерієм якості роботи інформаційних пристроїв є їх здатність передавати, накопичувати чи обробляти максимальну кількість інформації в одиницю часу при допустимих спотвореннях та затратах.

Процеси отримання, перетворення, накопичення та передачі інформації в інформаційних системах вивчає теорія інформації, математичним апаратом якої є теорія ймовірностей та математична статистика. Ця теорія широко використовується для аналізу процесів вимірювання, контролю та управління.

В даній курсовій роботі запропоновано розв'язок деяких задач з курсу основ теорії телекомунікації з наданням базових положень та основних теоретичних відомостей з метою набуття навиків вирішення реальних технічних проблем, які можуть виникати в ході роботи з системами зв'язку в процесі отримання, зберігання, обробки та передачі інформації чи при проектуванні таких систем.

Задача № 1

Джерела повідомлень характеризуються статистичною схемою(таблиця 1.1). Визначити кількість інформації у кожному із символів, знайти ентропію та надмірність джерела.

Таблиця 1.1 - Статистична схема джерела

a1

a2

a3

a4

a5

0,1

0,3

0,2

0,35

0,05

Кількість інформації в кожному з символів можна обчислити за формулою[2]:

Іі =(1.1)

Ентропія - це середня кількість інформації, яка припадає на один символ повідомлення. Ентропія визначається за формулою[1]:

H (1.2)

Надмірність коду повідомлення визначається за такими формулами[1]:

Абсолютна надмірність: (1.3)

Відносна надмірність: (1.4)

де Hmax=log m - максимальна ентропія за розміру алфавіту m.

Знайдемо кількість інформації у кожному із символів (формула 1.1) :

І1 == 3,322

І2 == 1,737

І3 == 2,322

І4 == 1,515

І5 == 4,322

Визначимо ентропію джерела та максимальну ентропію (формула 1.2) :

H

Hmax=

Тоді надмірності визначимо за формулами 1.3-1.4 :

=11,11 %

Висновок

Ентропія - це середня кількість інформації, яка припадає на один символ повідомлення вона завжди на перевищує log m. Ентропія починає зменшуватися якщо символи стають не рівноімовірними аж до нуля якщо імовірність появи одного з символів наближається до одиниці.

Надмірність показує відхилення справжньої ентропії від максимальної і може бути як абсолютна так і відносна.

Задача № 2

Для джерела повідомлень (задача 1) побудувати код Шенона-Фано, знайти надмірність коду.

Кодування Шеннона - Фано - алгоритм префіксного неоднорідного кодування. Відноситься до імовірнісних методів стиснення. Використовує надмірність повідомлення, тобто замінює коди частіших символів короткими двійковими послідовностями, а коди більш рідких символів - довшими послідовностями.

Основні етапи[3]:

- Символи первинного алфавіту m1 виписують в порядку збування ймовірностей.

- Символи отриманого алфавіту m2 ділять на дві частини, сумарні ймовірності символів яких максимально близькі один одному.

- В префіксному коді для першої частини алфавіту присвоюється двійкова цифра «0», другої частини - «1».

- Отримані частини рекурсивно діляться і їх частинам призначаються відповідні виконавчі цифри в префіксной коді.

Коли розмір підалфавіта стає рівним нулю або одиниці, то подальшого подовження префікснго коду не відбувається. На кроці поділу алфавіту існує неоднозначність, так як різниця сумарних ймовірностей може бути однакова для двох варіантів поділу (враховуючи, що всі символи первинного алфавіту мають ймовірність більше нуля).

На таблиці 2.1 представлено код для данного по задачі джерела.

Таблиця 2.1 - Код Шеннона фано для данного джерела

Індекс символу аі

Імовірність

Код

4

0.35

0

2

0.3

1

0

3

0.2

1

1

0

1

0.1

1

1

1

0

5

0.05

1

1

1

1

Вираховуємо максимальну ентропію коду:

Hmax= log 2=1

Для обрахування ентропії H треба знайти ймовірності появи символів 1 та 0 в коді для елементів, скориставшись формулами частоти появи символу[1]:

P(xk)=,

де - кількість символів коду що відповідають символу , - повна кількість символів кодової комбінації.

p(1)= =

p(0)= 1-p(1)=1- =

H

Знаходимо абсолютну та відносну надмірність:

Висновок

Задане джерело повідомлення було закодовано кодом за методом Шенона-Фано. Символи джерела можуть приймати значення 1 та 0, утворюючи дві групи коду відповідно.

Ентропія коду ближче до максимуму ніж незакодованої послідовності і дуже близька до максимального значення, отже, кодування є оптимальним.

Для отримання ймовірностей появи 1 та 0 тип повідомлення прийнято за типовий, в якому ймовірність появи елемента рівна частоті появи елемента.

Задача № 3

Для джерела повідомлень (задача 1) побудувати код Шенона-Фано, який забезпечує надмірність, меншу 0,5% (блочний код).

Блочний код використовується у випадках, якщо різниця між ймовірностям появи символів дуже велика. Блоки дозволяють створити більш оптимальний код. Блочний код, на відміну від звичайного кодує блоки інформації - тобто послідовності символів, в данному випадку по два, в усьому іншому послідовність дій така-сама:

Таблиця 3.1 - Код Шеннона фано для данного джерела

Індекси комбінації аі аj

Імовірність

Код

44

0,1225

0

0

0

42

0,105

0

0

1

24

0,105

0

1

0

22

0,09

0

1

1

0

43

0,07

0

1

1

1

34

0,07

1

0

0

0

32

0,06

1

0

0

1

23

0,06

1

0

1

0

33

0,04

1

0

1

1

0

41

0,035

1

0

1

1

1

14

0,035

1

1

0

0

0

21

0,03

1

1

0

0

1

12

0,03

1

1

0

1

0

31

0,02

1

1

0

1

1

13

0,02

1

1

1

0

0

0

54

0,0175

1

1

1

0

0

1

45

0,0175

1

1

1

0

1

0

52

0,015

1

1

1

0

1

1

25

0,015

1

1

1

1

0

0

53

0,01

1

1

1

1

0

1

35

0,01

1

1

1

1

1

0

0

11

0,01

1

1

1

1

1

0

1

51

0,005

1

1

1

1

1

1

0

15

0,005

1

1

1

1

1

1

1

0

55

0,0025

1

1

1

1

1

1

1

1

Розрахунки наведені далі аналогічні розрахункам з попередньої задачі.

Вираховуємо максимальну ентропію коду:

Hmax= log 2=1

p(0)= =

p(1)= 1-p(0)=1- =

H

Знаходимо абсолютну та відносну надмірність:

%

Висновок

Імовірність блоку менша імовірності окремого символа, а кількість їх більша оскільки визначається кількістю комбінацій між символами тому ми можемо ділити ансамбль на частини що значно ближче до від'ємних степенів двійки, що збільшує ентропію.

В даному випадку код має надмірність лише значенням в десятитисячні відсотка.

Задача № 4

Для ансамблю символів джерела (таблиця 1.1). Побудувати код Хафмена

а) m=2, б) m=3, визначення надмірності коду:

код інформаційний ентропія шенон

Таблиця 1.1 - Статистична схема джерела

a1

a2

a3

a4

a5

a6

a7

a8

0,37

0,24

0,05

0,18

0,08

0,03

0,04

0,01

а) Формування додаткових допоміжних букв для випадку m=2 не потрібне, адже умова кодування 2 n02 є однозначна для визначення n0

Отже за n0=2 код можна формується так (результат наведено в таблиці 3.2):

1

0,61___1

0,39 0,39 ___0

а1= 0,37 0,37 0,37 0,37 0,37 0,37 ___1

а2= 0,24 0,24 0,24 0,24 0,24 0,24 ___0

0,21 ___1

а4= 0,18 0,18 0,18 0,18 0,18 ___0

0,13 ___1

а5= 0,08 0,08 0,08 0,08 ___0

0,08 ___1

а3= 0,05 0,05 0,05 ___0

а7= 0,04 0,04 ___1

0,04 ___0

а6= 0,03 ____1

а8= 0,01 ____0

Таблиця 3.2 - Код Хафмена для джерела m=2

a1

a2

a3

a4

a5

a6

a7

a8

11

10

0110

00

010

011101

01111

011100

Розрахунки аналогічні попередній задачі.

Hmax= log2=1

p(0)==

p(0)= 1- p(1)=1- =

H

Знаходимо абсолютну та відносну надмірність:

%

б) Формування додаткових допоміжних букв для випадку m=3 потрібне, умова кодування 2 n03, = j, j- ціле число, M- число символів повідомлення.

Отже, n0=2, тоді умова (8-2)/(3-1)=6/2=3 виконується.

1

0,39___2

а1= 0,37 0,37 0,37 0,37___1

а2= 0,24 0,24 0,24 0,24 ___0

а4= 0,18 0,18 0,18 ___2

0,13 ___1

а5= 0,08 0,08 0,08 ___0

а3= 0,05 0,05 ___2

а7= 0,04 0,04 ___1

0,04 ___0

а6= 0,03 ____1

а8= 0,01 ____0

Таблиця 3.3 - Код Хафмена для джерела m=3

a1

a2

a3

a4

a5

a6

a7

a8

1

0

212

22

20

2101

211

2100

Hmax= log3=1,585

p(2)==

p(1)==

p(0)= 1- =

H

Знаходимо абсолютну та відносну надмірність:

%

Висновок

Кодуючи ансамбль символів джерела кодом Хаффмана, для значень алфавіту m=2 (таблиця 3.2), та m=3 (таблиця 3.3) знайшли надмірність коду, що складає:

Для m=2 : D=2,764 %

Для m=3: D=2,069 %

Збільшення букв алфавіту кодування призвело до зменшення надмірності коду, що свідчить про те що імовірності ближче до від'ємних ступенів трійки.

Висновки

В даній курсовій роботі для початку треба було визначити кількість інформації у кожному із символів, знайти ентропію та надмірність данного джерела. Відносна надмірність виявилась такою:

Було побудовано кодові послідовності для данних джерел за алгоритмами Хаффмана, та Шенона-Фано: блочним та звичайним

Основною метою роботи було обчислення і аналіз надмірності різних типів кодів для різних значень ансамблю символів джерела, і порівняння їх з вихідними значеннями.

Для ансамблю з 5 символів було побудовано код Шенона-Фано, та знайдено надмірність коду:

Порівняно з вхідними данним результат покращився на порядок.

Для того ж джерела блочний код дав на 4 порядки кращий результат:

%

Побудова коду Хаффмана для ансамблю символів джерела зроблена для різних значень алфавіту дає змогу порівняти значення надмірності кодів при збільшенні числа алфавіту.

Для m=2 : D=2,764 %

Для m=3: D=2,069 %

Результати обчислень відрізняються на 0,7%, з чого можна зробити висновок, що збільшення букв алфавіту кодування призвело до зменшення надмірності коду.

Навики і знання, отримані при виконанні роботи, являються фундаментальними для студента спеціальності «Телекомунікаційні системи та мережі», так як дають уявлення про закономірності передачі та прийому повідомлень і найзагальніші поняття такі як інформація, ентропія, надмірність.

Перелік посилань

1. В. Г. Абакумов, «Электронные промышленные устройства», 1978, «Вища школа», Киев, 369 ст;

2. Ю.П. Жураковський, В.П. Полторак, «Теорія інформації та кодування», 2001, «Вища школа», Київ, 255 ст.

3. А. М. Яглом, И. М. Яглом. Вероятность и информация. -- М.: «Наука», 1973.

Размещено на Allbest.ru

...

Подобные документы

  • Визначення кількості інформації в повідомленні, ентропії повідомлень в каналі зв’язку, ентропії двох джерел повідомлень. Продуктивність джерела повідомлень, швидкість передачі інформації та пропускна здатність каналу зв’язку. Кодування, стиснення даних.

    контрольная работа [590,8 K], добавлен 07.06.2012

  • Визначення кількості інформації на символ повідомлення, обчислення диференційної ентропії системи. Розрахунок послаблення сигналу у децибелах, знаходження граничної його міцності. Суть обчислення ймовірності помилкового приймання кодової комбінації.

    контрольная работа [165,4 K], добавлен 10.05.2013

  • Аналіз аналогової системи передачі. Порівняння завадостійкості системи зв’язку. Розрахунок інформаційних характеристик системи передачі. Декодування коректуючого коду. Шифрування кодами Цезаря та Віженера. Структурна схема цифрової системи передачі.

    курсовая работа [1,7 M], добавлен 15.04.2013

  • Програма розрахунку інформаційних характеристик каналу зв'язку. Побудова коду для передачі повідомлень. Процедури кодування, декодування та оцінка ефективності кодів. Програма на алгоритмічній мові Паскаль. Канальна матриця, що визначає втрати інформації.

    курсовая работа [147,7 K], добавлен 09.07.2009

  • Визначення параметрів цифрового сигналу на виході АЦП. Розробка структури цифрового лінійного тракту, розрахунок його завадостійкості. Аналіз роботи демодулятора. Ймовірність помилкового прийому комбінації коду Хемінга та безнадлишкового коду МТК-2.

    курсовая работа [1,1 M], добавлен 06.08.2013

  • Потреба людини в кодованих сигналах спілкування на ранніх етапах історії. Інформаційні технології - технологічна підтримка природних можливостей людини з накопичення та передачі знань. Властивості інформаційних технологій, їх засоби та користувачі.

    презентация [3,0 M], добавлен 18.11.2015

  • Значимість двійкової системи числення для кодування інформації. Способи кодування і декодування інформації в комп'ютері. Відповідність десятковій, двійковій, вісімковій і шістнадцятковій систем числення. Двійкове кодування інформації, алфавіт цифр.

    презентация [1,4 M], добавлен 30.09.2013

  • Принципи інформаційної безпеки. Статистика атак в Інтернеті. Засоби захисту інформації у системах передачі даних. Загальні поняття та визначення в галузі проектування захищених автоматизованих систем. Захист телефонної лінії від прослуховування.

    магистерская работа [1,2 M], добавлен 07.03.2011

  • Поняття терміну "кібернетика" та її джерела, закони одержання, збереження, передачі і перетворення інформації в складних керуючих системах. Методологічні проблеми кібернетики, функціональний і системний підходи, інформаційний аспект матерії й енергії.

    реферат [21,9 K], добавлен 02.02.2011

  • Постановка задачі та визначення її функціоналу: записи в файл бази, їх перегляд та редагування, видалення та використання. Формування коду програми з основного коду і процедур, що ведуть облік у базі даних абонентів та оплат за комунальні послуги.

    курсовая работа [237,7 K], добавлен 12.01.2012

  • Імовірнисний підхід у теорії ощадливого кодування. Оцінка інформативності ознак та їх оптимальна градація. Застосування імовірнісних методів для підвищення ефективності ощадливого кодування відеоінформації. Ефективні алгоритми кодування інформації.

    реферат [1,6 M], добавлен 29.06.2009

  • Практичне застосування систем кодування знакової та графічної інформації в електронних обчислювальних машинах. Позиційні системи числення. Представлення цілих і дійсних чисел. Машинні одиниці інформації. Основні системи кодування текстових даних.

    практическая работа [489,5 K], добавлен 21.03.2012

  • Визначення криптографічних методів захисту інформації як способів шифрування та кодування даних, які потребують ключа і оберненого перетворення. Характеристика принципу гаммування. Криптоаналіз лінійних конгруентних генераторів псевдовипадкових чисел.

    курсовая работа [242,4 K], добавлен 01.02.2012

  • Дистрибутиви та особливості архітектури QNX, існуючі процеси та потоки, засоби та принципи синхронізації. Організація зв'язку між процесами. Алгоритм роботи системи та результати її тестування. Опис основних елементів програмного коду файлу code.c.

    курсовая работа [132,0 K], добавлен 09.06.2015

  • Способи растрування, дискретне керування розміром друкарського елемента. Растрова функція, форма точок та растрові викривлення. Методи визначення характеристик одноколірних відбитків. Модуляція образотворчої інформації у високому і плоскому видах друку.

    реферат [368,9 K], добавлен 14.09.2010

  • Типологія засобів проектування економічних інформаційних систем з використанням ЕОМ. Описання видів реєстраційних і класифікаційних систем кодування інформації. Операції автоматизованого введення паперових документів, етапи процесу їх сканування.

    контрольная работа [114,7 K], добавлен 00.00.0000

  • Типологія засобів проектування економічних інформаційних систем з використанням ЕОМ. Описання видів реєстраційних і класифікаційних систем кодування інформації. Операції автоматизованого введення паперових документів, етапи процесу їх сканування.

    контрольная работа [114,7 K], добавлен 14.02.2011

  • Поняття та класифікація технологічних операцій, їх склад і зміст, порядок організації їх виконання в економічних інформаційних системах. Технологія створення і ведення інформаційних масивів. Методика обробки інформації з ціноутворення та прибутків.

    реферат [34,8 K], добавлен 27.07.2009

  • Вартість інформаційних технологій для бізнесових процесів. Вартість інформації з погляду її специфікації. Визначення ціни інформації виходячи з граничної вартості. Визначення вартості інформації, як суми витрат на її придбання. Сучасні пропозиції.

    реферат [22,1 K], добавлен 22.12.2008

  • Визначення інформаційних систем. Загальна характеристика складових частин внутрішньої інформаційної основи систем. Пристрої перетворення графічної інформації в цифрову. Системи управління базами даних. Технологія створення карт засобами MapInfo.

    реферат [39,4 K], добавлен 05.12.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.