Кодирование и измерение количества информации

Определение количества информации в сообщении в соответствии с формулой обобщенной гипергеометрической вероятности. Вычисление энтропии источника сообщений, который вырабатывает ансамбль независимых символов. Расчет экономности кода по методу Шеннона-Фено

Рубрика Математика
Вид контрольная работа
Язык русский
Дата добавления 16.05.2014
Размер файла 49,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

  • Содержание
  • Задача 1
  • Задача 2
  • Задача 3
  • Задача 4
  • Задача 5
  • Задача 6
  • Литература

Задача 1

Условие задачи:

В урне 7 белых и 5 черных шаров. Из урны вынимают сразу 5 шаров. Какое количество информации содержится в сообщении о том, что 2 из них будут белыми?

Решение:

Количество информации в сообщении определяется по формуле:

Приведем обозначение задачи в соответствии с формулой обобщенной гипергеометрической вероятности. По условию задачи в урне 12 шаров.

Имеем

Выбираем

Черные шары

5

3

Белые шары

7

2

Всего

12

5

P=

где p - вероятность наступления события (2 из 5 вынутых шаров белые),

число сочетаний из 5 по 3 (варианты выбора 3х черных шаров);

число сочетаний из 7 по 2 (варианты выбора 2х белых шаров).

P=

Количество информации в сообщении «два из пяти вынутых шаров белые»

I = - log(7/3168) = log(31288/7) = 8,8 бит.

Задача 2

Условие задачи:

Вычислить энтропию источника сообщений, который вырабатывает ансамбль независимых символов Х с частотами n.

Таблица 1

Частота появления для ансамбля независимых символов Х

n

2

1

2

3

14

1

23

2

Решение

Энтропия источника для случая неравновероятных и независимых сообщений определяется формулой:

(3)

H(X)= - [3*(2/48)*log(2/48) + 2*(1/48)*log(1/48) + (3/48)*log(3/48) +

(14/48)*log(14/48) + (23/48)*log(23/48)]= 2,08 бит

Задача 3

Условие задачи:

В двух урнах по n шаров, причем в первой урне k1 красных, b1 белых и c1 черных, а во второй соответственно - k2, b2 и с2 . Из каждой урны вынимается по одному шару. Определить, для какой урны исход опыта является более определенным.

Таблица 2

Данные для задачи 3

K1

B1

C1

K2

B2

C2

6

3

11

3

7

10

Решение:

Определим энтропию для каждой из урн:

А) В первой урне 6 красных, 3 белых и 11 черных шара, всего 20 шаров.

Вероятность, что вынутый шар будет красным

P1 = 6/20 = 0,3

Вероятность, что вынутый шар будет белый

P1 = 3/20 = 0,15

Вероятность, что вынутый шар будет черным

P2 = 11/20 = 0,55

Энтропия

H = - (0,3*log0,3+0,15*log 0,15+0,55*log 0,55)= 1,406 бит

Б) Во второй урне 3 красных, 7 белых и 10 черных шара, всего 20 шаров.

Вероятность, что вынутый шар будет красным

P1 = 3/20 = 0,15

Вероятность, что вынутый шар будет белым:

P2 = 7/20 = 0,35

Вероятность, что вынутый шар будет черным

P3 = 10/20 = 0,5

Энтропия

H =- (0,15*log0,15+0,35*log0,35+0,5*log0,5) = 1,4406 бит

Вывод: для первой урны исход опыта более определен.

Задача 4

Условие задачи:

Закодировать по методу Шеннона-Фено следующее сообщение и найти экономность кода.

Решение

Длина сообщения 26 символов, всего 16 различных символов:

2 буквы «м», частота 2/26

1 буква «я», частота 1/26

2 буквы «к», частота 2/26

4 буквы «и», частота 4/26

1 буква «н», частота 1/26

2 буквы «а», частота 2/26

2 буквы «л», частота 2/26

2 буквы «е», частота 2/6

1 буква «с», частота 1/26

1 буква «й», частота 1/26

2 буквы «в», частота 2/26

1 буква «д», частота 1/26

1 буква «р», частота 1/26

1 буква «о», частота 1/26

1 буква «ч», частота 1/26

2 знака пробела (нижнее подчеркивание) частота 2/26.

1. Построим таблицу частот (Таблица 2), запишем в таблицу частоты ni и вероятности pi = ni /N для каждой буквы

гипергеометрический вероятность энтропия код

Таблица 3

Вероятности каждой буквы

х

и

к

м

а

л

е

я

н

с

й

в

д

р

о

ч

_

n

4

3

2

2

2

2

1

1

1

1

2

1

1

1

1

2

p

0,15

0,12

0,08

0,08

0,08

0,08

0,04

0,04

0,04

0,04

0,08

0,04

0,04

0,04

0,04

0,08

2. Запишем символы (в порядке убывания частоты появления) для нашего набора символов в Таблицу 4.

Таблица 4

Кодирование по методу Шеннона - Фано

Символы

Частота

1е разбиение

2е разбиение

3е разбиение

4е разбиение

и

0,15

0

0

0

к

0,08

1

0

м

0,08

1

а

0,08

1

0

л

0,08

1

0

е

0,08

1

в

0,08

1

0

0

0

пробел

0,08

1

н

0,04

1

0

с

0,04

1

я

0,04

1

0

0

д

0,04

1

0

р

0,04

1

о

0,04

1

0

й

0,04

1

0

ч

0,04

1

3. Разбиваем символы на 2 группы с приблизительно равными суммами вероятностей.

4. Присваиваем верхней группе 0, а нижней 1.

5. Каждую группу разбиваем по такому же принципу и присваиваем 0 и 1.

6. Продолжаем разбиение до тех пор, пока в каждой группе не останется по 1 символу.

7. Запишем кодовую таблицу (Таблица 5)

Таблица 5

Кодовая таблица для букв

И 000

К 0010

М 0011

А 010

Л 0110

Е 0111

В 1000

Пробел 1001

Н 1010

С 1011

Я 1100

Д 11010

Р 11011

О 1110

Й 11110

Ч 11111

Вычислим максимальную энтропию (предположим, что частота появления символов в сообщении одинакова)

Hmax = log216= 4

t ср(средняя длина кода) = =

= 0,15*3+0,08*3+5*0,08*4+4*0,04*4+4*0,04*5= 3,93

Экономичность - это отношение энтропии кода к максимальной энтропии в предположении, что все символы имеют одинаковую вероятность.

Вычислим экономичность кода, то есть отношение энтропии кода (средней длины кода) к максимальной энтропии:

Э = t ср/ Hmax= 3,393/4 = 0,9877

Значение экономичности близко к 1, значит код близок к оптимальному!

Задача 5

Условие задачи:

Найти

а) Избыточность R1 источника сообщений при статистический независимости букв;

б) избыточность R2 с учетом зависимости между буквами для сообщения «женьшень»

Решение:

Длина сообщения «женьшень» 8 символов, 5 букв, буквы встречаются с частотами:

«ж» 1/8

«е» 2/8

«н» 2/8

«ь» 2/8

«ш» 1/8

Вычислим энтропию

= -3*2/8*log(2/8)-2*1/8*log(1/8) = 3,25

H (A)на символ = 3,25/8= 0,468 бит/символ

Если бы все символы имели одинаковую частоту, энтропия источника сообщений была бы максимальна:

Hmax = log28 = 3 бит/символ

Избыточность R1 при передаче сообщения «женьшень» без учета статистической зависимости букв будет равна:

R1 = 1- (H(A)на символ/Hmax) = 1-(0,468/3) = 0,844

б) Избыточность с учетом статистической зависимости появления букв рассчитывается по формуле:

R2 = 1-H стат(А)/Hmax

Где Н стат= энтропия сообщения с учетом статистической зависимости появления букв.

Условные вероятности появления i ой буквы после k ой буквы в сообщении «женьшень»:

Таблица 6

Условные вероятности появления букв

i ая буква

k ая

ж

е

н

ь

ш

У pi/pk

ж

0

1

0

0

0

1

е

0

0

1

0

0

1

н

0

0

0

1

0

1

ь

0

0

0

0

1

1

ш

0

1

0

0

0

1

Энтропия двухбуквенного текста рассчитывается по формуле:

В случае передачи сообщения «женьшень»

0

H(A)статна символ=H(A) на символ =0,468 бит/символ

Избыточность R2 при передаче сообщения «женьшень» с учетом статистической зависимости букв будет равна R1:

R2=1- (H(A)статна символ/Hmax)=1-(0,468/3)=0,844

Задача 6

Условие задачи

Имеется источник информации с энтропией в единицу времени Н (бит) и К каналов связи; каждый из которых может передавать в единицу времени S бит. В результате помехи каждое значение бита заменяется противоположным с вероятностью Р.

Требуется выяснить: достаточна ли пропускная способность этих каналов для передачи информации, поставляемой источником?

Таблица 5

Данные для задачи

Н

К

S

Р

180

4

120

0.28

Решение

Определяем потерю информации из-за помех на один символ:

H =-(p*log2p-(1-p)*log2(1-p)) = 0,514+0,341 = 0,855 бит/символ

С учетом потерь максимальное количество информации, передаваемое по одному каналу в единицу времени равно:

С = 120*(1-0,855) = 17,36 бит

По четырем каналам максимум можно передать:

С3 = 4* 17,36 = 69, 39 бит/с,

что меньше, чем энтропия источника 180.

Вывод:

Для передачи информации, поставляемой источником, недостаточно пропускной способности четырех каналов.

Литература

1. Вентцель Е.С. Теория вероятностей: Учеб. для вузов. -- 6-е изд. стер. -- М.: Высш. шк., 1999.-- 576 c

2. Яглом А.М., Яглом И.М. Вероятность и информация. М.: Наука, 1973, с. 238

Размещено на Allbest.ru

...

Подобные документы

  • Система передачи информации, ее количество и логарифмическая мера. Ансамбль сообщений, виды единиц информации. Свойства количества информации. Энтропия как содержательность и мера неопределенности информации, ее свойства. Понятие избыточности сообщений.

    реферат [35,1 K], добавлен 01.08.2009

  • Определение вероятности появления поломок. Расчет вероятности успеха, согласно последовательности испытаний по схеме Бернулли. Нахождение вероятности определенных событий по формуле гипергеометрической вероятности. Расчет дискретной случайной величины.

    контрольная работа [69,3 K], добавлен 17.09.2013

  • Вычисление по классической формуле вероятности. Определение вероятности, что взятая наугад деталь не соответствует стандарту. Расчет и построение графиков функции распределения и случайной величины. Вычисление коэффициента корреляции между величинами.

    контрольная работа [708,2 K], добавлен 02.02.2011

  • Возникновение теории вероятности как науки. Классическое определение вероятности. Частость наступления события. Операции над событиями. Сложение и умножение вероятности. Схема повторных независимых испытаний (система Бернулли). Формула полной вероятности.

    реферат [175,1 K], добавлен 22.12.2013

  • Определение вероятности наступления события, используя формулу Бернулли. Вычисление математического ожидания и дисперсии величины. Расчет и построение графика функции распределения. Построение графика случайной величины, определение плотности вероятности.

    контрольная работа [390,7 K], добавлен 29.05.2014

  • Определение вероятности случайного события; вероятности выиграшных лотерейных билетов; пересечения двух независимых событий; непоражения цели при одном выстреле. Расчет математического ожидания, дисперсии, функции распределения случайной величины.

    контрольная работа [480,0 K], добавлен 29.06.2010

  • Применение классического определения вероятности для нахождения среди определенного количества деталей заданных комбинаций. Определение вероятности обращения пассажира в первую кассу. Использование локальной теоремы Муавра-Лапласа для оценки отклонения.

    контрольная работа [136,0 K], добавлен 23.11.2014

  • Вычисление вероятности непогашения кредита юридическим и физическим лицом, с помощью формулы Байеса. Расчет выборочной дисперсии, его методика, основные этапы. Определение вероятности выпадания белого шара из трех, взятых наудачу, обоснование результата.

    контрольная работа [419,7 K], добавлен 11.02.2014

  • Определение вероятности определенного события. Вычисление математического ожидания, дисперсии, среднеквадратического отклонения дискретной случайной величины Х по известному закону ее распределения, заданному таблично. Расчет корреляционных признаков.

    контрольная работа [725,5 K], добавлен 12.02.2010

  • Применение классического определения вероятности в решении экономических задач. Определение вероятности попадания на сборку бракованных и небракованных деталей. Вычисление вероятности и выборочного значения статистики при помощи формулы Бернулли.

    контрольная работа [309,4 K], добавлен 18.09.2010

  • Характеристика полной группы событий как совокупность всех возможных результатов опыта. Способы определения вероятности событий в задачах разного направления. Нахождение вероятности количества нестандартных деталей. Построение функции распределения.

    задача [37,9 K], добавлен 19.03.2011

  • Определение числа всех равновероятных исходов испытания. Правило умножения вероятностей независимых событий, их полная система. Формула полной вероятности события. Построение ряда распределения случайной величины, ее математическое ожидание и дисперсия.

    контрольная работа [106,1 K], добавлен 23.06.2009

  • Классическое определение вероятности события. Способы вычисления наступления предполагаемого события. Построение многоугольника распределения. Поиск случайных величин с заданной плотностью распределения. Решение задач, связанных с темой вероятности.

    задача [104,1 K], добавлен 14.01.2011

  • Определение вероятности наступления определенного события по законам теории вероятности. Вычисление математического ожидания, дисперсии и среднего квадратичного отклонения. Нахождение выборочного уравнения регрессии по данным корреляционной таблицы.

    контрольная работа [212,0 K], добавлен 01.05.2010

  • Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.

    контрольная работа [59,7 K], добавлен 26.07.2010

  • Порядок составления гипотез и решения задач на вероятность определенных событий. Вычисление вероятности выпадения различных цифр при броске костей. Оценка вероятности правильной работы автомата. Нахождение функции распределения числа попаданий в цель.

    контрольная работа [56,6 K], добавлен 27.05.2013

  • Обработка данных измерений величин и представление результатов с нужной степенью вероятности. Определение среднего арифметического и вычисление среднего значения измеренных величин. Выявление грубых ошибок. Коэффициенты корреляции. Косвенные измерения.

    реферат [116,2 K], добавлен 16.02.2016

  • Построение статистического ряда исходной информации. Определение среднего значения показателя надежности и среднеквадратического отклонения. Проверка информации на выпадающие точки. Определение доверительных границ при законе распределения Вейбулла.

    контрольная работа [65,7 K], добавлен 31.01.2014

  • Число возможных вариантов, благоприятствующих событию. Определение вероятности того что, проектируемое изделие будет стандартным. Расчет возможности, что студенты успешно выполнят работу по теории вероятности. Построение графика закона распределения.

    контрольная работа [771,9 K], добавлен 23.12.2014

  • Нахождение количества способов, которыми можно выбрать по 6 карт из колоды, содержащей 36 карт. Поиск вероятности того, что при выдаче изделия со склада оно будет стандартным. Вероятность того, что пассажир дождется троллейбуса в течение ближайших минут.

    контрольная работа [145,1 K], добавлен 28.01.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.