Энтропия источника дискретных сообщений

Характеристика понятия энтропии как среднего количества информации, приходящейся на одно сообщение источника. Порядок определения энтропии источников дискретных и независимых сообщений. Избыточность информации и связанные структуры непрерывных сообщений.

Рубрика Коммуникации, связь, цифровые приборы и радиоэлектроника
Вид контрольная работа
Язык русский
Дата добавления 28.11.2012
Размер файла 111,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

2

Министерство образования и науки Российской Федерации

Муромский институт (филиал)

Федерального государственного бюджетного образовательного учреждения высшего профессионального образования

«Владимирский государственный университет имени Александра Григорьевича и Николая Григорьевича Столетовых»

(МИ(филиал)ВлГУ)

контрольная РАБОТА

Предмет: Теория информации

Тема: Энтропия источника дискретных сообщений

Руководитель

Ткачук М.И.

Студент

Мелешина Н.Г.

Муром 2012

Содержание

Введение

1. Энтропия источника дискретных сообщений

1.1 Энтропия источника независимых сообщений

1.2 Энтропия источника зависимых сообщений

2. Избыточность источника сообщений

3. Связанные источники сообщений (объединения)

4. Энтропия непрерывного источника информации

Заключение

Список литературы

сообщение источник энтропия информация

Введение

Основное внимание в теории информации уделяется определению средней скорости передачи информации и решению задачи максимизации этой скорости путем применения соответствующего кодирования. Предельные соотношения теории информации позволяют оценить эффективность различных систем связи и установить условия согласования в информационном отношении источника с каналом и канала с потребителем.

Для исследования этих вопросов с общих позиций необходимо прежде всего установить универсальную количественную меру информации, не зависящую от конкретной физической природы передаваемых сообщений.

Количество информации в сообщении о некотором событии существенно зависит от вероятности этого события. Вероятностный подход и положен в основу определения меры количества информации.

Вместе с тем во многих случаях, когда требуется согласовать канал с источником сообщений, таких сведений оказывается недостаточно. Возникает потребность в характеристиках, которые позволяли бы оценивать информационные свойства источника сообщений в целом. Одной из важных характеристик такого рода является среднее количество информации, приходящееся на одно сообщение.

Энтропия - это среднее количество информации, приходящееся на одно сообщение источника.

Чем больше энтропия, тем сильнее неопределенность и тем большую информацию в среднем несет одно сообщение источника.

1. Энтропия источника дискретных сообщений

1.1 Энтропия источника независимых сообщений

В простейшем случае, когда все сообщения равновероятны, количество информации в каждом из них одинаково и определяется выражением:

J (a) = - log P (a) = log m.

При этом среднее количество информации равно log m.

Следовательно, при равновероятных независимых сообщениях информационные свойства источника зависят только от числа сообщений в ансамбле m.

Однако в реальных условиях сообщения, как правило, имеют разную вероятность.

Поэтому знание числа сообщений m в ансамбле является недостаточным, необходимо иметь сведения о вероятности каждого сообщения: P (a1), P (a2), P (a3) ,…, P (am).

Так как вероятности сообщений неодинаковы, то они несут различное количество информации: J (a1) = - log P (a1).

Менее вероятные сообщения несут большее количество ин формации и наоборот.

В качестве примера вычислим энтропию источника сообщений, который характеризуется ансамблем, состоящим из двух сообщений a1 и а2 с вероятностями P(a1)=p и P(а2)=1-p.

H(a) = - P(a1)log P(a1) - P(a2)log P(a2) = - p log p - (1-p)log (1-p).

Максимум энтропии имеет место при p=1/2, то есть когда ситуация является наиболее неопределенной. При p=1 или p=0, что соответствует передаче одного из сообщений, неопределенности отсутствуют. В этих случаях энтропия H(a) равна нулю.

Среднее количество информации, содержащееся в последовательности из n-сообщений, равно:

.

Отсюда следует, что количество передаваемой информации можно увеличить не только за счет числа сообщений, но и путем повышения энтропии источника, т. е. информационной емкости его сообщений.

Обобщая эти результаты, можно сформулировать основные свойства

энтропии источника независимых сообщений:

* энтропия - величина всегда положительная, так как

;

* при равновероятных сообщениях, когда:

,

энтропия максимальна и равна:

* энтропия равняется нулю лишь в том случае, когда все вероятности

P(at) равны нулю, за исключением одной, величина, которой равна единице;

* энтропия нескольких независимых источников равна сумме энтропии этих источников:

1.2 Энтропия источника зависимых сообщений

Рассмотренные выше источники независимых сообщений являются простейшим типом источников. В реальных условиях картина значительно усложняется из-за наличия статистических связей между сообщениями. Примером может быть обычный текст, где появление той или иной буквы зависит от предыдущих буквенных сочетаний.

Статистическая связь ожидаемого сообщения с предыдущим сообщением количественно оценивается совместной вероятностью P(ak,aL) или условной вероятностью P(aL/ak), которая выражает вероятность появления сообщения aL при условии, что известно предыдущее сообщение ак.

Количество информации, содержащейся в сообщении при условии, что известно предыдущее сообщение ак будет равно:

Среднее количество информации при этом определяется условной энтропией , которая вычисляется как математическое ожидание информации по всем возможным сообщениям aK и aL. Важным свойством условной энтропии источника зависимых сообщений является то, что при неизменном количестве сообщений в ансамбле источника его энтропия уменьшается с увеличением числа сообщений, между которыми существует статистическая взаимосвязь. В соответствии с этим свойством, а также свойством энтропии источника независимых сообщений можно записать неравенства:

Таким образом, наличие статистических связей между сообщениями всегда приводит к уменьшению количества информации, приходящейся в среднем на одно сообщение.

2. Избыточность источника сообщений

Уменьшение энтропии источника с увеличением статистической взаимосвязи можно рассматривать как снижение информационной емкости сообщений. Одно и то же сообщение при наличии взаимосвязи содержит в среднем меньше информации, чем при ее отсутствии.

Иначе говоря, если источник создает последовательность сообщений, обладающих статистической связью, и характер этой связи известен, то часть сообщений, выдаваемая источником, является избыточной, так как она может быть восстановлена по известным статистическим связям. По является возможность передавать сообщения в сокращенном виде без потери информации, содержащейся в них. Например, при передаче телеграммы мы исключаем из текста союзы, предлоги, знаки препинания, так как они легко восстанавливаются при чтении телеграммы на основании известных правил построения фраз и слов.

Таким образом, любой источник зависимых сообщений, как принято говорить, обладает избыточностью.

Количественное определение избыточности может быть получено из следующих соображений. Для того чтобы передать количество информации J, источник без избыточности должен выдать в среднем k0=J/H0 сообщений, а источник с избыточностью kn=J/Hn сообщений.

Поскольку Hn < H0 и kn > k0 ,то для передачи одного и того же количества информации источник с избыточностью должен использовать большее количество сообщений. Избыточное количество сообщений равно kn- k0, а избыточность определяется как отношение:

Величина избыточности является неубывающей функцией.

Коэффициент r = Hn/H0 , называется коэффициентом сжатия.

Он показывает, до какой величины можно сжать передаваемые сообщения, если устранить избыточность. Источник, обладающий избыточностью, передает излишнее количество сообщений. Это увеличивает продолжительность передачи и снижает эффективность использования канала связи.

Сжатие сообщений можно осуществить посредством соответствующего кодирования. Информацию необходимо передавать такими сообщениями, информационная емкость которых используется наиболее полно. Этому условию удовлетворяют равновероятные и независимые сообщения.

Если информация передается по каналу связи, в котором отсутствуют помехи, то избыточность является ненужной. В этом случае при использовании избыточного сигнала бесполезно увеличивается время передачи информации, и она приходит к получателю с запозданием.

Однако практически все реальные каналы связи имеют помехи. Наличие помех характерно особенно для протяженных каналов. Если R = 0, то есть все элементы являются информационными, то при искажении любого символа будем иметь другое сообщение. Если же сигнал избыточный, то часть символов можно использовать для увеличения его помехоустойчивости. В канале может быть искажено от одного до нескольких символов. Неизбыточный сигнал ни при каких условиях не может способствовать обнаружению даже одиночной ошибки, не говоря уже о ее исправлении. для получения такой возможности надо обязательно использовать избыточный сигнал. При этом избыточность вводится намеренно в исходный неизбыточный сигнал в количестве, зависящем от конечной цели. Целью является обнаружение и (или) исправление определенного количества ошибок. Существует специальная теория построения избыточных сигналов, называемая теорией помехоустойчивого кодирования.

3. Связанные источники сообщений (объединения)

До сих пор предполагалось, что источник сообщения единственен. Однако существует ситуация, когда информация к получателю поступает от двух или более источников одновременно. В таких случаях говорят, что источники называются связанными и называют их объединениями. Степень связанности источников оценивается вероятностями появления сообщений одновременно от нескольких источников.

Пусть первый источник характеризуется ансамблем

Второй источник представлен другим ансамблем

Степень связанности источников можно охарактеризовать следующей матрицей:

Вероятность одновременного появления сообщений xi и yj обозначена p(xi, yj). Если появилось сообщение от одного источника, то с определенной вероятностью поступит сообщение от другого источника, если соответствующий элемент в матрице связей ненулевой. Чем большее число вероятностей в матрице отлично от нуля, тем больше связь между источниками.

Если в этой матрице все вероятности pij = 0, то источники не являются коррелированными, и сообщения передаются независимо друг от друга. Однако наиболее вероятна ситуация существования связи между источниками. Одним из источников может быть помеха.

Если источников больше двух, можно построить матрицу для двух источников, которую затем рассматривать как эквивалентный источник.

Введем энтропийные характеристики для объединения. Пусть p(xi) - априорная вероятность появления сообщения xi.

Можно говорить об энтропии источника X:

Аналогично для источника Y априорная вероятность появления сообщения p(yj) и энтропия

Если p(xi, yj) - вероятность совместного появления сообщений от источников X, Y, то

Введем другие характеристики. Условная энтропия определяется следующим образом:

Взаимная энтропия

где p(xi, ? yj) - взаимная вероятность, которая характеризует обязательное появление сообщений от двух источников одновременно; фактически p(xi, ? yj) является частным случаем вероятности p(xi,, yj).

Можно установить графически или аналитически связь между любой парой введенных энтропийных характеристик.

Таблица. Графическая связь между энтропийными характеристиками.

Наименование

Обозначение

Соотношение

Иллюстра-тивная диаграмма

Безусловная (априорная)
энтропия

Рис. а)

Условная
энтропия

Рис. б)

Совместная
энтропия

Рис. в)

Взаимная
энтропия

Рис. г)

Рисунок Энтропийные характеристики.

Связь между различными энтропиями может быть получена аналитически. Выразим, например, H(X,Y) через другие энтропийные характеристики.

Известно, что

Предварительно установим связь между совместной, условной и безусловной вероятностями:

Таким образом, формула H(X/Y) = H(X,Y) - H(Y) была получена аналитически.

Относительно энтропийных характеристик можно также сказать, что выполняется соотношение

H(X) < H(X/Y),

где H(X/Y) - среднее количество информации, полученное от источника X при условии, что уже получено сообщение от Y; H(X) - среднее количество информации, полученное от источника X независимо от того, получено ли сообщение от другого источника.

4. Энтропия непрерывного источника информации

Энтропия непрерывного источника информации бесконечна, т. к. неопределенность выбора из бесконечно большого числа возможных состояний бесконечно велика.

Дифференциальная энтропия -- средняя информация непрерывного источника. Определяется как

бит,

где  -- плотность распределения сигнала непрерывного источника как случайной величины.

Условная дифференциальная энтропия для величины X при заданной величине Y определяется следующей формулой:

бит.

Безусловная и условная дифференциальные энтропии могут быть как положительными, так и отрицательными величинами, а также могут быть равны бесконечности. Для дифференциальной энтропии справедливы равенства, аналогичные для энтропии дискретного источника:

(для независимых источников -- равенство)

Дифференциальная энтропия достигает своего максимума в случае гауссова распределения плотности вероятности сигнала непрерывного источника как случайной величины и равна

бит

Для равномерного распределения:

бит

Для распределения Лапласа

бит

Дифференциальная энтропия обладает следующими свойствами:

1. Дифференциальная энтропия в отличие от обычной энтропии дискретного источника не является мерой собственной информации, содержащейся в ансамбле значений случайной величины Х. Она зависит от масштаба Х и может принимать отрицательные значения. Информационный смысл имеет не сама дифференциальная энтропия, а разность двух дифференциальных энтропий, чем и объясняется ее название.

2. Дифференциальная энтропия не меняется при изменении всех возможных значений случайной величины Х на постоянную величину. Действительно, масштаб Х при этом не меняется и справедливо равенство

Из этого следует, что h(x) не зависит от математического ожидания случайной величины, т.к. изменяя все значения Х на С мы тем самым изменяем на С и ее среднее, то есть математическое ожидание.

3. Дифференциальная энтропия аддитивна, то есть для объединения ХY независимых случайный величин Х и Y справедливо:
H(XY)= H(X) + H(Y).

Заключение

Энтропия как физическая переменная первично возникла из задач описания тепловых процессов. Впоследствии она стала широко использоваться во всех областях науки.

Информация - это знание, которое используется для развития, совершенствования системы и её взаимодействий с окружающей средой.

Информация сама развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Своевременная и оперативная информация может позволить стабилизировать систему, адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от взаимодействия системы и среды зависит развитие и устойчивость системы.

В современном мире все большее значение в управлении организацией отдается прогнозированию. Любая организация в процессе своей деятельности сталкивается с различными рисками, которые в большей или меньшей степени влияют на ее состояние. Многочислелны примеры ситуаций, связанных с социальными, технологическими, экономическими, политическими, экологическими и другими рисками. Именно в таких ситуациях обычно и необходимо прогнозирование. Известны различные виды критериев, используемых в теории принятия решений в условиях неопределенности (риска). Из-за противоречивости решений, получаемых по различным критериям, очевидна необходимость применения энтропии.

Список литературы

1. Душин В.К. Теоретические основы информационных процессов и систем: Учебник. -- Издательско-торговая корпорация «Дашков и К°», 2003.

2. В. Столлингс. Передача данных 4-е издание. СпБ.: Питер, 2004.

3. Вернер М. Основы кодирования ( Information und Codierung). пер. Д.К. Зигангирова -- ЗАО «РИЦ „Техносфера“», 2004.

4. У. Томаси. Электронные системы связи. М.: Техносфера, 2007

5. Электронный учебник по циклу дисциплин информационного направления - кафедра Технической кибернетики и информатики Саратовского Государственного технического университета, 2006.

Размещено на Allbest.ru

...

Подобные документы

  • Определение энтропии и количества информации в сообщениях. Определение энтропии сложного сообщения, вырабатываемого двумя зависимыми источниками. Экономное кодированиее информации в системах цифрового спутникового телевидения и Internet, сотовой связи.

    реферат [34,9 K], добавлен 11.02.2009

  • Системы передачи дискретной информации – системы, в которых реализации сообщений являют собой последовательности символов алфавита источника. Информационные характеристики непрерывных сообщений. Дифференциальная энтропия источника непрерывных сообщений.

    реферат [166,3 K], добавлен 01.02.2009

  • Определение количества информации, содержащейся в каждом из символов источника при их независимом выборе. Двоичная единица информации. Информационные характеристики дискретного источника. Зависимость энтропии при равновероятном распределении вероятностей.

    контрольная работа [480,4 K], добавлен 05.11.2013

  • Ограниченный динамический диапазон источников сообщений и конечная разрешающая способность получателей информации – людей и исполнительных механизмов. Равномерное и неравномерное квантование сообщений. Искажения при квантовании. Потеря информации.

    реферат [37,3 K], добавлен 10.02.2009

  • Исследование сущности и функций системы передачи дискретных сообщений. Расчет необходимой скорости и оценка достоверности их передачи. Выбор помехоустойчивого кода. Определение порождающего полинома. Оптимизация структуры резерва дискретных сообщений.

    курсовая работа [213,8 K], добавлен 14.01.2013

  • Расчет информационных характеристик источников дискретных сообщений и канала. Согласование дискретного источника с дискретным каналом без шума, методы кодирования и их эффективность. Информационные характеристики источников сообщений, сигналов и кодов.

    курсовая работа [503,7 K], добавлен 14.12.2012

  • Формы представления информации, ее количественная оценка. Сущность и первичное кодирование дискретных сообщений. Совокупность технических средств, предназначенных для передачи информации. Система преобразования сообщения в сигнал на передаче и приеме.

    реферат [84,0 K], добавлен 28.10.2011

  • Разработка модели системы передачи дискретных сообщений. Принципы кодирования источника при передаче информации. Расчёт вероятностей двоичных символов; энтропии и избыточности кода. Импульсная и комплексно-частотная характеристика согласованного фильтра.

    курсовая работа [293,3 K], добавлен 27.03.2016

  • Функции основных блоков структурной схемы системы передачи дискретных сообщений. Определение скорости передачи информации по разным каналам. Принципы действия устройств синхронизации, особенности кодирования. Классификация систем с обратной связью.

    курсовая работа [478,7 K], добавлен 13.02.2012

  • Составление обобщенной структурной схемы передачи дискретных сообщений. Исследование тракта кодер-декодер источника и канала. Определение скорости модуляции, тактового интервала передачи одного бита и минимально необходимой полосы пропускания канала.

    курсовая работа [685,0 K], добавлен 26.02.2012

  • Принципы кодирования источника при передаче дискретных сообщений. Процесс принятия приёмником решения при приёме сигнала. Расчёт согласованного фильтра. Построение помехоустойчивого кода. Декодирование последовательности, содержащей двукратную ошибку.

    курсовая работа [903,9 K], добавлен 18.10.2014

  • Структурная схема одноканальной системы передачи дискретных сообщений. Выбор оптимального типа кодирования. Код Хаффмана. Минимальная длина кодовой комбинации равномерного кода. Энтропия источника сообщений. Расчет информационной скорости на выходе.

    курсовая работа [110,9 K], добавлен 08.11.2012

  • Методы кодирования сообщения с целью сокращения объема алфавита символов и достижения повышения скорости передачи информации. Структурная схема системы связи для передачи дискретных сообщений. Расчет согласованного фильтра для приема элементарной посылки.

    курсовая работа [1,1 M], добавлен 03.05.2015

  • Расчет основных характеристик системы передачи сообщений, состоящей из источника сообщений, дискретизатора, кодирующего устройства, модулятора, линии связи, демодулятора, декодера и фильтра-восстановителя. Структурная схема оптимального демодулятора.

    курсовая работа [310,0 K], добавлен 22.03.2014

  • Информационные характеристики источника сообщений и первичных сигналов. Структурная схема системы передачи сообщений, пропускная способность канала связи, расчет параметров АЦП и ЦАП. Анализ помехоустойчивости демодулятора сигнала аналоговой модуляции.

    курсовая работа [233,6 K], добавлен 20.10.2014

  • Расчет технических характеристик цифровой системы передачи непрерывных сообщений. Параметры источника непрерывных сообщений. Изучение процесса дискретизации и преобразования случайного процесса в АЦП. Принцип работы модулятора и оптимального приемника.

    курсовая работа [1,2 M], добавлен 27.09.2012

  • Принципы определения производительности источника дискретных сообщений. Анализ пропускной способности двоичного симметричного канала связи с помехами, а также непрерывных каналов связи с нормальным белым шумом и при произвольных спектрах сигналов и помех.

    реферат [251,3 K], добавлен 14.11.2010

  • Структура сетей телеграфной и факсимильной связи, передачи данных. Компоненты сетей передачи дискретных сообщений, способы коммутации в них. Построение корректирующего кода. Проектирование сети SDH. Расчет нагрузки на сегменты пути, выбор мультиплексоров.

    курсовая работа [69,5 K], добавлен 06.01.2013

  • Методы цифровой обработки сигналов в радиотехнике. Информационные характеристики системы передачи дискретных сообщений. Выбор длительности и количества элементарных сигналов для формирования выходного сигнала. Разработка структурной схемы приемника.

    курсовая работа [370,3 K], добавлен 10.08.2009

  • Расчет основных характеристик системы передачи сообщений, включающей в себя источник сообщений, дискретизатор, кодирующее устройство, модулятор, линию связи, демодулятор, декодер и фильтр-восстановитель. Наиболее помехоустойчивый тип модуляции.

    курсовая работа [278,3 K], добавлен 03.12.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.