Понятие информации и ее аспекты
Понятие информации с точки зрения информатики, ее анализ в качестве формы и содержания. Основные виды и свойства информации, ее непрерывная и дискретная формы. Геометрические и комбинаторные меры информации. Выполнение различных операций над данными.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | реферат |
Язык | русский |
Дата добавления | 19.02.2013 |
Размер файла | 69,7 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Содержание
- Введение
- 1. Понятие информация и ее аспекты
- 2. Виды и свойства информации
- 2.1 Виды информации
- 2.2 Непрерывная и дискретная формы информации
- 2.3 Геометрические и комбинаторные меры информации
- 2.4 Операции с данными
- Заключение
- Список использованной литературы
- Приложения
Введение
Термин "информация" происходит от латинского слова "Informatiо" - разъяснение, изложение, осведомленность. Можно считать, что этот термин в начальном представлении является общим понятием, означающим некоторые сведения, совокупность данных, знаний и т.д. Понятие информации должно быть с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразование и передача по различным физическим средам с помощью разнообразных физических сигналов безотносительно к ее содержанию, т.е. к семантике, что и явилось центральным вопросом многих исследований, в том числе и в философской науке. Информация о любом материальном объекте может быть получена путем наблюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода.
Поэтому говорят о доопытной (или априорной) информации и послеопытной (т.е. апостериорной) полученной, в итоге эксперимента.
Для человека любое восприятие реальных объектов окружающей действительности происходит через ощущения. Органы чувств человека и высшая нервная система позволяют ему воспринимать объекты. При обмене информацией имеют место источник в виде объекта материального мира и приемник - человек либо какой-то материальный объект. Информация возникает за счет отражения, которое является свойством всей материи, любой материальной системы. Свойство отражения совершенствуется по мере развития материи от элементарного отражения до высшей его формы - сознания. Процесс отражения означает взаимодействие объектов материального мира. Этот процесс наиболее прост в неорганической природе. Здесь преобладают механические, химические и физические взаимодействия. При таком отражении объекты пассивны. Новые формы отражения (физиологическое и психологическое) возникают в органической природе. В живом организме на основе отражения формируется способность приспосабливаться к изменяющимся окружающим условиям. У человека получают развитие более сложные формы отражения: познавательная и творческая. Эти формы носят сознательный характер и позволяют человеку активно воздействовать на окружающий мир.
1. Понятие информация и ее аспекты
В философском смысле информация есть отражение реального мира. Это сведения, которые один реальный объект содержит о другом реальном объекте. Таким образом, понятие информации связывается с определенным объектом, свойства которого она отражает.
В информатике под информацией понимается сообщение, снижающее степень неопределенности знаний о состоянии предметов или явлений и помогающее решить поставленную задачу.
Изменение некоторой физической величины во времени, обеспечивающее передачу сообщений, называется сигналом.
Мы живем в материальном мире, состоящем из физических тел и физических полей. Физические объекты находятся в состоянии непрерывного движения и изменения, которые сопровождаются обменом энергией и переходом ее из одной формы в другую. Для того чтобы в материальном мире происходил обмен информацией, ее преобразование и передача, должны существовать носитель информации, передатчик, канал связи, приемник и получатель информации. Канал связи представляет собой среду, в которой происходит передача информации [3.34]. Канал связи объединяет источник и получателя информации в единую информационную систему (рис. 1.1).
Подобные информационные системы существуют как в технических системах, так и в человеческом обществе и живой природе. Информационные системы можно разделить на естественные и искусственные. К первым относятся все естественно возникшие системы. Такими системам являются биологические организмы. Искусственными информационными системами являются информационные системы, созданные человеком.
Рисунок 1.1 Информационная система.
Зарегистрированные сигналы называются данными. Для их регистрации с целью хранения и передачи необходим некоторый язык. Этот язык должен быть понятен как отправителю информации, так и ее получателю. Данные могут нести в себе информацию о событиях, происходящих в материальном мире. Однако данные не тождественны информации. Для получения информации нужен метод обработки данных. Информация - это продукт взаимодействия данных и адекватных им методов их обработки.
Информация существует только в момент взаимодействия данных и методов. В остальное время она содержится в виде данных. Таким образом, во-первых, не существует информации самой по себе как некоторой самостоятельной сущности без ее носителя в виде некоторых материальных процессов, во-вторых, не существует информации безотносительно к субъекту, способному извлекать ее из полученного сообщения. Из одних и тех же данных разные получатели могут извлечь разную информацию в зависимости от адекватности методов их обработки [3,44].
Данные являются объективными, так как это результат регистрации объективно существующих сигналов, вызванных изменениями в материальных телах и полях. В то же время методы являются субъективными, так как в их основе лежат алгоритмы, составленные людьми.
Получатель информации оценивает ее в зависимости от того, для решения какой задачи она будет использована. При оценке информации различают ее синтаксический, семантический и прагматический аспекты.
Передаваемое сообщение должно быть представлено в виде последовательности символов некоторого алфавита. Синтаксический аспект касается формальной правильности сообщения с точки зрения синтаксических правил используемого языка безотносительно к его содержанию.
Семантический аспект передает смысловое содержание информации и соотносит её с ранее имевшейся информацией. Знания об определенной предметной области фиксируются в форме тезауруса, то есть совокупности понятий и связей между ними. При получении информации тезаурус может изменяться. Степень этого изменения характеризует воспринятое количество информации. Семантический аспект определяет возможность достижения поставленной цели с учетом полученной информации, т.е. определяет ценность информации.
Количество информации, содержащейся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса получателя под воздействием данного сообщения. Иными словами, количество информации, извлекаемой получателем из поступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой информации [2.11]. Если индивидуальный тезаурус получателя сообщения не пересекается с тезаурусом отправителя, то получатель не понимает сообщение и для него количество принятой информации равно нулю. Такая ситуация аналогична прослушиванию сообщения на неизвестном языке. Несомненно, что сообщение не лишено смысла, однако оно непонятно, а значит, не информативно. Если тезаурусы отправителя и получателя совпадают, то количество информации в сообщении также будет равно нулю, поскольку его получатель знает абсолютно всё о предмете. В этом случае сообщение не дает ему ничего нового. Сообщение несет информацию для получателя только в том случае, когда их тезаурусы пересекаются частично.
Человек сначала наблюдает некоторые факты, которые отображаются в виде набора данных. Здесь проявляется синтаксический аспект. Затем после структуризации этих данных формируется знание о наблюдаемых фактах, которое фиксируется на некотором языке. Это семантический аспект информации. Полученное знание и созданные на его основе информационные модели человек использует в своей практике для достижения поставленных целей.
В реальной жизни часто возникает ситуация, когда даже наличие полной информации не позволяет решить поставленную задачу. Прагматический аспект информации проявляется в возможности её практического использования.
Таким образом, не любое сообщение несет информацию. Для того чтобы сообщение несло некоторую информацию, и было полезно получателю, оно должно быть:
· записано на некотором языке;
· этот язык должен быть понятен получателю;
· получатель должен обладать методом извлечения информации из сообщения;
· сообщение должно снижать степень неопределенности относительно объекта, который интересует получателя;
· сообщение должно помогать ему решить поставленную задачу;
· получатель должен обладать реальной практической возможностью использовать полученную информацию.
2. Виды и свойства информации
2.1 Виды информации
Все виды деятельности человека по преобразованию природы и общества сопровождались получением новой информации. Логическая, адекватно отображающая объективные закономерности природы, общества и мышления получила название научной информации. Ее делят по областям получения или пользования на следующие виды: политическую, техническую, биологическую, химическую, физическую и т.д.; по назначению - на массовую и специальную. Часть информации. которая занесена на бумажный носитель, получила название документальной информации. Любое производство при функционировании требует перемещения документов, т.е. возникает документооборот. Для автоматизированных систем управления информация в документах составляет внешнее информационное обеспечение. В то же время большая часть информации хранится в памяти ЭВМ на магнитных лентах, дисках и т.д. Она определяется как внутримашинное информационное обеспечение.
Наряду с научной информацией в сфере техники при решении производственных задач используется техническая информация. Она сопровождает разработку новых изделий, материалов, конструкций агрегатов, технологических процессов [3,52]. Научную и техническую информацию объединяют термином научно-техническая информация: в сфере материального производства может циркулировать технологическая информация, закрепленная в конструкторско-технологической документации. В плановых расчетах существует планово-экономическая информация, которая содержит интегральные сведения о ходе производства, значения различных экономических показателей.
Информация с точки зрения ее возникновения и совершенствования проходит следующий путь: человек наблюдает некоторый факт окружающей действительности, это факт отражается в виде совокупности данных, при последующем структурировании в соответствии с конкретной предметной областью данные превращаются в знания. Таким образом, верхним уровнем информации как результата отражения окружающей действительности (результата мышления) являются знания. Знания возникают как итог теоретической и практической деятельности. Информация в виде знаний отличается высокой структуризацией. Это позволяет выделить полезную информацию при анализе окружающих нас физических, химических и прочих процессов и явлений. На основе структуризации информации формируется информационная модель объекта. По мере развития общества информация как совокупность научно-технических данных и знаний превращается в базу системы информационного обслуживания научно-технической деятельности общества.
В настоящее время информация используется всеми отраслями народного хозяйства и наряду с энергией, полезными ископаемыми является ресурсом общества. С развитием общества возникает необходимость целесообразной организации информационного ресурса, т.е. конкретизации имеющихся фактов, данных и знаний по направлениям науки и техники. Признание информации как ресурса и появление понятия информационный ресурс дало толчок развитию нового научного направления - информатики. Информатика как область науки и техники связана со сбором и переработкой больших объемов информации на основе современных программно-аппаратных средств вычислительной техники и техники связи. Информатика изучает свойства информационных ресурсов, разрабатывает эффективные методы и средства их организаций, преобразования и применения. На основе достижений информатики формируются новые методы и алгоритмы преобразования информации, при которых не квалифицированный в вычислительной технике пользователь, на языке, близком к, естественному, может общаться с вычислительной средой для решения требуемых практических задач. На пользовательском уровне информатика дает основу для создания современных информационных систем, таких как автоматизированные системы управления, автоматизированные системы научных исследований, информационно-справочные системы, интеллектуальные системы, системы управления реального времени и др. Учитывая, что техническими средствами информатики являются вычислительные средства, ее современное состояние и направления дальнейшего развития в значительной степени определяются перспективами создания, развития и внедрения персональных ЭВМ, сетей связи, языков общения пользователя с вычислительной техникой. Информатика как область науки и техники требует своего дальнейшего развития. В качестве основных направлений исследований в области информатики можно определить следующее: разработка новой информационной технологии проектирования систем; развитие интеллектуальных методов доступа пользователя к вычислительной среде; создание моделей анализа и синтеза информационных процессов: совершенствование программных и аппаратных средств вычислительной техники и техники связи: переход к интеллектуальным АСОИУ (автоматизированная система обработки информации управления) на основе гибридных экспертных систем.
2.2 Непрерывная и дискретная формы информации
Сведения о состоянии объекта в ИС формируются в виде сообщений. Под сообщением понимается все то, что подлежит передаче. Независимо от содержания сообщение обычно представляется в виде электрического, звукового, светового, механического или других сигналов. Таким образом, сообщение отображает некоторые исходные сигналы любого вида и по свойствам зависит от исходных сигналов.
В ИС все исходные сигналы, поступающие от объекта, можно разделить на две большие группы: сигналы оптические, которые отображают устойчивые состояния некоторых объектов и могут быть представлены, например, в виде определенного положения элемента, системы, текста в документе, определенного состояния электронного устройства и т.д., и сигналы динамические, для которых характерно быстрое изменение во времени, отображающее, например, изменения электрических параметров системы.
Динамические и статические сигналы имеют свои области использования. Статические сигналы существенное место занимают при подготовке, регистрации и хранении информации. Динамические используются в основном для передачи информации. Однако заметим. что это не всегда является обязательным.
По характеру изменения сигналов во времени различают сигналы непрерывные и дискретные. Непрерывный сигнал отображается некоторой непрерывной функцией и физически представляет собой непрерывно изменяющиеся значения колебаний [1,18]. Дискретный сигнал характеризуется конечным множеством значений и в зависимости от исходного состояния принимает значения, связанные с определенным состоянием системы. Исходя из физической сущности процесса, свойственного объекту управления, можно выделить некоторые разновидности непрерывных и дискретных функций, отображающих реальные сигналы:
1) непрерывную функцию непрерывного аргумента. Функция имеет вид f (t), непрерывна на всем отрезке и может описать реальный сигнал в любой момент времени. При этом не накладывается никаких ограничений на выбор момента времени и значения самой функции;
2) непрерывную функцию дискретного аргумента. Обычно такие сигналы возникают при квантовании непрерывных величин по времени. В этом случае задаются некоторые фиксированные моменты времени tJ, отсчитываемые через интервал Dt. который обычно определяется спектральными свойствами исходного физического процесса. Функция f (tJ) может принимать любые мгновенные значения, но она определяется лишь для дискретных значении времени. Этот вид сигналов и связанных с ним функций имеет место при формировании исходных сообщений из непрерывных величин;
3) дискретную функцию непрерывного аргумента fJ (t). В этом случае функция имеет ряд конечных дискретных значений, однако определена на всем отрезке времени t для любого мгновенного значения времени. Дискретизация самой функции связана с созданием шкалы квантования по уровню, что свойственно различным датчикам, при этом шаг квантования определяется требуемой точностью воспроизведения исходной величины;
4) дискретную функцию дискретного аргумента fJ (tJ). В этом случае функция принимает одно из возможных дискретных значений, общее число которых является конечным, и определяется для окончательного набора дискретных значений времени. Имеем дискретизацию как по уровням, так и по моментам времени.
В целях систематизации сообщений и обеспечения возможности передачи сообщений по каналам связи используются процедуры кодирования, с помощью кодирования сообщение представляется в форме, которая позволяет осуществить передачу его по каналам связи. Дискретное сообщение можно изобразить в виде некоторой последовательности цифр или букв, при этом каждая цифра или буква представляет собой одно сообщение. С помощью кода каждая цифра или буква отображается некоторым набором импульсов, которые составляют кодовую комбинацию. Основное требование, предъявляемое к кодовым комбинациям, состоит в возможности различения их на приемной стороне при определенных воздействиях помех в каналах связи. Общее число кодовых комбинаций равно числу возможных сообщений М.
При построении кода учитывается ряд особенностей, связанных с возможностями передачи информации по каналу связи, кроме того. вопрос реализации технических средств преобразования сообщений в код, т.е. построение кодирующих устройств и соответствующих им средств обратного преобразования - декодирующих устройств. Весьма важными являются вопросы обеспечения требуемой верности и скорости передачи информации. В настоящее время в раз
личных системах передачи информации и в том числе в информационных сетях получило распространение большое число кодов. Рассмотрим их обобщенную классификацию.
1. По основанию системы счисления коды делятся на двоичные, троичные, четверичные и т.д. В каждой системе счисления используется определенная совокупность символов, причем число возможных символов для К-ой системы равно К. Двоичные коды строятся с помощью символов 0,1; троичные - 0,1,2, при этом нуль означает отсутствие передачи информации по каналу, т.е. отсутствие импульса, единица означает символ с одним значением сигнального признака, двойка - с другим. Под сигнальным признаком понимается некоторое значение тока или напряжения, позволяющее отличить один символ от другого.
2. По построению коды делятся на систематические и несистематические. Особенность построения систематических кодов как разделимых заключается в том, что в них четко разделены часть кода, несущая основную информацию, и часть кода, служащая для обнаружения и исправления ошибок, которая представляет собой контрольную информацию. Систематические коды могут быть построены по детерминированным алгоритмам, в соответствии с чем можно осуществить достаточно простые способы выявления этих кодов с обнаружением или исправлением ошибок.
Несистематические коды строятся с использованием различных методов комбинирования. Это коды на одно сочетание, размещение перестановки и т.д., и при их выявлении осуществляется анализ путем сопоставления принятой комбинации с известным набором кодов на приемной стороне.
3. По наличию избыточности коды делятся на избыточные и неизбыточные. Для неизбыточных кодов характерно то, что при каждом отображении сообщения кодовой комбинацией для числа М возможных кодовых комбинаций, основным свойством является возможность их различения. Тогда код при основании системы счисления К может быть построен как отображение множества десятичных чисел от нуля до М-1 с числом разрядов n в каждой кодовой комбинации. Например, для М=4 двоичный избыточный код может быть получен при представлении чисел 0,1,2,3 двухэлементным двоичным кодом: 00,01,10,11 соответственно.
Если необходимо представить, например, четыре сообщения троичным неизбыточным кодом, то исходные десятичные числа 0,1,2,3 запишем в виде 00,01,02,10. В общем случае m-элементным неизбыточным кодом в К-ой системе счисления можно представить М=Кm сообщений. Например, при двухэлементном неизбыточном троичном коде можно иметь 32=9 сообщений.
Переход от неизбыточного кода к избыточному при использовании систематических кодов осуществляется путем добавления некоторых контрольных позиций, которые можно получить либо путем различных логических операций, выполняемых над основными информационными позициями, либо путем использования детерминированных алгоритмов, связывающих избыточный и неизбыточный коды. Например, если нужно перейти от неизбыточного кода к простейшему избыточному, то для случая двоичного кода, рассчитанного на четыре сообщения, отображением которых являются кодовые комбинации 00,01,10,11, достаточно ввести одну контрольную позицию, значение символа на которой будет определяться как сумма значений предшествующих символов по модулю два. Эта логическая операция в двоичной системе определяется равенствами 0 0=0, 1 1=0, 0 1=1, 1 0=1. Для рассматриваемых сообщений получаем 000, 011, 101, 110. Особенность такого кода заключается в том, что он позволяет обнаружить любую одиночную ошибку. Таким образом, отличие неизбыточных кодов от избыточных состоит в том, что из-за отсутствия избыточности они не способны обнаруживать ошибки и поэтому не могут быть использованы для передачи информации по каналам с шумом. С целью обеспечения достоверной передачи информации по каналу связи при заданных вероятностно-временных ограничениях необходимо вводить избыточность в код, что можно осуществить путем использования дополнительных контрольных позиций.
4. По корректирующим свойствам коды делятся на обнаруживающие и исправляющие, или корректирующие. Обнаруживающие коды при введении в них избыточности позволяют находить ошибки, с помощью корректирующих кодов возможно исправление ошибок, при этом доля вводимой избыточности по сравнению с предыдущим существенно возрастает. Следует отметить, что в настоящее время в ИС при передаче информации более широко применяются обнаруживающие коды в сочетании с дополнительными алгоритмами повышения помехоустойчивости за счет использования обратного канала связи.
5. По расположению элементов кода во времени различают последовательные, параллельные и последовательно-параллельные коды. В ИС чаще применяются коды с последовательной передачей элементов во времени в связи с особенностями использования средств модуляции и демодуляции в каналах связи. Трудность реализации параллельных кодов заключается в том, что должны быть использованы либо такие сигнальные признаки (например, частотный), которые допускают одновременную передачу нескольких своих значений, либо совокупность сигнальных признаков при одновременной передаче по одному значению каждого сигнального признака.
В качестве примера рассмотрим возможность параллельной передачи нескольких сообщений при использовании амплитудного, полярного и сигнального признаков по длительности. Тогда, если требуется передать три сообщения, одно из которых передается импульсом большой амплитуды, другое импульсом отрицательной полярности, а третье импульсом большой длительности, то передача этих сообщений будет означать появление импульса большой амплитуды, отрицательной полярности и большой длительности. Очевидно, нетрудно рассмотреть возможность передачи любой совокупности двух сообщений одновременно.
Следует отметить, что параллельные коды могут быть эффективно использованы при передаче относительно небольших объемов информации.
2.3 Геометрические и комбинаторные меры информации
Под оценкой количества информации прежде всего возникает вопрос о виде исходной информации, а поэтому измерение информации в значительной степени зависит от подхода к самому понятию информации, т.е. от подхода к ее содержанию. В настоящее время существуют три основные теории, в которых к понятию содержательного характера информации подходят с разных позиций. Статистическая теория оценивает информацию с точки зрения меры неопределенности. снимаемой при получении информации. Как правило, она не затрагивает смысла передаваемой информации, т.е. ее семантического содержания. В статистической теории основное внимание обращается на распределение вероятностей отдельных квантов информации и построение на его основе некоторых обобщенных характеристик, позволяющих оценить количество информации в каком-то кванте.
Совершенно иной подход наблюдается в семантической теории, которая учитывает в основном ценность информации, полезность ее и тем самым помогает связать ценность информации со старением, ценность информации и количество ее - с эффективностью управления в системе. Наконец, структурная теория рассматривает принцип построения отдельных информационных массивов, при этом за единицу информации принимаются некоторые элементарные структурные единицы кванты, и количество информации оценивается простейшим подсчетом квантов в информационном массиве.
Выбор единицы информации в настоящее время является весьма актуальной задачей. При передаче непрерывных сообщений зачастую используется их дискретизация во времени, поэтому применяется геометрическая мера. позволяющая определить количество информации в отдельных отсчетах, снимаемых за некоторый интервал времени, т.е. количество передаваемых сообщений в этом случае определяется числом отсчетов. При передаче дискретной информации простейшей мерой информации может служить число кодовых комбинаций, отображающих передаваемые сообщения. Число комбинаций получается на основе комбинаторного метода и определяется структурой построения кода. его избыточностью, т.е. способом построения. Недостатком данной меры является нелинейная зависимость между числом кодовых комбинаций и числом элементов в коде. Например, для неизбыточного кода число кодовых комбинаций М=Кn. Обычно по каналу связи предается последовательность n символов, поэтому целесообразно иметь характеристику, линейно связанную с числом элементов в коде.
Будем считать, что число сведений f в сообщении линейно зависит от длины кода: f=kn. Формулу для числа сведений в сообщении выведем при следующих условиях:
1) осуществляется передача дискретных сообщений;
2) сообщений являются равновероятными и взаимно независимыми;
3) символы, выдаваемые источником, взаимно независимы: 4) система счисления конечна.
Тогда df=kn. Если M=Kn, то dM = Kn lnKdn, dn=dM/Kn lnK и df = kdM/M lnК f =k lnM/lnK =k1 loga M/lnK=k0 loga M, (2.1)
где k0=k1/lnK.
В теории информации за единицу количества информации принято число сведении, которое передается двумя равновероятными символами, или сообщениями. Эта единица называется двоичной единицей информации.
Учитывая сказанное, имеем при f =1 и M=2 1=k0 loga. Если k0=1, то а=2,f = I =log2M, где I - количество информации в некотором усредненном сообщении. Формула I=log2M называется формулой Хартли, она справедлива в соответствии с принятыми выше ограничениями 1) - 4).
Рассмотрим, как влияет на число сведений основание кода. Пусть M сообщений передается двумя кодами с основаниями K1 и K2, и числами элементов n1 и n2. Будем считать, что оба кода передают одинаковое число сведений, т.е. M=К1n1=K2n2, тогда k (K1) n1=k (K2) n2, n1logaK1=n2logaK2,k (K1) /logaK1= k (K2) /logaK2 Из полученного выражения видно, что коэффициент пропорциональности тем больше, чем больше основание используемого кода.
Свяжем количество информации с вероятностью появления отдельных сообщений. Если сообщения равновероятны и на выходе некоторого источника появляется M различных сообщений, то вероятность возникновения каждого сообщения р (x0 J) =1/М, I= - log2p (x0 J). Таким образом, получаем статистическую меру информации, связывающую вероятность появления каждого сообщения и количество информации. Поскольку за основание логарифма принята двоичная единица, то эта мера представляет собой двоичную единицу на сообщение и отражает количество информации, которое в среднем содержится в каждом равновероятном сообщении. Полученное выражение в общем случае определяет информацию, которая содержится в некотором событии x0 J из множества Х0 и является функцией ансамбля этого множества. Она всегда неотрицательна и увеличивается с уменьшением вероятности р (x0 J). Физически данная информация может быть рассмотрена либо как некоторая априорная неопределенность событияx0 J из множества X0, либо как информация, требуемая для разрешения этой неопределенности. Следует отметить, что данная формула является простейшей: в ней не учитываются некоторые закономерности, связанные с информацией, которая может иметься у наблюдателя до появления данного сообщения, а поэтому весьма существенное место занимает понятие взаимной информации.
Предположим, что на выходе некоторого источника появляется совокупность сообщений из множества X0, которую мы каким-то образом определяем с учетом воздействующих помех посредством ансамбля Y0. Появление некоторого события из ансамбля Y0 изменяет вероятность р (x0 J) от некоторой априорной вероятности р (x0 J) до апостериорной вероятности р (x0 J/y0 J). Для оценки количественной меры изменения этой вероятности может быть использован логарифм отношения апостериорной вероятности к априорной, тогда информация о некотором событии из множества X0, содержащаяся в некотором событии из множества Y0
I (x0 J,y0 J) =log2 [p (x0 J/y0 J) /p (x0 J)] (2.2)
С учетом всех событий, входящих в множества X0 Y0 можно получить окончательно взаимную информацию, как функцию некоторого ансамбля Х0 Y0
не зависящую от частных исходов, входящих в эти ансамбли. Суммируя по всем возможным событиям, составляющим ансамбли Х0 Y0, получаем
I (X0,Y0) =еJ еi p (x0 J,y0 i) *log2 [p (x0 J/y0 i) /p (x0 J)] (2.3)
Нетрудно видеть, что в частном случае, когда появление данного исхода y0J однозначно определяет, что исходом x0 J будет некоторый конкретный элемент множества X, получаем собственную информацию, содержащуюся в конкретном событии, т.е. в сообщении.
информация операция информатика дискретный
Рассмотренные формулы можно применять для оценки количества информации в реальных условиях передачи. Например, если передается множество двоичных последовательностей длиной т с вероятностью появления каждой последовательности 1/М, где М=2m то собственная информация, содержащаясяв каждом сообщении, или количество в одном усредненном сообщении I (Х0) =log2 p (x0 J) =m двоичных единиц, т.е., используя код без избыточности, получаем, что каждый элемент двоичного кода переносит одну двоичную единицу информации. При введении избыточности в код сохраняется число передаваемых сообщений М, однако длина кода возрастает доп. Количество передаваемой информации составит при равновероятности передаваемых сообщений, как и ранее, I=log2М, т.е. т двоичных единиц. Поскольку для передачи m двоичных единиц используется n элементов в коде, где n>m, то каждый элемент кода передает m/n двоичных единиц информации, т.е. в одном элементе избыточного кода передается менее одной двоичной единицы информации за счет избыточности, которая тратится либо на обнаружение, либо на обнаружение и исправление ошибок.
Таким образом, аддитивная мера информации позволяет оценить количество информации, передаваемой в одном элементе кода с учетом статистических свойств источника информации, и дает возможность в дальнейшем перейти к оценке скорости передачи информации и сравнению ее с пропускной способностью канала связи, что в целом позволяет дать общую характеристику эффективности использования канала связи, т.е. эффективности согласования источника информации с каналом связи.
2.4 Операции с данными
Над данными можно выполнять различные операции, состав которых определяется решаемой задачей. Перечисленные ниже операции с данными не зависят от того, кто их выполняет - техническое устройство, компьютер или человек.
1. Сбор данных - накопление данных с целью обеспечения достаточной их полноты для принятия решений.
2. Формализация данных - приведение данных, поступающих из разных источников, к одинаковой форме, что позволяет сделать их сопоставимыми между собой.
3. Фильтрация данных - отсеивание данных, в которых нет необходимости для принятия решений, при этом снижается уровень шума и повышается их достоверность и адекватность.
4. Сортировка данных - упорядочение данных по заданному признаку с целью удобства использования.
5. Защита данных - комплекс мер, направленных на предотвращение утраты, воспроизведения и модификации данных.
6. Архивация данных - организация хранения данных в удобной и легкодоступной форме, снижающей затраты на хранение и повышающей общую надежность информационного процесса.
7. Транспортировка данных - приём и передача данных между удаленными участниками информационного процесса.
8. Преобразование данных - перевод данных из одной формы в другую. Часто связано с изменением носителя. Например, книги можно хранить в бумажной форме, а можно в электронном виде.
Заключение
В прикладной информатике практически всегда количество информации понимается в объемном смысле. Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах "уменьшение неопределенности" (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается как с точки зрения формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.
Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация - это фундаментальная философская категория.
Список использованной литературы
1. Боровиков В.П. [По тексту] Прогнозирование в системе STATISTICA в среде Windows. Основы теории и интенсивная практика на компьютере: Учеб. пособие. - М.: Финансы и статистика, 2009. - 384стр.: ил….
2. Буч Г. Объектно-ориентированное программирование с примерами применения. - Киев: Диалектика, М.: И.В.К., 1992.
3. Горбань А.Н. Методы нейроинформатики. КГТУ, Красноярск, 2008.205 стр.
4. Гончарук В.А. Развитие предприятия. М.: Дело, 2000.208 с.
5. Городецкий В.И. Прикладная алгебра и дискретная математика. Часть 3. Формальные системы логического типа. - МО СССР, 1987. - 177 стр. с ил…
Приложения
Приложение 1
Составить формулу
Приложение 2
Составление таблицы
Ведомость расчета с сельхозпредприятием
Название предприятия |
Срок оплаты |
Дата оплаты |
Сумма |
Недоплата или переплата |
||
Подлежащая оплате |
Фактически оплаченная |
|||||
Приложение 3
Размещено на Allbest.ru
...Подобные документы
Понятие и назначение носителя информации, его разновидности и характерные особенности, возможности применения. Аппаратура систем обработки информации в технике и управлении. Виды информации в зависимости от формы ее представления, ее свойства и значение.
контрольная работа [263,6 K], добавлен 08.03.2010Основные свойства информации. Минимальная единица измерения количества информации, ее аналогия со знаниями с точки зрения процесса познания. Характеристика основных информационных процессов: поиск, сбор, обработка, передача и хранение информации.
контрольная работа [28,8 K], добавлен 01.10.2011Основные свойства информации. Операции с данными. Данные – диалектическая составная часть информации. Виды умышленных угроз безопасности информации. Классификация вредоносных программ. Основные методы и средства защиты информации в компьютерных сетях.
курсовая работа [41,4 K], добавлен 17.02.2010Понятие информации как одно из фундаментальных в современной науке и базовое для информатики. Дискретизация входной информации как условие пригодности для компьютерной обработки. Понятия, виды, свойства информации, ее классификация. Информация и рынок.
курсовая работа [31,0 K], добавлен 12.10.2009Формы и системы представления информации для ее машинной обработки. Аналоговая и дискретная информация, представление числовой, графической и символьной информации в компьютерных системах. Понятие и особенности файловых систем, их классификация и задачи.
реферат [170,3 K], добавлен 14.11.2013Виды информации, с которыми работают современные компьютеры. Понятие "информация": в физике, в биологии, в кибернетике. Представление информации. Кодирование и каналы передачи информации. Локальные компьютерные сети. Хранение информации в файлах.
контрольная работа [26,4 K], добавлен 13.01.2008Непрерывная и дискретная информация. Кодирование как процесс представления информации в виде кода. Особенности процедуры дискретизации непрерывного сообщения. Позиционные и непозиционные системы счисления. Представление информации в двоичном коде.
реферат [117,3 K], добавлен 11.06.2010Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.
реферат [63,4 K], добавлен 27.03.2010Понятие об информации. Информатика, краткая история информатики. Информация аналоговая и цифровая. Аналого-цифровое преобразование, устройства аналоговые и цифровые. Понятие о кодировании информации. Хранение цифровой информации. Бит.
реферат [68,9 K], добавлен 23.11.2003Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации.
реферат [99,7 K], добавлен 19.08.2015Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.
презентация [200,9 K], добавлен 06.11.2011Основные источники угроз безопасности информационных систем. Особенности криптографической защиты информации. Понятие электронной цифровой подписи. Признаки заражения компьютера вирусом. Уровни доступа к информации с точки зрения законодательства.
реферат [795,8 K], добавлен 03.10.2014Основы защиты компьютерной информации: основные понятия и определения. Классификация угроз безопасности информации. Формы и источники атак на объекты информационных систем. Анализ угроз и каналов утечки информации. Анализ рисков и управление ими.
курс лекций [60,3 K], добавлен 31.10.2009Понятие и сущность информации. Исторические этапы развития информационной безопасности, ее принципы и необходимость, цели обеспечения. Виды угроз и способы защиты. Последствия утечек информации. Классификация различных средств защиты информации.
реферат [32,8 K], добавлен 21.09.2014Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.
презентация [173,0 K], добавлен 19.10.2014Виды внутренних и внешних умышленных угроз безопасности информации. Общее понятие защиты и безопасности информации. Основные цели и задачи информационной защиты. Понятие экономической целесообразности обеспечения сохранности информации предприятия.
контрольная работа [26,6 K], добавлен 26.05.2010Формы представлений информации: непрерывная и дискретная. Стандартный стиль работы с Windows. Текстовые процессоры Microsoft Word, Microsoft Excel. Программа для создания презентаций Power Point, СУБД Access. Диалоговое окно "Пользовательская настройка".
контрольная работа [70,0 K], добавлен 24.07.2009Краткая история появления и развития информатики как науки. Понятие и основные свойства информации, формы ее адекватности. Структурная организация персональных компьютеров. Основные понятия электронных таблиц Microsoft Excel. Операционная система Windows.
лекция [820,6 K], добавлен 22.09.2013Основные виды информации, их свойства и отличительные признаки. Виды источников информации: документальные, библиографические, реферативные, обзорные. Классификации источника информации "Интернет". Основные принципы информатизации научных исследований.
контрольная работа [24,5 K], добавлен 17.11.2010Место темы "Кодирование информации" в школьном курсе информатики. Рекомендации по изучению "Кодирования информации" в школьном курсе информатики. Дидактический материал для изучения темы "Кодирование информации" и внеклассное мероприятие по информатике.
курсовая работа [2,3 M], добавлен 17.06.2012