Измерение информации

Понятие и свойства информации. Общая характеристика процессов ее сбора, передачи, обработки, накопления. Анализ алфавитного (объёмного), содержательного и вероятностного подхода к ее измерению. Описание принятых единиц ее измерения в информатике.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 26.11.2023
Размер файла 44,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Реферат

на тему: Измерение информации

  • Содержание
    • 1. Понятие информации

2. Общая характеристика процессов сбора, передачи, обработки, накопления информации

  • 3. Свойства информации

4. Алфавитный (объёмный) подход к измерению информации

5. Содержательный подход к измерению информации

  • 6. Вероятностный подход к измерению информации
    • 7. Другие подходы к измерению информации
    • 8. Единицы измерения информации
    • Заключение
    • Источники

1. Понятие информации

Термин «информация» происходит от латинского information, что означает разъяснение, осведомление, изложение.

С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация, предназначенная для передачи, называется сообщением. Сообщение может быть представлено в виде знаков и символов, преобразовано и закодировано с помощью электрических сигналов.

Информация, представленная в виде, пригодном для обработки (человеком, компьютером), называется данными. Данные могут быть, например, числовыми, текстовыми, графическими.

Чтобы происходил обмен информацией, должны быть источник информации, передатчик, канал связи, приемник и получатель. Обычно в качестве получателя выступает человек, который оценивает информацию с точки зрения ее применимости для решения поставленной задачи. Процедура оценки информации проходит в три этапа, определяющие ее синтаксический, семантический и прагматический аспекты.

Определенный набор данных вне зависимости от смысловых и потребительских качеств характеризует синтаксический аспект информации. Сопоставление данных с тезаурусом (тезаурус - полный систематизированный набор данных и знаний в какой-либо области) формирует знание о наблюдаемом факте, это является семантическим аспектом информации (отражает смысловое содержание информации). Оценка практической полезности информации отражает ее прагматический аспект.

2. Общая характеристика процессов сбора, передачи, обработки и накопления информации

Сбор информации - это процесс получения информации из внешнего мира и приведение ее к стандарту для данной информационной системы. Обмен информацией между воспринимающей ее системой и окружающей средой осуществляется посредством сигналов. Сигнал - средство передачи информации в пространстве и времени. В качестве носителя сигнала могут выступать звук, свет, электрический ток, магнитное поле и т.д.

Сбор информации, как правило, сопровождается ее регистрацией, т.е. фиксацией информации на материальном носителе (документе или машинном носителе).

Передача информации осуществляется различными способами: с помощью курьера, пересылка по почте, доставка транспортными средствами, дистанционная передача по каналам связи. Для осуществления последней необходимы специальные технические средства. Дистанционно может передаваться как первичная информация с мест ее возникновения, так и результатная информация в обратном направлении. Поступление информации по каналам связи осуществляется двумя способами: на машинном носителе и непосредственно в компьютер при помощи специальных программных и аппаратных средств.

Преобразование (обработка) информации - внесение изменений в набор данных, вычисления, информационный поиск, сортировка, построение графиков и т.п. В современных развитых информационных системах машинная обработка информации предполагает последовательно-параллельное во времени решение вычислительных задач. Это возможно при наличии определенной организации вычислительного процесса. Вычислительная задача по мере необходимости обращается с запросами в вычислительную систему. Организация процесса предполагает определение последовательности решения задач и реализацию вычислений. Последовательность решения задается, исходя из информационной взаимосвязи, когда результаты решения одной задачи используются как исходные данные для решения другой. Технология электронной обработки информации - человеко-машинный процесс исполнения взаимосвязанных операций, протекающих в установленной последовательности с целью преобразования исходной информации (первичной) в результатную. Операция представляет собой комплекс совершаемых технологических действий, в результате которых информация преобразуется. Технологические операции разнообразны по сложности, назначению, технике реализации, выполняются на различном оборудовании разными исполнителями.

Хранение и накопление информации вызвано многократным ее использованием, применением постоянной информации, необходимостью комплектации первичных данных до их обработки. Хранение осуществляется на машинных носителях в виде информационных массивов, где данные располагаются по установленному в процессе проектирования группировочному признаку.

3. Свойства информации

Информация характеризуется определенными свойствами, зависящими как от данных (содержательной части информации), так и от методов работы с ними. Свойства информации делятся на две группы: атрибутивные и потребительские.

Атрибутивные свойства -- это свойства, которые отображают внутреннюю природу информации и особенности ее использования. Наиболее важными из этих свойств являются следующие:

· информация представляет новые сведения об окружающем мире, отсутствовавшие до ее получения;

· информация не материальна несмотря на то, что она проявляется в форме знаков и сигналов на материальных носителях;

· знаки и сигналы могут предоставить информацию только для получателя, способного их воспринять и распознать;

· информация неотрывна от физического носителя, но в то же время не связана ни с конкретным носителем, ни с конкретным языком;

· информация дискретна - она состоит из отдельных фактических данных, передающихся в виде сообщений;

· информация непрерывна - она накапливается и развивается поступательно.

Качество информации определяется ее свойствами, отвечающими потребностям пользователя.

Рассмотрим наиболее важные потребительские свойства информации:

· полнота (достаточность);

· достоверность;

· адекватность;

· доступность;

· актуальность.

Полнота (достаточность) информации. Под полнотой информации понимают ее достаточность для принятия решений.

Достоверность информации. Под достоверностью информации понимают ее соответствие объективной реальности окружающего мира. Свойство достоверности информации имеет важное значение в тех случаях, когда ее используют для принятия решений.

Адекватность информации - это степень соответствия информации, полученной потребителем, тому, что автор вложил в ее содержание.

Доступность информации - это мера возможности получить ту или иную информацию.

Актуальность информации - это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям.

4. Алфавитный (объёмный) подход к измерению информации

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. С позиций информатики носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Информативность последовательности символов зависит не от содержания сообщения, а определяется минимально необходимым количеством символов для кодирования этой последовательности символов. Алфавитный подход является объективным, т. е. он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения либо учитывается на этапе выбора алфавита кодирования, либо не учитывается вообще.

При алфавитном подходе, если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации, которое несет каждый символ (информационный вес одного символа), вычисляется по формуле Хартли. (Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада -- 1 мая 1970, Нью-Джерси) -- американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации, которая называется хартлиевским количеством информации или просто мерой Хартли.)

I = log2N,

где N - мощность алфавита (полное количество символов, составляющих алфавит выбранного кодирования). Тогда мощность алфавита можно вычислить по формуле

N = 2I

В алфавите, который состоит из двух символов (двоичное кодирование), каждый символ несет 1 бит (log22 = 1) информации.

Если весь текст состоит из k символов, то при алфавитном подходе размер содержащейся в нем информации H определяется по формуле

H = k · I,

где I - информационный вес одного символа в используемом алфавите.

Максимальное количество слов L из m букв, которое можно составить из алфавита мощностью N, определяется по формуле

L = Nm

5. Содержательный подход к измерению информации

В содержательном подходе возможна качественная оценка информации: новая, срочная, важная и т. д. Согласно К. Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией - той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации.

Неопределенность некоторого события - это количество возможных исходов данного события.

Например, неопределенность погоды на завтра обычно заключается в диапазоне температуры воздуха и возможности выпадения осадков.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному. Но если число исходов не зависит от суждений людей (например, случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Формулу для вычисления количества информации, учитывающую неодинаковую вероятность событий, предложил К. Шеннон в 1948 г. Количественная зависимость между вероятностью события р и количеством информации I в сообщении о нем выражается формулой Шеннона

I = -log2р.

Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить следующим образом: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Количество информации для событий с различными вероятностями определяется по формуле (эту формулу также называют формулой Шеннона),

Если события равновероятны (pi = 1/N, где N - число возможных событий), то величина количества информации I вычисляется по формуле Р. Хартли:

I = log2N.

Используя формулу (1), можно записать и формулу, которая связывает количество возможных событий N и количество информации I

N = 2I

6. Вероятностный подход к измерению информации

В реальной жизни существует множество ситуаций с различными вероятностями. Например, если у монеты одна сторона тяжелей другой, то при ее бросании вероятность выпадения «орла» и «решки» будет различной.

Введем следующие понятия:

испытание - любой эксперимент;

единичное испытание - испытание, в котором совершается одно действие с одним предметом (например, подбрасывается монетка, или из корзины извлекается шар);

исходы испытаний - результаты испытания (например, при подбрасывании монеты выпал «орел», или из корзины извлекли белый шар);

множество исходов испытания - множество всех возможных исходов испытания;

случайное событие - событие, которое может произойти или не произойти (например, выигрыш билета в лотерее, извлечение карты определенной масти из колоды карт).

Вероятностью случайного события (p) называется отношение числа благоприятствующих событию исходов (m) к общему числу исходов (n):

p=m/n.

7. Другие подходы к измерению информации

Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Исследования в этой области теснее всего связаны с семиотикой - теорией знаковых систем. Одним из важнейших свойств информации, которое мы можем наблюдать, является ее неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками Семиотика исследует знаки как особый вид носителей информации. При этом знаком является условное изображение элемента сообщения, словом - совокупность знаков, имеющих смысловое значение, языком - словарь и правила пользования им. Таким образом, рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа знаковых структур.

В качестве знаковых систем используются естественные и искусственные языки, в том числе информационные и языки программирования, различные системы сигнализации, логические, математические и химические символы. Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации). Примером могут быть живые организмы, машины с определенными свойствами.

Рассматривая знаковые системы, выделяют три основных аспекта их изучения: синтактику, семантику и прагматику.

Синтактика изучает синтаксис знаковых структур, т.е. способы сочетаний знаков, правила образования этих сочетаний и их преобразований безотносительно к их значениям. Отметим, в связи с этим, что рассматриваемые ранее способы определения количества информации можно отнести к синтаксическим способам.

Семантика изучает знаковые системы как средства выражения смысла, определенного содержания, т.е. правила интерпретации знаков и их сочетаний, смысловую сторону языка.

Прагматика рассматривает соотношение между знаковыми системами и их пользователями, или приемниками-интерпретаторами сообщений. Иными словами, к прагматике относится изучение практической полезности знаков, слов и, следовательно, сообщений, т.е. потребительской стороны языка.

Основная идея семантической концепции информации заключается в возможности измерения содержания (предметного значения) суждений. Но содержание всегда связано с формой, поэтому синтаксические и семантические свойства информации взаимосвязаны, хотя и различны. Получается, что содержание все-таки можно измерить через форму, т.е. семантические свойства информации выразить через синтаксические. Поэтому и исследования семантики базировались на понятии информации как уменьшении или устранении неопределенности.

8. Единицы измерения информации

За единицу количества информации принимается такое ее количество, которое содержит сообщение, уменьшающее неопределенность в два раза.

Единица измерения информации называется бит (bit) - сокращение от английских слов binarydigit, что означает «двоичная цифра». В информатике часто используется величина, называемая байтом (byte) и равная 8 битам.

Байт (англ. byte) -- единица хранения и обработки цифровой информации. В настольных вычислительных системах байт считается равным восьми битам, в этом случае он может принимать одно из 256 (28) различных значений. Следует понимать, что количество бит в байте не является однозначной величиной и может варьироваться в широком диапазоне. Так, в первых компьютерах размер байта был равен 6 битам. В суперкомпьютерах, вследствие используемой адресации, один байт содержит 32 бита. Для того, чтобы подчеркнуть, что имеется в виду восьмибитный байт, а также во избежание широко распространенного заблуждения, что в одном байте исключительно восемь бит, в описании сетевых протоколов используется термин «октет» (лат. octet).

Название «байт» (слово byte представляет собой сокращение словосочетания BinarY TErm -- «двоичный терм») было впервые использовано в 1956 году В. Бухгольцем (англ. Werner Buchholz) при проектировании первого суперкомпьютера IBM 7030 (англ.) для пучка одновременно передаваемых в устройствах ввода-вывода шести битов. Позже, в рамках того же проекта, байт был расширен до восьми бит.

Октет. Октет в информатике -- 8 бит. В русском языке октет обычно называют байтом. Слово «октет» часто употребляется при описании сетевых протоколов, так как они предназначены для взаимодействия компьютеров, имеющих не обязательно одинаковую платформу. В отличие от байта, который (в широком смысле) может быть равен 10, 12 и т. п. битам, октет всегда равен 8 битам.

Килобайт (кБ, Кбайт, КБ) - единица измерения количества информации, равная в зависимости 1024 стандартным (8-битным) байтам. Применяется для указания объёма памяти в различных электронных устройствах.

1 килобайт (КБ) = 8 килобит (Кб)

Мегабайт (Мбайт, М, МБ) - единица измерения количества информации, равная, в зависимости от контекста, 1 000 000 или 1 048 576 стандартным (8-битным) байтам. Сокращенное название МБ отличается от Мегабита (Мб) строчной буквой (но на самом деле иногда происходит некоторая путаница в сокращениях). Применяется для указания объёма памяти в различных электронных устройствах.

Итак:

1 Кбайт (один килобайт) = 210 байт = 1024 байта;

1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайта = 240 байта,

1 Петабайт (Пб) = 1024 Тбайта = 250 байта.

Заключение

В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. В информатике широко используется такое определение: информация - сведения, передаваемые источником получателю (приёмнику). Без информации не может существовать жизнь в любой форме и не могут функционировать созданные человеком любые информационные системы.

Свойства информации можно рассматривать в трех аспектах: техническом -- это точность, надежность, скорость передачи сигналов и т.д.; семантическом -- это передача смысла текста с помощью кодов и прагматическом -- это насколько эффективно информация влияет на поведение объекта.

Единицы измерения информации служат для измерения объёма информации - величины, исчисляемой логарифмически. Соответствующая ему единица - бит - является основой исчисления информации в цифровой технике.

Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний.

информация измерение алфавитный вероятностный

Источники

1. Акулов О.А. Информатика: базовый курс: учеб. пособие для студентов вузов / О.А. Акулов, Н.В. Медведев. - М.: Омега-Л, 2005. - 552 с.

2. Могилев А.В. Информатика: учеб. пособие для студ. высш. учеб. заведений / А.В. Могилев, Н.И. Пак, Е.К. Хеннер. - М.: Академия, 2008. - 848 с.

3. Степанов А.Н. Информатика: учеб. для вузов / А.Н. Степанов. - СПб.: Питер, 2008. - 684 с.

4. Симонович С.В. Информатика. Базовый курс: Учебник для вузов. Стандарт третьего поколения. - СПб.: Питер, 2015. - 640 с.

5. Острейковский В.А. Информатика: Учеб. для вузов. - М.: Высшая школа, 2001. - 511 с.

6. Информатика и икт в профессиональной деятельности

Размещено на Allbest.ru

...

Подобные документы

  • Сущностные характеристики информации. Классификация информации по форме представления, области возникновения, способу передачи и восприятия и способам кодирования. Анализ основных единиц измерения информации, служащих для измерения объёма информации.

    реферат [77,6 K], добавлен 04.10.2011

  • Характеристика организации автоматизированной обработки. Схема данных и ее описание. Характеристика входной и выходной информации. Организация технологического процесса сбора, передачи, обработки и выдачи информации. Формализация автоматизируемых задач.

    курсовая работа [941,7 K], добавлен 22.11.2013

  • Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.

    презентация [173,0 K], добавлен 19.10.2014

  • Технология сбора информации традиционными методами. Правила сбора оффлайновой информации. Технические средства сбора информации. Операции для быстрого восстановления данных в системах хранения. Технологический процесс и процедуры обработки информации.

    курсовая работа [304,5 K], добавлен 02.04.2013

  • История развития информатики как науки о методах и процессах сбора, хранения, обработки, передачи, анализа информации. Создание компьютерного класса по информатике на основе процессора AMD и видеоадаптера фирмы ATI. Подбор аппаратного обеспечения.

    курсовая работа [34,3 K], добавлен 22.12.2015

  • Информация и ее свойства. Единицы измерения данных. Вероятностный и объемный подход к измерению количества информации, способы ее передачи. Рассмотрение поставщиков финансовой информации в Интернете; технологии финансовых инвестиций в компьютерной сети.

    контрольная работа [61,5 K], добавлен 08.06.2013

  • Основные свойства информации. Минимальная единица измерения количества информации, ее аналогия со знаниями с точки зрения процесса познания. Характеристика основных информационных процессов: поиск, сбор, обработка, передача и хранение информации.

    контрольная работа [28,8 K], добавлен 01.10.2011

  • Центральное понятие кибернетики – информация. Комплексная автоматизация процессов восприятия, преобразования, передачи, обработки и отображения информации и создание автоматизированных систем управления на различных уровнях. Система передачи информации.

    книга [663,7 K], добавлен 07.05.2009

  • Понятие и отличительные черты аналоговой и цифровой информации. Изучение единиц измерения цифровой информации: бит (двоичная цифра) и байт. Особенности передачи, методы кодирования и декодирования текстовой, звуковой и графической цифровой информации.

    реферат [479,4 K], добавлен 22.03.2010

  • Информатика - техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. Формы представления информации, ее свойства. Кодирование информации, единицы ее измерения.

    презентация [117,7 K], добавлен 28.03.2013

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Описание разработанных программных модулей системы автоматизированного документооборота. Характеристика базы данных, нормативно-справочной, входной и выходной оперативной информации. Организация технологии сбора, передачи, обработки и выдачи информации.

    дипломная работа [4,7 M], добавлен 16.02.2013

  • Символьное и образное представление информации. Единицы ее измерения. Язык как способ символьного представления информации. Знак как элемент конечного множества. Алфавитный подход к измерению информации. Решение задач на определение ее количества.

    презентация [178,2 K], добавлен 12.12.2012

  • Характеристика технологических процессов сбора, передачи, обработки и выдачи информации в отделах исследуемого предприятия. Основные понятия и особенности автоматизированного проектирования изделий корпусной мебели. Концепция построения САПР "Базис".

    отчет по практике [461,0 K], добавлен 09.08.2015

  • Исследование процессов, методов и средств технологии хранения информации. Изучение единиц измерения памяти и классификации запоминающих устройств. Характеристика основных способов кодирования данных на компьютере на сегодняшний день, таблиц кодировок.

    курсовая работа [86,9 K], добавлен 07.12.2011

  • Аналоговое и цифровое представление информации. Понятие, классификация и характеристика методов сжатия данных: алгоритмы одно- и двухпараметрической адаптации, линейной экстра- и интерполяции. Кодирование информации и вычисление циклического кода.

    курсовая работа [157,4 K], добавлен 07.12.2012

  • Информатика - наука об информации, технических средствах ее сбора, хранения, обработки, передачи. Носители информации, память. Носители информации вещество и поле. Процесс сообщения. Целенаправленная передача информации. Непрерывное и дискретное знания.

    автореферат [667,1 K], добавлен 08.06.2008

  • Разработка устройства последовательного сбора и обработки информации с последующим выводом. Выбор элементной базы. Расчет характеристик элементов функциональной схемы. Определение разрядности АЦП и количества бит, передаваемых в информационном кадре.

    курсовая работа [160,9 K], добавлен 05.05.2013

  • Понятие и назначение носителя информации, его разновидности и характерные особенности, возможности применения. Аппаратура систем обработки информации в технике и управлении. Виды информации в зависимости от формы ее представления, ее свойства и значение.

    контрольная работа [263,6 K], добавлен 08.03.2010

  • Характеристика автоматической системы управления технологическим процессом жидких и газообразных сред, необходимость и методика ее реконструкции. Техническое описание средств измерений АСУ ЖГС и системы обработки информации, их совершенствование.

    дипломная работа [1,3 M], добавлен 11.03.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.