Понятие информации и её свойства

Контексты понятия "информация". Различные подходы измерения информации: объёмный и содержательный теория информации по Клоду Шеннону). Характеристика свойств информации (объективность, полнота, достоверность, адекватность, доступность и актуальность).

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 13.01.2014
Размер файла 29,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

21

РЕФЕРАТ

по информатике

"Понятие информации и её свойства"

Содержание

Введение

1. Понятие информации.

2. Измерение информации.

2.1. Объемный подход.

2.2. Содержательный подход.

3. Свойства информации.

Литература.

ВВЕДЕНИЕ

Человек получает информацию о внешнем мире с помощью своих органов чувств. Практически около 90% информации человек получает при помощи органов зрения (визуальный), примерно 9% - при помощи органов слуха (аудиальный) и только 1% при помощи остальных органов чувств (обоняния, вкуса, осязания). Следует отметить, что органы чувств человека получили название анализаторов, поскольку именно через эти органы информация попадает в головной мозг. А вот, например, для лисы, собаки и многих других животных основная информация та, которая поступает через нос. У них хорошо развито обоняние. Для летучих мышей главная информация - звуковая, они воспринимают ее своими большими, чуткими ушами.

Компьютер, помогающий человеку хранить и обрабатывать информацию, приспособлен в первую очередь для обработки текстовой, числовой, графической информации.

Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако, если задаться целью, формально определить понятие «информация», то сделать это будет чрезвычайно сложно.

В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации».

Цель работы - изучить понятие информации и ее свойства.

Задачи:

1) рассмотреть и изучить литературу, соответствующую теме работы;

2) дать понятие информации;

3) рассмотреть свойства информации;

4) изучить подходы измерения информации

информация свойства подходы измерения

1 Понятие информации

Наверное, самый сложный вопрос в информатике - это «Что такое информация?».

На него нет однозначного ответа. Смысл этого понятия зависит от контекста (содержания разговора текста) в котором оно употребляется.

В базовом курсе информатики и ИКТ информация рассматривалась в разных контекстах. С позиции человека информация - это содержание сообщении, самые разнообразные сведения, которые человек получает мира через свои органы чувств. Из совокупности получаемой человеком информации формируется его знания об окружающем мире и о себе самом.

Рассказывая о компьютере, мы говорили, что компьютер - это универсальный программно управляемый автомат для работы с информацией.

В таком контексте не обсуждается смысл информации. Смысл - это значение, которое придает информации человек.

Компьютер же работает с битами с двоичными кодами.

Вникать в их «смысл» компьютер не в состоянии. Поэтому правильнее называть информацию, циркулирующую в устройствах компьютера ,данными .Тем не менее в разговорной речи, в литературе часто говорят о том, что компьютер хранит, обрабатывает, ередает и принимает информацию. Ничего страшного в этом нет.

Надо лишь понимать что в «компьютерном контексте» понятие «информация»отождествляется с понятием «данные».

В Толковом словаре В.И. Даля нет слова «информация». Термин «информация» начал широко употребляться с середины XX века.

В наибольшей степени понятие информация обязано своим распространением двум научным направлениям :теории связи и кибернетике. Автор теории связи Клод Шеннон, анализируя технические системы связи: телеграф, телефон, радио, - рассматривал их как системы передачи информации. В таких системах информация передается в виде последовательностей сигналов: электрических или электромагнитных. Развитие теории связи послужило созданию теории информации, решающей проблему измерения информации.

Основатель кибернетики Норберт Винер анализировал разнообразные процессы управления в живых организмах и в технических системах.

Процессы управления рассматриваются в кибернетике как информационные процессы. Информация в системах управления циркулирует в виде сигналов, передаваемых по информационным каналам.

В XX веке понятие информации повсеместно проникает в науку. Нейрофизиология (раздел биологии) изучает механизмы нервной деятельности животного и человека. Эта наука строит модель информационных процессов, происходящих в организме.

Поступающая извне информация превращается в сигналы электрохимической природы, которые от органов чувств передаются по нервным волокнам к нейронам (нервным клеткам) мозга. Мозг передаёт управляющую информацию в виде сигналов той же природы к мышечным тканям, управляя, таким образом, органами движения. Описанный механизм хорошо согласуется с кибернетической моделью Н. Винера.

В другой биологической науке - генетике используется понятие наследственной информации, заложенной в структуре молекул ДНК, присутствующих в ядрах клеток живых организмов (растений, животных). Генетика доказала, что эта структура является своеобразным кодом, определяющим функционирование всего организма: его рост, развитие, патологии и пр. Через молекулы ДНК происходит передача наследственной информации от поколения к поколению.

Понятие информации относится к числу фундаментальных, т. е является основополагающим для науки и не объясняется через другие понятия. В этом смысле информация встает в один ряд с такими фундаментальными научными понятиями, как вещество, энергия, пространство, время. Осмыслением информации как фундаментального понятия занимается наука философия.

Согласно одной из философских концепции, информация свойством всего сущего, всех материальных объектов мира. Такая концепция информации называется атрибутивной (информация - атрибут всех материальных объектов). Информация в мире возникла вместе со Вселенной. С такой предельно широкой точки зрения, информация проявляется в воздействии одних объектов на другие, в изменениях, которым такие воздействия приводят.

Другую философскую концепцию информации называют функциональной. Согласно функциональному подходу, информация появилась лишь с возникновением жизни, так как связана с функционированием сложных самоорганизующихся систем, к которым относятся живые организмы и человеческое общество. Можно сказать еще так: информация - это атрибут, свойственный только живой природе. Это один из существенных признаков, отделяющих в природе живое от неживого.

Третья философская концепция информации - антропоцентрическая, согласно которой информация существует лишь в человеческом сознании, в человеческом восприятии. Информационная деятельность присуща только человеку, происходит в социальных системах. Создавая информационную технику, человек создает инструменты для своей информационной деятельности.

Делая выбор между различными точками зрения, надо помнить, что всякая научная теория - лишь модель бесконечно сложного мира, поэтому она не может отражать его точно и в полной мере.

Можно сказать, что употребление понятия «информация» в повседневной жизни происходит в антропоцентрическом контексте. Для любого из нас естественно воспринимать информацию как сообщения, которыми обмениваются люди. Например, СМИ - средства массовой информации предназначены для распространения сообщений, новостей среди населения.

2 Измерение информации

2.1 Объемный подход

Вопрос об измерении количества информации является очень важным как для науки, так и для практики. В самом деле, информация является предметом нашей деятельности: мы ее храним, передаем, принимаем, обрабатываем.

Поэтому важно договориться о способе ее измерения, позволяющем, например, ответить на вопросы: достаточно ли места на носителе, что бы разместить нужную нами информацию, или сколько времени потребуется, что бы передать ее по имеющемуся каналу связи. Величина которая нас в этих ситуациях интересует, называется объемом информации.

В таком случае говорят об объемном подходе к измерению информации.

Объём информации не связан с ее содержанием. Когда говорят об объёме информации, то имеют ввиду размер текста в том алфавите, с помощью которого эта информация представлена.

Объём текстов в печатном издании - книге, журнале, газете - обычно измеряет страница. В таком случае мы считаем, что, например, книга в 500 страниц содержит больше информации, чем книга в 250 страниц.

Как вы думаете, всегда ли книга в 500 страниц содержит в 2 раза больше информации, чем книга в 250 страниц? Конечно, нет! Ведь разные книги могут иметь разные форматы листов. Формат листа - это его стандартный размер. Существуют различные форматы печатного листа. Кроме того, разными бывают величина шрифта, длинна строки, межстрочное расстояние. Очень часто детские книги печатаются крупным шрифтом с большим интервалом между строками, да еще и с большим количеством картинок. Зачастую содержание такой книги, состоящей из нескольких десятков страниц, можно перепечатать мелким шрифтом на 2-3 страницах. Но поскольку текст в обоих случаях один и тот же то и количество информации должно быть одинаковым. Значит, измерение информации в страницах не является универсальным.

Количество страниц в печатном издании определяет расход бумаги, а на объем информации. Разумнее измерять объем информации, заключенный в тексте, количеством знаков этого текста. Знаки - это прежде всего буквы из алфавита того языка, на котором написаны книги. Но в текст входят так же и знаки препинания, скобки, цифры. В тексте могут использоваться буквы других алфавитов, например английского или греческого. Пробел между словами - тоже знак.

Например, на странице формата А4 (21 см. * 30 см.) при размере шрифта, равном 12 пунктам (стандартным единицам), и ординарном интервале между строками помещается текст объемом примерно 4 тыс. знаков.

Определением объемом информации в знаках часто используются в издательской практике. Например, журналисту может быть дано ограничение на объем статьи 40 тыс. знаков.

Объемный способ измерения информации называется еще алфавитным подходом.

Выше мы говорили о телеграфном коде Бодо. В нём каждая буква алфавита кодируется пятизначным двоичным кодом. В русском алфавите 32 буквы (не считая буквы ё). Из базового курса информатики вы знаете, что если с помощью I - разрядного двоичного кода можно закодировать алфавит, состоящий из n символов, то эти величины связаны между собой по формуле:

2i = N.

Поскольку 25 = 32, то все русские буквы можно закодировать всевозможными пятиразрядными двоичными кодами от 00000 до 11111. Русский телеграфный аппарат содержит 32 клавиши с буквами. Буква «ё» пропускается. вместо нее имеется более нужная клавиша «пробел». Знаки препинания передаются словами: «зпт», «тчк». Таким образом, телеграфный аппарат при вводе переводит русский текст в двоичный код, количество символов в котором в 5 раз больше, чем в исходном тексте.

Весь английский алфавит, состоящий из 26 букв, так же можно закодировать пятиразрядным двоичным кодом. В отличии от русского алфавита, остается еще 6 свободных кодов, которые можно использовать для пробела и пяти знаков препинания.

Из базового курса информатики вам известно, что в компьютерах используются двоичное кодирование информации.

Для двоичного представления текстов в компьютере чаще всего используется равномерный восьми разрядный код. С его помощью можно закодировать алфавит из 256 символов, поскольку 256 =28 .

В стандартную кодовою таблицу (например,ASC П) помещаются все необходимые символы: английские и русские прописные и строчные буквы, цифры и знаки препинания, знаки арифметических операций, всевозможные скобки и пр.

В двоичном коде один двоичный разряд несёт одну единицу информации, которая называется 1 бит.

При двоичном кодировании объём информации, выражены в битах, равен длине двоичного кода, в котором информация представлена.

Более крупной единицей измерения информации является байт: 1 байт = 8 битов.

Информационный объём текста в памяти компьютера измеряется в байтах. Он равен количеству знаков в записи текста.

Одна страница текста на листе формата А4 кегля 12 с одинарным интервалом между строками (см. пример выше) в компьютерном представлении будет иметь объём примерно 4 тыс. байтов, т. к. на ней помещается примерно 4000 знаков.

Помимо бита и байта, для измерения информации используются и более крупные единицы:

1Кб (килобайт) = 210 байт =1024 байта

1Мб( мегабайт) = 210 Кб = 1024 Кб

1Гб(гигабайт) = 210Мб = 1024 Мб

Объём той же страницы текста будет равным приблизительно 3,9 Кб. А книга из 500 таких страниц займёт в памяти компьютера примерно 1,9 Мб.

2.2 Содержательный подход

Другой подход к измерению информации называют содержательным подходом. В этом случае количество информации связывается с содержанием (смыслом) полученного человеком сообщения. С «человеческой» точки зрения информация - это знания, которые мы получаем из внешнего мира. Количество информации, заключенное в сообщении, должно быть тем больше, чем больше оно пополняет наши знания.

Проблема измерения информации исследована в теории информации, основатель которой - Клод Шеннон. В теории информации для бита дается следующее определение: сообщение, уменьшающее неопределенность знания в два раза, несет 1 бит информации.

В этом определении есть понятия, которые требуют пояснения. Что такое неопределенность знания? Поясним на примере. Допустим, вы бросаете монету, загадывая, что выпадет: орел или решка. Есть всего два возможных результата бросания монеты. Причем ни один из этих результатов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.

В случае с монетой перед ее подбрасывании неопределенность знания о результате равна двум. Игральный же кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределенность знания о результате бросания кубика равна шести. Еще пример: спортсмены-лыжники перед забегом путем жеребьевки определяют свои порядковые номера на старте. Допустим, что имеется 100 участников соревнований, тогда неопределенность знания спортсмена о своем номере до жеребьевки равна 100.

Следовательно, можно сказать так: Неопределенность знания о результате некоторого события (бросание монеты или игрального кубика, вытаскивание жребия и др.) - это количество возможных результатов.

Вернемся к примеру с монетой. После того как вы бросили монету и посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Неопределенность знания уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации.

Сообщение в одном из двух равновероятных результатов некоторого события несет 1 бит информации.

Это утверждение - частный вывод из определения, данного выше.

Задача: студент на экзамене может получить одну из 4-х оценок: 5, 4, 3, 2. Представим себе, что студент пошел на экзамен. Причем учится он не очень ровно и может с одинаковой вероятностью получить любую оценку от «2» до «5». Наконец, он сдал на «4». Вопрос: сколько битов информации содержится в его ответе.

Будем отгадывать оценку, задавая вопросы, на которые можно ответить только «да» или «нет».

Вопросы будем ставить так, чтобы каждый ответ уменьшал количество возможных результатов в два раза и, следовательно, приносил 1 бит информации.

Первый вопрос:

- Оценка выше «тройки»?

- Да.

После этого ответа число вариантов уменьшилось в два раза. Остались только «5» и «4». Получен 1 бит информации.

Второй вопрос:

- Ты получил пятерку?

- Нет.

Выбран один из двух оставшихся: оценка «4». Получен еще один бит информации. В сумме имеем 2 бита.

Сообщение об одном из четырех равновероятных результатов некоторого события несет два бита информации.

Разберем еще одну задачу: на книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?

Будем действовать таким же способом, как в предыдущей задаче. Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления. Применим данный метод к задаче со стеллажами.

- Книга лежит выше четвертой полки?

- Да.

- Книга лежит выше шестой полки?

- Нет.

- Книга - на шестой полке?

- Нет.

- Ну теперь ясно, книга лежит на пятой полке!

Каждый ответ уменьшил неопределенность в два раза. Всего было задано три вопроса. Значит, набрано 3 бита информации.

А сейчас попробуем получить формулу, по которой вычисляется количество информации, содержащейся в сообщении о том, что имел место один из множества равновероятных результатов некоторого события.

Обозначим буквой N количество возможных результатов события, или, неопределенность знания. Буквой i будем обозначать количество информации в сообщении об одном из N результатов.

В примере с монетой: N = 2, i = 1 бит.

В примере с оценкой: N = 4, i = 2 бит.

В примере со стеллажом: N = 8, i = 3 бит.

Нетрудно заметить, что связь между этими величинами выражается следующей формулой:

2i = N.

Действительно: 21 = 2, 22 = 4, 23 = 8.

Это главная формула информатики. Если величина N известна, а i неизвестно, то данная формула становится уравнением для определения i. В математике оно называется показательным уравнением.

Количество информации (i), содержащееся в сообщении об одном из N равновероятных результатов некоторого события, определяется из решения показательного уравнения: 2i = N.

3 Свойства информации

Итак, информация является динамическим объектом, образующимся в момент взаимодействия объективных данных и субъективных методов. Как и всякий объект, она обладает свойствами (объекты различимы по своим свойствам). Характерной особенностью информации, отличающей ее от других объектов природы и общества, является отмеченный выше дуализм: на свойства информации влияют как свойства данных, составляющих ее содержательную часть, так и свойства методов, взаимодействующих с данными в ходе информационного процесса. По окончании процесса свойства информации переносятся на свойства новых данных, то есть свойства методов могут переходить на свойства данных.

Можно привести немало разнообразных свойств информации. Каждая научная дисциплина рассматривает те свойства, которые ей наиболее важны. С точки зрения информатики наиболее важными представляются следующие свойства: объективность, полнота, достоверность, адекватность, доступность и актуальность информации.

Объективность и субъективность информации. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитывают, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц). В не меньшей степени объективность информации учитывают в исторических дисциплинах. Одни и те же события, зафиксированные в исторических документах разных стран и народов, выглядят совершенно по-разному. У историков имеются свои методы для тестирования объективности исторических данных и создания новых, более достоверных данных путем сопоставления, фильтрации и селекции исходных данных. Обратим внимание на то, что здесь речь идет не о повышении объективности данных, а о повышении их достоверности (это совсем другое свойство).

Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапазон методов, которые можно использовать, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса.

Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» -- всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определенным уровнем «информационного шума». Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае для передачи того же количества информации требуется использовать либо больше данных, либо более сложные методы.

Адекватность информации -- это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.

Доступность информации -- мера возможности получить ту или иную информацию. На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации. Отсутствие доступа к данным или отсутствие адекватных методов обработки данных приводят к одинаковому результату: информация оказывается недоступной. Отсутствие адекватных методов для работы с данными во многих случаях приводит к применению неадекватных методов, в результате чего образуется неполная, неадекватная или недостоверная информация.

Актуальность информации -- это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска (или разработки) адекватного метода для работы с данными может приводить к такой задержке в получении информации, что она становится неактуальной и ненужной. На этом, в частности, основаны многие современные системы шифрования данных с открытым ключом. Лица, не владеющие ключом (методом) для чтения данных, могут заняться поиском ключа, поскольку алгоритм его работы доступен, но продолжительность этого поиска столь велика, что за время работы информация теряет актуальность и, соответственно, связанную с ней практическую ценность.

ЗАКЛЮЧЕНИЕ

Понятие информации рассматривалось еще античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. С развитием электроники, рассматривать вопросы теории информации стала новая на то время наука кибернетика.

Информация (от лат. informatio -- осведомление, разъяснение, изложение)

· сведения (сообщения, данные) независимо от формы их представления.

· абстрактное понятие, имеющее множество значений, в зависимости от контекста. Обычно под информацией понимаются сведения, сообщения, данные и т.д. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков

Понятие «информация» является одним из основных понятий информатики. Общепризнанна сложность проблемы определения этого понятия, которая в настоящее время все еще далека от своего решения. Если проанализировать определения информации, приводимые в различных толковых словарях, монографиях, учебниках и учебных пособиях по информатике, то можно прийти к выводу о весьма широком диапазоне подходов к определению содержания понятия «информация» и других связанных с ним основных понятий информатики.

Можно привести немало разнообразных свойств информации. Каждая научная дисциплина рассматривает те свойства, которые ей наиболее важны. С точки зрения информатики наиболее важными представляются следующие свойства: объективность, полнота, достоверность, адекватность, доступность и актуальность информации.

ЛИТЕРАТУРА

1. Босова Л.Л., Цветкова М.С. Информатика. - М.: Астрель, 2005.

2. Информатика и информационные технологии. Под ред. Ю.Д.Романовой. - М.: Эксмо, 2008.

3. Информатика. Конспект лекций. - М.: ЭКСМО, 2006.

4. Информатика. Учебник. Под ред. А.Н. Данчула. - М.: РАГС, 2004.

5. Информатика. Учебное пособие. А.Г. Гейн. - М.: Просвещение, 2001.

6. Информатика: Учебник. Под ред. Н.В.Макаровой. - М.: Финансы и статистика, 1997.

7. Могилев А.В., Пак Н.И., Хеннер Е.К. практикум по информатике. Учебное пособие. - М.: Академия, 2006.

8. Морозевич А.Н. Основы информатики. - М.: Новое знание, 2003.

9. Рыжиков Ю.В. Информатика: лекции и практикум. - СПб.: КОРОНАпринт, 2000.

10. Савельев А.Я. Основ информатики. Учебник для ВУЗов. - М.: МГТУ им. Н.Э.Баумана, 2001.

11. Семакин И.Г., Хеннер Е.К. Информатика и ВТ. Учебник. - М.: Бином, 2009.

12. Угринович Н.Д. Информатика и информационные технологии. - М.: ЛБЗ, 2000.

Размещено на Allbest.ru

...

Подобные документы

  • Человек и компьютер, особенности взаимодействия. Свобода массовой информации в Российской Федерации. Объективность и субъективность, полнота, достоверность информации. Общее понятие про информационные технологии. Основные примеры носителей информации.

    презентация [259,1 K], добавлен 02.06.2012

  • Рассмотрение понятия и методов обработки данных; единицы их представления. Сущность информации; ее основные свойства - объективность, достоверность, доступность и актуальность. Принципы кодирования целых и действительных чисел, а также текстовых данных.

    контрольная работа [432,2 K], добавлен 10.02.2012

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Основы теории передачи информации. Экспериментальное изучение количественных аспектов информации. Количество информации по Хартли и К. Шеннону. Частотные характеристики текстовых сообщений. Количество информации как мера снятой неопределенности.

    лабораторная работа [42,3 K], добавлен 15.02.2011

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Основные свойства информации. Минимальная единица измерения количества информации, ее аналогия со знаниями с точки зрения процесса познания. Характеристика основных информационных процессов: поиск, сбор, обработка, передача и хранение информации.

    контрольная работа [28,8 K], добавлен 01.10.2011

  • Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.

    презентация [173,0 K], добавлен 19.10.2014

  • Понятие информации как одно из фундаментальных в современной науке и базовое для информатики. Дискретизация входной информации как условие пригодности для компьютерной обработки. Понятия, виды, свойства информации, ее классификация. Информация и рынок.

    курсовая работа [31,0 K], добавлен 12.10.2009

  • Виды информации, с которыми работают современные компьютеры. Понятие "информация": в физике, в биологии, в кибернетике. Представление информации. Кодирование и каналы передачи информации. Локальные компьютерные сети. Хранение информации в файлах.

    контрольная работа [26,4 K], добавлен 13.01.2008

  • Информатика - техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. Формы представления информации, ее свойства. Кодирование информации, единицы ее измерения.

    презентация [117,7 K], добавлен 28.03.2013

  • Сущностные характеристики информации. Классификация информации по форме представления, области возникновения, способу передачи и восприятия и способам кодирования. Анализ основных единиц измерения информации, служащих для измерения объёма информации.

    реферат [77,6 K], добавлен 04.10.2011

  • Субъективный, кибернетический, содержательный и алфавитный подходы. Способы восприятия и форма представления информации. Язык как способ ее представления и единицы измерения. Информационная культура человека. Применение информатики и компьютерной техники.

    презентация [192,6 K], добавлен 04.12.2013

  • Задачи и постулаты прикладной теории информации. Разновидности помехоустойчивых кодов. Кодирование информации для канала с помехами. Энтропия при непрерывном сообщении. Количественная оценка информации. Условная и взаимная энтропия и ее свойства.

    курс лекций [3,2 M], добавлен 28.04.2009

  • Информация и информационные процессы в природе, обществе, технике. Информационная деятельность человека. Кодирование информации. Способы кодирования. Кодирование изображений. Информация в кибернетике. Свойства информации. Измерение количества информации.

    реферат [21,4 K], добавлен 18.11.2008

  • Понятие и назначение носителя информации, его разновидности и характерные особенности, возможности применения. Аппаратура систем обработки информации в технике и управлении. Виды информации в зависимости от формы ее представления, ее свойства и значение.

    контрольная работа [263,6 K], добавлен 08.03.2010

  • Понятие об информации. Информатика, краткая история информатики. Информация аналоговая и цифровая. Аналого-цифровое преобразование, устройства аналоговые и цифровые. Понятие о кодировании информации. Хранение цифровой информации. Бит.

    реферат [68,9 K], добавлен 23.11.2003

  • Информация относится к фундаментальным, неопределяемым понятиям науки информатика. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным.

    шпаргалка [132,6 K], добавлен 27.06.2008

  • Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

    реферат [41,4 K], добавлен 08.08.2009

  • Основные свойства информации. Операции с данными. Данные – диалектическая составная часть информации. Виды умышленных угроз безопасности информации. Классификация вредоносных программ. Основные методы и средства защиты информации в компьютерных сетях.

    курсовая работа [41,4 K], добавлен 17.02.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.