Информация: свойства и единицы измерения

Определение информации как основного понятия информатики, ее возникновение и последующие преобразования. Исчисления между битами и байтами. Получение сообщений от источника связи. Неотрывность информации от физического носителя и ее языковая природа.

Рубрика Программирование, компьютеры и кибернетика
Вид контрольная работа
Язык русский
Дата добавления 15.01.2014
Размер файла 49,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Филиал Санкт-Петербургского государственного инженерно-экономического университета в г. Череповце

Кафедра естественнонаучных дисциплин

Контрольная работа

По дисциплине "Информатика"

Тема: Информация: свойства и единицы измерения

Смирнова Н.С.

Череповец 2010 г.

Оглавление

1. Информация - бытовой и технический уровень понимания

2. Свойства информации

3. Единицы измерения информации и соотношения между ними

1. Информация - бытовой и технический уровень понимания

Информация - от латинского Informatio - разъяснение, изложение, осведомление.

Информация - это основное понятие информатики, до сих пор являющееся дискуссионным и неоднозначным в науке. Как пример многозначного понимания информации приведем его трактовку, данную в Филосовском энциклопедическом словаре: информация - это:

1) сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми;

2) уменьшаемая, снимаемая неопределенность (как результат получения сообщений);

3) сообщение, неразрывно связанное с управлением, сигналы в единстве синтаксических, семантических и прагматических характеристик;

4) передача, отражение разнообразия в любых объектах и процессах (неживой и живой природы).

В двух из четырех приведенных трактовок понятие " информация" подменяется понятием "сообщение", при этом, считается, что последнее является более понятным.

Информация не может возникнуть из ничего, её можно получить, записать, переслать, стереть. В то же время при передаче информации из одной системы в другую ее количество в передающей системе не уменьшается, а в принимающей системе обычно увеличивается. Она обладает определенной независимостью от ее носителя. Она может быть преобразована и передана по различным материальным средам с помощью разнообразных сигналов безотносительно к ее содержанию.

В процессе возникновения информации и ее последующих преобразований, можно выделить три этапа, которые позволяют оценивать информацию с синтаксической, семантической и прагматической сторон:

1) Отражение некоторого факта окружающей действительности в виде определенного набора данных представляет собой синтаксический аспект информации, который связан со способом представления информации вне зависимости от ее смысловых и потребительских качеств. Главным на синтаксическом уровне является форма представления информации для ее передачи и хранения. Информация, рассматриваемая только относительно ее синтаксического аспекта без учета ее смысловых и потребительских качеств, называется данными.

2) После получения данных, их структуризации в соответствии с конкретной предметной областью человеком формируется знание о некотором факте или процессе. Знание - это информация, для усвоения, усвоенная человеком, не существующая вне его сознания и позволяющая решать задачи в данной области, то есть знание представляет результат мыслительной деятельности человека. Усвоение информации предполагает выявление человеком закономерностей, связей, законов, принципов в данной предметной области. Смысловое содержание информации и ее соотнесение с ранее имевшейся информацией представляет собой семантический аспект информации.

3) Полученные знания используются человеком в практической деятельности для достижения определенных целей, что представляет собой прагматический аспект информации. Этот аспект отражает потребительские свойства информации.

Для оценки и измерения количества информации применяют следующие подходы:

1) Статистический подход - основоположник К. Шеннон,1948г. Измеряет количество информации уменьшением (изменением) неопределенности состояния системы. Количественно выраженная неопределенность состояния системы получила название энтропии. При получении информации неопределенность системы, то есть ее энтропия, уменьшается. Если энтропия системы равна нулю, то о ней имеется полная информация.

2) Семантический подход - основатели Н. Винер, Ю. Шнайдер. Предполагает, что для получения и использования информации ее получатель должен обладать определенным запасом знаний - тезаурусом. Изменение индивидуального тезауруса потребителя под воздействием некоторого сообщения свидетельствует о количестве смысловой информации, содержащемся в данном сообщении. Однако потребители, имеющие различные тезаурусы, получат неодинаковые количества информации. Если индивидуальный тезаурус потребителя о данном предмете близок к нулю, то в этом случае и количество воспринятой им смысловой информации будет равно нулю. Например, прослушивание сообщения на неизвестном потребителю иностранном языке не изменит его индивидуального тезауруса, так как сообщение останется для него непонятным. Таким образом, информация обладает свойством относительности и имеет субъективную ценность. Для объективной оценки научной информации используется понятие общечеловеческого тезауруса, степень изменения которого свидетельствует о величине и значимости получаемых человечеством новых знаний.

3) Прагматический подход - основатель А. Харкевич. Определяет количество информации как меру, способствующую достижению поставленной цели. В качестве меры ценности информации в данном подходе рассматривается количество информации как приращение вероятности достижения цели.

4) Структурный подход предполагает абстрагирование от смыслового содержания информации с целью организации таких логических и физических структур организации информации, которые позволяли бы наиболее эффективно ее использовать (быстрый поиск, извлечение, копирование, изменение и так далее). Структурный подход предполагает преобразование информации в машинные коды и, наоборот, из машинных кодов в доступную форму. При машинном хранении информации структурной единицей информации является один байт, состоящий из восьми бит (двоичных единиц и информации). Структурными элементами информации являются поля, записи, массивы, базы и банки данных, банки знаний.

Таким образом, информация - данные об объектах и явлениях, их параметрах, свойствах и состоянии, которые после их усвоения человеком позволяют уменьшить имеющуюся о них степень неопределенности.

Это определение трактует информацию до ее усвоения человеком как данные, после их усвоения человеком информация рассматривается как знание.

В простейшем бытовом понимании с термином "информация" обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации.

Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д. При этом предполагается, что имеются "источник информации" и "получатель информации".

Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае "каналом связи". Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

Информация может существовать в виде: текстов, рисунков, чертежей, фотографий, световых или звуковых сигналов, радиоволн, электрических и нервных импульсов, магнитных записей, жестов и мимики, запахов и вкусовых ощущений. Предметы, процессы, явления материального и нематериального свойства рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

Информацию можно: создавать, передавать, воспринимать, использовать, запоминать, принимать, копировать, формализовать, распространять, преобразовывать, комбинировать, обрабатывать, делить на части, упрощать, собирать, хранить, искать, измерять, разрушать, и т. д. Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

Информация - важнейший компонент любого информационного процесса. Информационный процесс может состояться только при наличии информационной системы, обеспечивающей все его составляющие- источник информации, канал связи, правила интерпретации сигналов и приемник информации.

Информация от источника к приемнику передается в материально-энергетической форме (например, в виде электрических, световых, звуковых и других сигналов). Информация может быть представлена аналоговыми (непрерывным) или дискретными (прерывистым) сигналами.

Информация, переносимая сигналами, имеет смысл, отличный как от смысла самого факта поступления сигналов, так и от формы их передачи. Следовательно, источник и потребитель информации должны "договориться" о конкретной форме передачи информации, а также выработать некоторое соглашение относительно расшифровки (интерпретации) полученных сигналов.

В общем случае источник информации, восприняв некоторое явление (факт, изменение состояния и т. д.), шифрует (кодирует) его в виде последовательности сигналов с последующей пересылкой их в канал связи. Канал связи выступает как внешняя (по отношению к источнику и приемнику) среда, отражающая состояния источника и воздействующая каким- либо образом на приемник.

При передаче сигналов по каналу связи на них воздействуют помехи ("шумы"), приводящие к изменению первоначальной формы и, возможно, смысла первоначального сигнала.

Приемник (адресат, потребитель) информации при получении сигналов должен выполнить предварительную их обработку, цель которой заключается в исключении "шумов" и интерпретации (расшифровке), т.е. в извлечении смыслового содержания, заключенного в сигналах. После этого он может использовать полученную информацию по своему усмотрению.

Существование и развитие человеческого общества невозможно без осуществления информационных процессов. Определяющую роль в информационной системе, обеспечивающей составляющие информационного процесса, играет язык. В какой бы форме и какими бы средствами не передавалась информация, она всегда передается с помощью некоторого языка. Применяя язык как способ представления информации, а также различные формы и средства передачи информации, человек рассчитывает на ее восприятие, анализ и использование и активно участвует в информационных процессах, происходящих в обществе.

2. Свойства информации

Информацию следует считать особым видом ресурса, при этом имеется ввиду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы.

Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: достоверность, доступность, актуальность, своевременность, и т.д. Можно привести немало разнообразных свойств информации. Каждая научная дисциплина рассматривает те свойства, которые ей наиболее важны. Систематизация существующих подходов к выделению свойств информации, позволяет говорить о том, что информации присущи следующие свойства:

Атрибутивные свойства - это те свойства, без которых информация не существует. К данной категории свойств относятся:

неотрывность информации от физического носителя и языковая природа информации. Одно из важнейших направлении информатики как науки является изучение особенностей различных носителей и языков информации, разработка новых, более совершенных и современных. Необходимо отметить, что хотя информация и неотрывна от физического носителя и имеет языковую природу, она не связана жестко ни с конкретным языком, ни с конкретным носителем;

дискретность. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака;

непрерывность. Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым, способствуя поступательному развитию и накоплению.

Прагматические свойства - это те свойства, которые характеризуют степень полезности информации для пользователя, потребителя и практики. Проявляются в процессе использования информации. К данной категории свойств относится:

смысл и новизна. Это свойство характеризует перемещение информации в социальных коммуникациях, и выделяет ту ее часть, которая нова для потребителя;

полезность. Уменьшение неопределенности сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации;

ценность. Ценность информации различна для различных потребителей и пользователей;

кумулятивность.

Характеризует накопление и хранение информации:

полнота. Характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапазон методов, которые можно использовать, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса;

достоверность. Данные возникают в момент регистрации сигналов, но не все сигналы являются "полезными" - всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определенным уровнем "информационного шума". Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае для передачи того же количества информации требуется использовать либо больше данных, либо более сложные методы;

адекватность - это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов;

доступность (мера возможности получить ту или иную информацию). На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации. Отсутствие доступа к данным или отсутствие адекватных методов обработки данных приводят к одинаковому результату: информация оказывается недоступной. Отсутствие адекватных методов для работы с данными во многих случаях приводит к применению неадекватных методов, в результате чего образуется неполная, неадекватная или недостоверная информация;

актуальность (степень соответствия информации текущему моменту времени). Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска (или разработки) адекватного метода для работы с данными может приводить к такой задержке в получении информации, что она становится неактуальной и ненужной. На этом, в частности, основаны многие современные системы шифрования данных с открытым ключом. Лица, не владеющие ключом (методом) для чтения данных, могут заняться поиском ключа, поскольку алгоритм его работы доступен, но продолжительность этого поиска столь велика, что за время работы информация теряет актуальность и, соответственно, связанную с ней практическую ценность;

объективность и субъективность. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитывают, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц).

Динамические свойства - это те свойства, которые характеризуют изменение информации во времени: рост информации. Движение информации в информационных коммуникациях и постоянное ее распространение, и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком, ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам; старение. Информация подвержена влиянию времени.

Существуют еще такие свойства как:

Своевременность - означает ее поступление в установленные сроки не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи. байт бит информация

Репрезентативность - (обоснованность отбора существенных признаков и связей отображаемого явления) правильность отбора и формирования информации в целях адекватного отражения свойств объектов. Нарушение репрезентативности информации приводит к существенным ее погрешностям.

Содержательность - с увеличением содержательности информации для получения одних и тех же сведений требуется преобразовать меньший объем данных.

Достаточность или полнота информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Неполная (недостаточная) информация, как и избыточная информация снижает эффективность принимаемых пользователем решений.

Точность - определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления.

Устойчивость - отражает ее способность реагировать на изменение исходных данных без нарушения необходимой точности.

Запоминаемость - одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея ввиду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К. Шеннона. В данном случае имеется ввиду несколько иной аспект - способность информации к копированию, т.е. к тому, что она может быть "запомнена" другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.

Преобразуемость - фундаментальное свойство информации. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Стираемость информации также не является независимой. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

Данных свойств информации недостаточно для формирования ее меры, так как они относятся к физическому уровню информационных процессов.

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не завершены) усилия ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Движение информации есть сущность процессов управления, которые суть проявление имманентной активности материи, ее способности к самодвижению.

С момента возникновения кибернетики управление рассматривается применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых - искусственных (технических) и естественных (природных) - системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной науки - синергетики.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.

3. Единицы измерения информации и соотношения между ними

ЭВМ может обрабатывать информацию, представленную только в числовой форме. Любая другая информация (текстовая, графическая) преобразуется в числовую. Так, например, при вводе текста, каждый символ кодируется определенным числом (существуют специальные таблицы кодировки, наиболее известные и распространенные коды ASCII), а при выводе наоборот, каждому числу соответствует изображение определенного символа.

Поскольку ЭВМ работают в двоичной системе счисления, то все числа представляются с помощью двух цифр - 0 и 1. Поэтому, несмотря на особенности каждого вида информации, общим для них является использование при кодировании двоичной системы счисления. Недостаток двоичного кодирования - длинные коды. Но в технике легче иметь дело с большим числом простых однотипных элементов, чем с небольшим числом сложных.

Такой двоичный разряд, принимающий значение 0 или 1, называется битом. Бит - это наименьшая единица информации в ЭВМ.

Восемь двоичных разрядов позволяют закодировать 28=256 символов, этого достаточно, чтобы закодировать любую букву, цифру или служебный символ. Нажатие клавиши на клавиатуре приводит к тому, что сигнал посылается в компьютер в виде двоичного числа, которое хранится в кодовой таблице. Кодовая таблица символов - это внутреннее представление символов в компьютере. Во всем мире в качестве стандарта принята таблица ASCII (American Standart Code for Information Interchange) - Американский стандартный код для обмена информацией.

Первые 128 символов (от 0 до 127) - это цифры, прописные и строчные буквы латинского алфавита, управляющие символы. Вторая половина кодовой таблицы (от 128 до 255) предназначена для национальных символов (в том числе кириллицы), математических символов и так называемых псевдографических символов, которые используются для рисования рамок.

Например, для символа 0 двоичный код - 00110000

А (лат.) - 01000001

А (рус.) - 10000000.

В разных странах, на разных моделях компьютеров могут использоваться и разные варианты второй половины кодовой таблицы.

Нужно иметь в виду три особенности алфавита в кодовой таблице и их следствия:

прописные и строчные буквы представлены разными кодами, т.е. "А" и "а" - разные объекты;

при упорядочивании слов по алфавиту сравниваются между собой десятичные коды букв. Например, код латинских букв "меньше" чем русских.

Латинские и русские буквы имеют разные коды, хотя некоторые визуально неразличимы.

Итак, компьютер способен распознавать только значения бита. Однако он редко работает с конкретными битами в отдельности, а совокупность из 8 битов, воспринимаемая компьютером как единое целое, называется байтом.

Вся работа компьютера - это управление потоками байтов, которые вводятся в компьютер с клавиатуры, считываются с дисков или передаются по линии связи, преобразовываются по командам программ, записываются на постоянное хранение на магнитный диск или выводятся на экран дисплея или бумагу в виде символов: букв, цифр, значков.

Для хранения двоичного кода одного символа выделен 1 байт памяти, равный восьми битам. Следующими более крупными единицами информации являются:

1 Кб (килобайт) = 1024 б (байт)

1 Мб (мегабайт) = 1024 Кб

1 Гб (гигабайт) = 1024 Мб.

1 Тб (терабайт) = 1024 Гб

Метод измерения информации во многом был предопределен возможностями ее хранения на различных технических устройствах, где на элементарном уровне информация запоминается с помощью магнитно-электрических устройств, которые могут находиться либо в намагниченном, либо в размагниченном состоянии.

Таким образом, если связать между собой методы хранения информации с ее единицами измерения, можно говорить о бинарной (двоичной) системе организации хранения.

Размещено на Allbest.ru

...

Подобные документы

  • Основные единицы измерения времени, массы и объема. Исчисления между битами и байтами. Двоичные приставки в ОС Windows и у производителей ОЗУ. Расчет информационного размера изображения. Объём компьютерных информационных носителей, пример определения.

    презентация [638,9 K], добавлен 27.01.2014

  • Информатика - техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. Формы представления информации, ее свойства. Кодирование информации, единицы ее измерения.

    презентация [117,7 K], добавлен 28.03.2013

  • Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

    реферат [41,4 K], добавлен 08.08.2009

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Информация и ее свойства. Единицы измерения данных. Вероятностный и объемный подход к измерению количества информации, способы ее передачи. Рассмотрение поставщиков финансовой информации в Интернете; технологии финансовых инвестиций в компьютерной сети.

    контрольная работа [61,5 K], добавлен 08.06.2013

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Сущность и характеристика цифровой и аналоговой информации. Бит как основа исчисления информации в цифровой технике. Компьютерная система счисления как способ записи (изображения) чисел. Сущность и понятие позиционных и непозиционных систем исчисления.

    доклад [15,7 K], добавлен 04.06.2010

  • Информация относится к фундаментальным, неопределяемым понятиям науки информатика. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным.

    шпаргалка [132,6 K], добавлен 27.06.2008

  • Основные понятия информатики. Информация, ее виды, свойства, единицы измерения и способы обработки. Командные строки для форматирования дискеты с переносом на неё операционной системы и создания файловой структуры. Программы, работающие на компьютере.

    контрольная работа [17,3 K], добавлен 13.04.2012

  • Понятие информации как одно из фундаментальных в современной науке и базовое для информатики. Дискретизация входной информации как условие пригодности для компьютерной обработки. Понятия, виды, свойства информации, ее классификация. Информация и рынок.

    курсовая работа [31,0 K], добавлен 12.10.2009

  • Понятие и назначение носителя информации, его разновидности и характерные особенности, возможности применения. Аппаратура систем обработки информации в технике и управлении. Виды информации в зависимости от формы ее представления, ее свойства и значение.

    контрольная работа [263,6 K], добавлен 08.03.2010

  • Субъективный, кибернетический, содержательный и алфавитный подходы. Способы восприятия и форма представления информации. Язык как способ ее представления и единицы измерения. Информационная культура человека. Применение информатики и компьютерной техники.

    презентация [192,6 K], добавлен 04.12.2013

  • Понятие информационного общества, его культуры, ресурсов, продуктов, интерфейса и его виды. Сущность и предмет информатики, ее задачи. Данные и информация, методы кодирования и расчет параметров. Единицы измерения информации, характеристики ее качества.

    презентация [330,8 K], добавлен 19.12.2011

  • Символьное и образное представление информации. Единицы ее измерения. Язык как способ символьного представления информации. Знак как элемент конечного множества. Алфавитный подход к измерению информации. Решение задач на определение ее количества.

    презентация [178,2 K], добавлен 12.12.2012

  • Сущностные характеристики информации. Классификация информации по форме представления, области возникновения, способу передачи и восприятия и способам кодирования. Анализ основных единиц измерения информации, служащих для измерения объёма информации.

    реферат [77,6 K], добавлен 04.10.2011

  • Сущность понятия "носители информации". Записи на песке и камне. Использование восковых дощечек в Древнем Риме. Технология изготовления папируса. Свойства бумаги как носителя информации. Принцип работы первых вычислительных машин. Жесткий магнитный диск.

    презентация [539,5 K], добавлен 08.02.2014

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Понятие об информации. Информатика, краткая история информатики. Информация аналоговая и цифровая. Аналого-цифровое преобразование, устройства аналоговые и цифровые. Понятие о кодировании информации. Хранение цифровой информации. Бит.

    реферат [68,9 K], добавлен 23.11.2003

  • Основные свойства информации. Минимальная единица измерения количества информации, ее аналогия со знаниями с точки зрения процесса познания. Характеристика основных информационных процессов: поиск, сбор, обработка, передача и хранение информации.

    контрольная работа [28,8 K], добавлен 01.10.2011

  • Основные направления информатики. Единицы измерения информации. Принципы построения компьютеров, сформулированные Джоном Нейманом. Функции центрального процессора. Устройства, образующие внутреннюю и внешнюю память. Классификация компьютерных сетей.

    лекция [46,0 K], добавлен 10.04.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.