Информация в развитии человека и общества

Многозначность понятия "информация", ее классификация, основные функции, единицы измерения, параметры. Роль в жизни общества. Информация как семантическое свойство материи. Материальные носители - среда для записи информации, хранения и передачи.

Рубрика Программирование, компьютеры и кибернетика
Вид курсовая работа
Язык русский
Дата добавления 04.11.2015
Размер файла 274,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ИНФОРМАЦИЯ В РАЗВИТИИ ЧЕЛОВЕКА И ОБЩЕСТВА

Современное человеческое общество живет в период, который характеризуется небывалым ростом объема информационных потоков в различных сферах жизнедеятельности. Наибольший рост объема информации наблюдается в промышленности, финансово-банковской деятельности. В промышленности рост объема информации обусловлен увеличением объема производства, усложнением выпускаемой продукции, используемых материалов, технологического оборудования, расширением, в результате концентрации и специализации производства, внешних и внутренних связей экономических объектов. Рыночные отношения предъявляют повышенные требования к своевременности, достоверности, полноте информации, без которой немыслима эффективная маркетинговая, финансово-кредитная, инвестиционная деятельность.

К известным видам ресурсов - материальным, трудовым, энергетическим и финансовым прибавляется новый вид ресурса - информационный. Без этого ресурса немыслимо развитие и существование нового информационного общества. Понимая информацию как один из основных стратегических ресурсов общества, необходимо иметь представление об этом понятии, знать, какими свойствами обладает информация, уметь ее оценить как с качественной, так и с количественной стороны.

1. ИНФОРМАЦИЯ И ЕЁ ПРОЯВЛЕНИЯ

1.1. Многозначность понятия «информация»

информация носитель запись хранение

Сегодня человечество входит в новый виток развития цивилизации, характеризующийся освоением не только вещества и энергии, но и информации. Термин «информация» из журналистического превратился в один из наиболее часто употребляемых в настоящее время терминов в науке, технике и быту. Слова французского дипломата Э. Талейрана: «Кто владеет информацией - владеет миром», - наполняются сейчас не только политическим смыслом, но в большей мере экономическим, социальным.

Информацию относят к одной из составляющих основ мироздания (материя, энергия и информация), т.е. чтобы сделать автомобиль, необходимы металл, пластмасса и т.п. (материя); надо заставить также работать станки, нагревать металл и т.п. (энергия); всем этим процессом нужно управлять, нужно иметь проект, квалифицированных специалистов, знания - это и есть информационная составляющая.

Н. Винер в одной из своих работ написал: «Информация есть информация, а не материя и не энергия».

Термин «информация» происходит от латинского слова «information», что означает сведения, разъяснения, изложение.

В науке существует три подхода к пониманию феномена информации (рис. 1.1).

Рис. 1.1. Подходы к пониманию феномена «информация».

Атрибутисты полагают, что информация как семантическое свойство материи является неотъемлемым атрибутом всех систем объективной реальности, она существовала и существует вечно, является организующим началом в живой и неживой природе.

Функционалисты отрицают существование информации в неживой природе. По их мнению, информация через информационные процессы реализует функцию управления (самоуправления) в биологических, социальных и социотехнических (человеко-машинных) системах. Информация - это одно из функций жизни, основное отличие живого от неживого.

3. Антропоцентристы ограничивают сферу информации главным образом социальными системами и определяют информацию как содержание (смысл) сигнала, полученного системой из внешнего мира. Говорить о смысле сигнала, а, следовательно, об информации можно только по отношению к человеку и обществу.

Все точки зрения имеют право на существование и исследуются в соответствующих областях науки:

· информация как семантическое свойство материи изучается в философии и физике;

· информация как функция управления изучается в кибернетике, физиологии и биологии;

· информация как содержание воспринятого сигнала изучается в лингвистике, социологии и психологии.

Информация - это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладываются различный смысл в технике, науке и житейских ситуациях.

Наиболее общим философским определением является следующее: информация - это отраженное многообразие, т.е. нарушенное однообразие. Мы привыкли к тому, что мир вокруг нас изменчив, мы и замечаем его именно в процессе изменения, то есть информация возникает, когда нарушается однообразие и это нарушение отражается в сигналах.

В быту под информацией понимают любые данные или сведения, которые нас интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше». При этом заинтересовать нас могут только лишь те сведения, которые мы воспринимаем и осознаем. Поэтому восприятие поступающих извне сигналов и их интерпретация - основа превращения сигналов в информацию для нас.

В журналистике под информацией понимают не любые сообщения, а только лишь те из них, которые обладают новизной. Одно и то же информационное сообщение (газетная статья, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т.п.) может содержать разное значение информации для разных людей - в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

В технике связи любая последовательность сигналов, которая хранится, передается или обрабатывается с помощью технических средств, не учитывая смысл этих сигналов.

Понятие "информация" достаточно широко используется в обычной жизни современного человека, поэтому каждый имеет интуитивное представление, что это такое. Но когда наука начинает применять общеизвестные понятия, она уточняет их, приспосабливая к своим целям, ограничивает использование термина строгими рамками его применения в конкретной научной области. Так, понятие информации, становясь предметом изучения многих наук, в каждой из них конкретизируется и обогащается.

В теории информации не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. Информация - это снятая неопределенность (К. Шеннон).

В кибернетике (теории управления) под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, то есть в целях сохранения, совершенствования, развития системы (Н. Винер).

Под информацией в семантической теории (смысл сообщения) понимают сведения, обладающие новизной.

Под информацией в документалистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.

В информатике информацию рассматривают как продукт взаимодействия данных и методов их обработки, адекватных решаемой задаче.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объем сообщения.

Поскольку взглядов на феномен информации, видимо, столько же, сколько людей, существуют и другие ее определения.

1.2 Информация как семантическое свойство материи

В процессе освоения окружающего мира человек научился преобразовывать в своих интересах как вещество так и поле. Размышляя об успешности и эффективности преобразований, человек пришел к понятию энергии, как неотъемлемого свойства материи.

Постепенно пришло научное осознание факта, что каждый предмет, явление, событие имеет какой-то вполне определенный смысл в общей картине-мироздания. Человек в своей преобразовательной деятельности может учитывать или не учитывать этот смысл, однако в последнем случае есть опасность нарушить какие-то до конца не осознанные законы. Нарушение объективных законов всегда ведет к непредсказуемым, часто катастрофическим последствиям, поэтому одной из главных задач современной науки стало выявление смысловых или, иначе говоря, семантических свойств материи. Причем, большинство ученых склоняется к мысли, что в наибольшей степени семантическое свойство материи нашло свое отражение в научном языке в понятии «информация».

В этой связи можно сказать, что информация - это смысл полученного сообщения, его интерпретация.

Понятие смысла для человека чаще всего ассоциируется с восприятием сигналов, знаков, текстов, но его можно распространить и на объекты и явления живой и неживой природы. Выделение смысла - задача человека, и именно человек определяет, как интерпретирует конкретное сообщение машина любого рода.

Например, при обучении учитель объясняет некоторое понятие учащемуся с помощью рассказа, демонстрации опыта. Этот процесс можно описать с точки зрения передачи и получения информации:

o учитель имеет некоторую информацию о явлении, которое собирается объяснить учащемуся. Это означает, что у него есть какое-то представление о предмете (широкое или узкое в зависимости от знаний самого учителя);

o учитель с помощью различных сообщений, используя ранее введенные понятия, рассказывает суть вопроса, затем демонстрирует опыт, тем самым он передает некоторые сведения, данные учащемуся;

o учащийся получает отправленные ему сообщения и усваивает их с точки зрения своего опыта, понимания. То, что он понял, и есть полученная информация; то, что сложилось в его представлении, может с разной степенью адекватности отвечать реальному явлению, что узнается с помощью вопросов ученику, решения задач и пр.

Таким образом, имеющаяся информация о явлении перешла с помощью сообщений от учителя к учащемуся, но она может с разной степенью адекватности соответствовать реальному явлению.

В этом смысле компьютер никогда не работает с информацией, ему нельзя ее ввести и нельзя ее от него вывести. Компьютер всегда имеет дело с сообщениями, представленными данными. Только человек имеет возможность получить информацию на основе данных компьютера.

В лингвистике, как дисциплине, оперирующей с языками, понятие смысла приобретает наиболее осязаемые черты. Основными объектами лингвистики является, как известно, упорядоченная последовательность знаков, записанная на некотором языке, то есть текст. Текст может быть осмысленным и бессмысленным с точки зрения воспринимающего его субъекта.

Предположим, два человека прочитали один и тот же незнакомый им текст. Один из них после прочтения утверждает, что получил много информации, другой - что вообще не получил информации. Что они вкладывают в понятие «информация»? По-видимому, смысл, заключенный в тексте. Первый читатель сумел «извлечь» этот смысл, «осмыслил» текст. Для второго же, напротив, текст был «бессмысленным». Причем бессмысленным он мог оказаться с точки зрения понятности, стиля изложения, структуры или практической ценности.

Как известно из атомов углерода состоят три вещества:

· алмаз (самое твердое вещество в природе);

· графит (слоистое кристаллическое вещество);

· карбин (черный порошок).

Разница их свойств обусловливается в наибольшей степени расположением атомов углерода, иначе говоря, структурой вещества: объемная тетраэдрическая у алмаза, плоская тригональная у графита и линейная у карбина. Смысл в данном случае можно понимать как упорядоченность атомов кристаллической решетки, которая обуславливает физические и химические свойства вещества.

Этот пример говорит о том, что в, ряде случаев понятие смысла можно свести к понятию упорядоченности, т.е. роль смысла может играть структура, способ взаимосвязи.

Заметим, что в отношении текста понятия «смысл» и «упорядоченность» не совпадают. Текст может быть хорошо структурирован, но быть бессмысленным. С другой стороны, осмысленный текст не обязательно является упорядоченным.

Любой текст имеет три составляющие:

собственно смысловую (семантическую)',

выразительную (синтаксическую) - в какой форме представлен текст;

оценочную (прагматическую), которая отражает отношение к тексту воспринимающего его субъекта.

Таким образом, информация, заложенная в тексте, может быть оценена с точки зрения семантики (смысла, содержания) и синтаксиса (формы).

В современной науке на равных существуют две точки зрения.

1. Все объекты в окружающем нас мире обладают некоторым смыслом (несут некоторую информацию), а человек, изучая их, пытается проникнуть в этот смысл, раскрыть его (получить информацию). Иными словами, информация объективно присуща материи и не зависит от человека.

2. Человек в процессе познания и практической деятельности приписывает объектам некоторый смысл, то есть объявляет их «имеющими» некоторую информацию. В этом случае, информация субъективна и существует только в человеческом сознании.

В настоящее время обе эти точки зрения имеют как сторонников так и противников. Однако противоположность взглядов на происхождение информации не влияет на единство подходов к изучению свойств информации, их проявлений в информационных процессах и возможность автоматизации этих процессов с помощью средств вычислительной техники.

1.3 Носители информации

Распространение информации всегда связано с материальным носителем, т.е. средой для ее записи, хранения и передачи.

Носителем информации может быть:

1) любой материальный предмет (бумага, камень, дерево, стол, звездная пыль, мусор на полу);

2) волны различной природы: акустические (звук), электромагнитные (свет, радиоволны), гравитационные (давление, притяжение);

3) вещество в различных состояниях (жидкий раствор - концентрация молекул; газ - температура и давление).

Для хранения информации, которая будет обрабатываться с помощью компьютера, используются специальные материальные носители: электронные схемы, магнитные ленты, магнитные диски, оптические компакт-диски и т.п.

Человек всегда стремился доступным ему способом зафиксировать сведения о том, что больше всего его волновало. Наши предки оставили нам информацию о себе в виде наскальных рисунков. Такие рисунки (идеограммы) соответствовали не отдельным звукам, а словам или словосочетаниям. Искусственно созданное средство общения - азбука Морзе передавала информацию посредством сигналов. С тех пор основным способом передачи информации являлись знаки и сигналы. Слова «знак», «сигнал», «символ» являются многозначными, т.е. в разных ситуациях могут наделяться разным смыслом. Для того, чтобы подчеркнуть, что носителем информации является физический предмет (лист бумаги, камень, картина) с каким-либо изображением в нем, то говорят, что информация записана, а если носителем информации является волна или вещество, то говорят, что информация переносится сигналами. Таким образом, наполнение знаков и сигналов смыслом превращает их в символы.

1.4 Представление информации

Мир вокруг нас полон всевозможных образов, звуков, запахов, и всю эту информацию доносят до сознания человека его органы чувств: зрение, слух, обоняние, вкус и осязание. С их помощью человек формирует свое первое представление о любом предмете, живом существе, произведении искусства, явлении и пр.

Воспринимая информацию с помощью органов чувств, человек стремится зафиксировать ее так, чтобы она стала понятной и другим, представляя ее в различной форме (рис. 1.2.):

1) знаковой письменной, состоящей из различных знаков, среди которых выделяют:

§ символьную в виде текста, чисел, специальных символов (например, текст учебника);

§ графическую (например, географическая карта);

§ табличную (например, таблица записи хода физического эксперимента);

2) в виде жестов и сигналов (например, сигналы регулировщика дорожного движения);

3) устной словесной (например, разговор).

Рис. 1.2. Восприятие информации

Если бы для человека формирование знаний об окружающей среде происходило бы только на основе его собственного восприятия; органами чувств, вряд ли прогресс человечества был бы таким значительным. Выход в космос и покорение морских глубин, овладение ядерной энергией и использование телекоммуникаций, создание государственных систем и систем искусственного интеллекта - все это лежит за пределами чисто чувственного познания индивидуума. Это продукт коллективной интеллектуальной деятельности.

Возможность передачи знаний от одного человека другому - вот на чем основывается прогресс человечества в целом и просто каждого человека в отдельности. Но чтобы передавать знания, нужно как-то обозначать объекты, их свойства и связи между ними. Эти обозначения составляют основу языка и называются именами.

То, что имя обозначает, называют денотатом, или значением имени. Не исключено, что разные имена имеют один и тот же денотат. Такие имена называются синонимами. Изменчивость языка иногда приводит и тому, что одно имя соответствует разным предметам. В языке такие имена называются омонимами.

Кроме значения, для каждого имени определен еще и смысл (концепт), зависящий от окружения, в котором употреблено данное имя. Это окружение называют контекстом. Разница между значением и смыслом имени отчетливо проявляется в употреблении этих слов: значение имени мы знаем, а смысл - понимаем.

Из слов языка строятся более сложные структуры - предложения, формулы и т.п. Построение таких структур обычно подчинено определенным правилам. Совокупность этих правил называют грамматикой данного языка. В естественных языках эти правила лишь до определенной степени регламентируют правописание слов и предложений. В формальных языках, например, в языках программирования, грамматика никак не учитывает смысл слова и жестко фиксирует их употребление в предложениях языка.

Вопросы соотнесения имени со значением и смыслом составляют семантику языка. При передаче информации посредством того или иного языка важно, чтобы семантика этого языка была одинаковой и для источника, и для приемника информации, т.е. оба они должны с одинаковыми именами связывать одинаковое значение и одинаковый смысл.

Каждая наука создает свой язык, в котором за каждым именем закреплены одно значение и один смысл. Такие имена называются терминами, а их смысл и значение даются соответствующими определениями. Закрепление за каждым именем только одного денотата и концепта называется формализацией языка. Наиболее формализован, по-видимому, язык математики, в котором для многих терминов созданы специальные обозначения.

Однако в процессе познания, кроме проблемы соотнесения имени с тем или иным денотатом и концептом (семантика языка), есть еще проблема образования самих имен (синтаксис языка). Общая идея образования имен в языке заключается в том, чтобы выделить некоторое число простейших знаков (которые могут и не быть именами). Конечный упорядоченный набор конструктивных знаков называют алфавитом. Комбинацию знаков алфавита называют словом.

Таким образом, язык - это некоторое подмножество слов над данным алфавитом. Правила, согласно которым из знаков алфавита образуются слова данного языка, называются грамматикой этого языка.

К примеру, алфавит десятичной нумерации - это множество, состоящее из десяти цифр в указанном выше порядке, слово - это запись произвольного числа в десятичной системе счисления, грамматика десятичной нумерации - это правила, согласно которым образуется запись числа, наконец, язык десятичной нумерации -это множество записей всех натуральных чисел.

Человек в своей деятельности использует самые различные языки. Прежде всего, это языки устной и письменной родной речи. Это иностранные языки, которыми может пользоваться человек. Такие языки человеческого общения называются естественными. Естественные языки дают примеры алфавитов, состоящих из нескольких десятков тысяч знаков (китайский язык), и сравнительно небольших по количеству знаков алфавитов многих европейских языков. Знаки, входящие в алфавит естественного языка, называют буквами.

Возникновение других алфавитов было продиктовано необходимостью привлечения технических средств для передачи информации. Одним из первых примеров такого алфавита является азбука Морзе, изобретенная для передачи телеграфных сообщений. В ней каждый знак обычного алфавита кодируется набором (сочетанием) точек и тире.

Использование двухсимвольного алфавита оказалось столь же естественным в различных технических средствах связи, как десятисимвольный алфавит для записи чисел. Дело в том, что технически двухсимвольный алфавит легко реализуется: высокое или низкое напряжение электрического импульса, высокая или низкая намагниченность, высокая или низкая интенсивность светового потока и т.п. так же, как десять пальцев послужили основой для возникновения десятичной нумерации, различимость двух состояний той или иной технической системы легла в основу всех современных средств автоматической передачи информации.

Человек активно использует языки различных указателей, например, знаков дорожного движения или пиктограмм олимпийских видов спорта. 'Кроме того, человек использует ряд языков профессионального назначения. К ним относятся языки математических и химических формул.

1.5 Функции информации

При изучении феномена информации закономерно возникает вопрос о ее функциях. Их выделение - довольно не простая задача, и здесь почти невозможно дать такую классификацию функций, которая бы исключала «перекрещивание» их«в той или иной степени [90].

Одна из главных функций информации - это функция общения людей, т.е. коммуникативная. Она проявляется в передаче информации от источника к получателю и выполняющая особую роль в интеграционных процессах общества. Именно благодаря этой особенности информация может способствовать объединению человечества в единую взаимосвязанную глобальную цивилизацию, усиливая и объединяя при этом интеллектуальные ресурсы всей цивилизации, способствовать социальному прогрессу человечества.

Без информации невозможно управление, и, следовательно, правомерно вычленение управленческой функции информации как одной из наиболее важных. Известно, что само понятие «управление» имеет двойной смысл: управление может быть свойством системы и отношением ее к другим системам. Чаще всего управление рассматривается в первом варианте и информация в силу этого определяется как свойство кибернетических систем. Если же управление мыслится как отношение, скажем, общества и природы, где общество управляет неорганическими системами, то информация выступает как отношение, а не как свойство.

Управленческая функция неразрывно связана с коммуникативной. Мало того, коммуникативность информации, т.е. ее понимание, приемлемость для использования, позволяет выполнить управленческую функцию.

Информация может еще выполнять и познавательную функцию, которая выражает связь информации с познанием. При этом познавательная функция связана с коммуникативной и управленческой. С первой потому, что значительная часть информации в обществе передается в процессе общения; со второй - потому что знание приобретается не ради самого знания, а ради управления природными и социальными процессами.

1.6 Классификация информации

Информацию можно условно делить на различные виды, основываясь на том или ином ее свойстве или характеристике. На рис. 1.3. приведена обобщенная схема классификаций информации, данных в работах [27, 40, 90]. В основу классификации положено девять следующих принципов: форма общественного сознания, степень значимости, способ кодирования, сфера и место возникновения, стадия обработки, способ отображения, передачи и восприятия, стабильность.

Рис. 1.3. Классификация информации

По форме общественного сознания различают экономическую, политическую, правовую, научную, эстетическую, религиозную, философскую информации.

Экономическая информация - важнейшая часть информации, отражающая отношение людей в процессе материального производства и оказывающая влияние не только на экономику, но и на все важнейшие сферы общественного разделения труда и формы сознания.

Политическая информация охватывает, прежде всего, явления, факты и события политической жизни общества - отношения между классами, нациями, государствами. Эта информация выступает в качестве важного средства властвования и управления.

Правовая информация оперирует нормами, правилами, устанавливаемыми государством в соответствии с его целями и интересами, регулирует отношения и поведение людей.

Научная информация - это получаемая в процессе познания логическая информация, адекватно отображающая закономерности объективного мира и используемая в общественно-исторической парадигме.

Эстетическая информация - часть информации, доступная чувственному восприятию и составляющая аспект художественных образов (или их стороны, которая может так или иначе передаваться во времени и пространстве).

Религиозная информация - такая сторона и часть отображения человеком природных и социальных сил и процессов, в котором они обретают форму сверхъестественного.

Философская информация - часть информации, передаваемая -частным наукам и в другие сферы деятельности человека в качестве мировоззренческих и методологических знаний.

По общественному назначению (по степени значимости) информацию можно подразделять на массовую (общественную), специальную и личную.

Массовая информация подразделяется в свою очередь на:

общественно-политическую (получение из средств массовой информации);

обыденную (информация процесса повседневного общения);

научно-популярную (научно-осмысленный опыт всего человечества, исторические, культурные и национальные традиции).

Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации: станкостроительная, машиностроительная, инструментальная. Научная информация подразделяется на биологическую, математическую, физическую...

Личная информация - это знания, опыт, интуиция, умения, планы, прогнозы, эмоции, чувства, наследственная память конкретного человека.

По способу кодирования сигнала информацию можно разделить на аналоговую и цифровую.

Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столбика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число.

Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3) напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас ъ конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.

По сфере возникновения существует следующая классификация. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе -социальной. В природе, живой и неживой, информацию несут - цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей, возникла другая разновидность информации - произведения искусств. Кроме эстетической информации, в человеческом обществе создается семантическая информация как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой - эстетическая.

По месту возникновения информацию можно разделить на следующие виды.

Входная информация - это информация, поступающая в организацию или ее подразделения.

Выходная информация - это информация, поступающая из организации в другую организацию (подразделение).

Внутренняя информация возникает внутри объекта, внешняя информация - за пределами объекта.

По стадии обработки информация подразделяется На следующие виды.

Первичная информация - это информация, которая возникает непосредственно в процессе деятельности объекта и регистрируется на начальной стадии.

Вторичная информация - это информация, которая получается в результате обработки первичной информации и может быть промежуточной и результатной.

Промежуточная информация используется в качестве исходных данных для последующих расчетов.

Результатная информация получается в процессе обработки первичной и промежуточной информации и используется для выработки управленческих решений.

По способу отображения информация подразделяется на текстовую и графическую.

Текстовая информация - это совокупность алфавитных, цифровых и специальных символов, с помощью которых представляется информация на физических носителях (бумага, изображение на экране дисплея).

Графическая информация - это различного рода графики, диаграммы, схемы, рисунки и т.д.

По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной; ощущениями - тактильной; запахами - вкусовой. Информация, воспринимаемая оргтехникой и компьютерами, называется машинно-ориентированной информацией. Количество машинно-ориентирован ной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.

Около 80-90% информации человек получает при помощи органов зрения (визуально), примерно 8-15% при помощи органов слуха (аудиально), примерно 1-5% - при помощи остальных органов чувств (обоняния, вкуса, осязания).

По стабильности информация может быть переменной (текущей) и постоянной (условно-постоянной).

Переменная информация отражает фактические количественные и качественные характеристики производственно-хозяйственной деятельности предприятия. Она может меняться для каждого случая, как по назначению, так и по количеству.

Постоянная информация - это неизменная и многократно используемая в течение длительного времени информация.

Постоянная информация может быть справочной, нормативной, плановой. Постоянная справочная информация включает описание постоянных свойств объекта в виде устойчивых длительное время признаков. Постоянная нормативная информация содержит местные, отраслевые и общегосударственные нормативы в различных областях деятельности человека. Постоянная плановая информация содержит многократно используемые на предприятии плановые показатели производственных процессов.

Существуют и другие варианты классификации информации. Конкретный исследователь выбирает для себя ту или иную классификацию в зависимости от стоящей перед ним проблемы, от тех взаимосвязей, которые он изучает.

2. ХАРАКТЕРИСТИКИ ИНФОРМАЦИИ

2.1 Аспекты рассмотрения и адекватность информации

Существует три аспекта рассмотрения информации: синтаксический, семантический и прагматический [40].

Синтаксический аспект предполагает рассмотрение формы представления информации, не принимая во внимание ее содержание (смысл) и полезность. При этом учитываются тип формы носителя информации, способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как при этом не имеет значения смысловая сторона.

Семантический аспект имеет в виду степень соответствия образа объекта и самого объекта. Он предполагает учет смыслового содержания информации. При этом анализируются те сведения, которые отражает информация, рассматриваются смысловые связи между кодами представления информации. Этот аспект служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматический аспект отражает отношение информации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Этот аспект связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели.

В соответствии с существующими аспектами рассмотрения информации говорят о трех формах адекватности: синтаксической, семантической и прагматической:

Адекватность информации - это определенный уровень соответствия, создаваемого с помощью полученной информации образу реального объекта, процессу, явлению и т.п. Адекватность является очень важной характеристикой для потребителя информации. Дело в том, что в реальной жизни рассчитывать на полную адекватность информации вряд ли приходится. Всегда присутствует некоторая степень неопределенности, а от степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решений человеком.

2.2 Классификация мер информации

Для измерения информации вводятся два параметра: количество информации I и объем данных Vд

Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис. 1.4).

Рис. 1.4. Меры информации

Синтаксическая мера информации. Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных Vд, в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

1) в двоичной системе счисления единица измерения - бит (bit - binary digit - двоичный разряд). Бит - это ответ на один двоичный вопрос («да» или «нет»; «О» или «1»), передаваемый по каналам связи с помощью сигнала. Таким образом, содержащееся в сообщении количество информации в битах определяется количеством двоичных слов естественного языка, количеством знаков в каждом слове, количеством двоичных сигналов, необходимых для выражения каждого знака.

Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт

1 Мегабайт (Мбайт) = 1024 Кбайт

1 Гигабайт (Гбайт) = 1024 Мбайт

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

/ Терабайт (Гбайт) = 1024 Гбайт

1 Петабайт (Пбайт) = 1024 Тбайт

2) за единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы, т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Рассмотрим это понятие.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации /, содержащееся в выбранном сообщении, определяет как двоичный логарифм N. Расчетная формула Хартли имеет вид:

I = log2N или 2I = N.

Если N= 2 (выбор из двух возможностей), то I = 1 бит.

Иногда формула Хартли записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность р = I/N, то N = 1/р и формула имеет вид

I=iog2(1/p)=-log2p.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: / = Iog2100 = 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Приведем другие примеры равновероятных сообщений: при бросании монеты: «выпала решка», «выпал орел»; на странице книги: «количество букв чётное», «количество букв нечётное».

Определим теперь, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона выглядит следующим образом:

I=-(p1 Iog2 p1 +p2 Iog2p2 + . . . +pNlog2pN),

I

где pi - вероятность того, что именно i-e сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

Рассмотрим следующую ситуацию. Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе б. Мерой его неосведомленности о системе является функция Н(б), которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения в получатель приобрел некоторую дополнительную информацию Iв(б), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения в) неопределенность состояния системы стала Hв(б).

Тогда количество информации Iв(б) о системе, полученной в сообщении в, определится как:

Iв(б) = H(б) - Hв(б)

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность Hв(б) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Iв(б) = H(б). Иными словами, энтропия системы H(б) может рассматриваться как мера недостающей информации.

Энтропия системы H(б), имеющая N возможных состояний, согласно формуле Шеннона, равна:

где Pi - вероятность того, что система находится в i-м состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны Pi = 1/N, ее энтропия определяется соотношением

Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения

N=mn

где N-число всевозможных отображаемых состояний;

т - основание системы счисления (разнообразие символов, применяемых в алфавите);

п - число разрядов (символов) в сообщении.

Пример. По каналу связи передается п-разрядное сообщение, использующее т различных символов. Так как'количество всевозможных кодовых комбинаций будет N = тn, то при равновероятности появления любой из них, количество информации, приобретенной абонентом в результате получения сообщения, будет I= log N = n log т - формула Хартли. Если в качестве основания логарифма принять т, то I=n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = Vд, полученных по каналу связи. Для неравновероятных состояний системы всегда I < Vд =n.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

Y= I/Vд, причем 0 < Y < 1

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе, поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

Тезаурус - это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 1.5. Рассмотрим два предельных случая, когда количество семантической информации Ic равно 0:

при Sp = 0 пользователь не воспринимает, не понимает поступающую информацию;

при Sp = ? пользователь все знает, и поступающая информация ему не нужна.

Максимальное количество семантической информации Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp (Sp = Sp opt), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

Рис. 1.5. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса

Ic=f(SP)

При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему.

Прагматическая мера информации. Эта мера определяет полезность информации для достижения пользователем поставленной цели. Эта мера - также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

В экономической системе прагматические свойства информации можно определить приростом экономического эффекта функционирования, достигнутым благодаря использованию этой информации для управления системой:

I(г)=П(г/Р)-П(г),

где I(г) - ценность информационного сообщения в для системы управления г,

П(г) - априорный ожидаемый экономический эффект функционирования системы управления у,

П(г/Р)-ожидаемый эффект функционирования системы г при условии, что для управления использована информация, содержащаяся в сообщении в.

Для сопоставления введенные меры информации представим в табл. 1.1. будет

Таблица 1.1.

Единицы измерения информации и примеры

Мера информации

Единицы измерения

Примеры (для компьютерной области)

Синтаксическая

а) Шенноновский подход

- Степень уменьшения неопределенности

Вероятность события

б) Компьютерный подход

Единицы представления информации

Бит, байт, Кбайт и т.д.

Семантическая

Тезаурус

Пакет прикладных программ, персональный компьютер, компьютерные сети и т.д.

Экономические показатели

Рентабельность, производительность, коэффициент амортизации и т.д.

Прагматическая

Ценность использования

а) Емкость памяти, производительность компьютера, скорость передачи данных и т.д. б) Денежное выражение в) Время обработки информации и принятия решений

2.3 Свойства информации

Человек использует информацию для того, чтобы ориентироваться в окружающей обстановке и принимать правильное решение. Но не всякая информация может помочь ему в этом. Знание свойств информации может помочь человеку оценить в каждом конкретном случае, насколько решения, принятые на основе имеющейся информации, могут быть верными.

Во многих литературных источниках свойства информации рассматриваются как качественные признаки или характеристики. При этом существуют различные взгляды на классификацию свойств [8, 17, 21, 40, 65]. Мы же приведем обобщенный перечень классифицируемых свойств информации (рис. 1.6.).

1. Объективность. Информация - это отражение внешнего мира, а он существует независимо от нашего желания и сознания. Поэтому в качестве важного свойства информации можно выделить ее объективность. Информация объективна, если она не зависит от чьего-либо мнения, суждения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Для наглядности приведем пример. Сообщение «на улице тепло» несет субъективную информацию, а сообщение «на улице 22 градуса» - объективную информацию.

Но, отражаясь в сознании конкретного человека, информация перестает быть объективной, так как преобразовывается в зависимости от мнения, суждения, опыта.

2. Достоверность. Под достоверностью (истинностью, верностью) понимают степень приближения, соответствия между явлением или оригинал-объектом и его образом, заданным информацией, включенной в модельное описание явления или объекта [17].

Достоверность информации определяется путем ответа на следующие вопросы.

Являются ли данный факт или событие возможным вообще?

Не является ли информация противоречивой сама по себе?

В какой степени полученная информация соответствует имеющейся?

Если полученная информация не соответствует информации, полученной из других источников, то какую из них можно считать наиболее достоверной (т.е. возникает задача сопоставительной оценки информации с различным уровнем достоверности, как самой информации, так и источников информации)?

...

Подобные документы

  • Стратегическое значение информации в развитии общества. Информация её понятия и компоненты. Сведения,события и информация. Показатели, реквизиты и документы. Классификация объектов информации и её файловые структуры. Информационные ресурсы, базы данных.

    контрольная работа [40,2 K], добавлен 20.08.2015

  • Информатика - техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. Формы представления информации, ее свойства. Кодирование информации, единицы ее измерения.

    презентация [117,7 K], добавлен 28.03.2013

  • Информация и ее роль в жизни человека. Признаки информатизации общества, недостатки и преимущества этого процесса. Возможность и эффективность использования информации Решение прикладных задач (расчета ведомости) с помощью программ MS Excel и MS Access.

    курсовая работа [2,1 M], добавлен 30.10.2013

  • Понятие информационного общества, его культуры, ресурсов, продуктов, интерфейса и его виды. Сущность и предмет информатики, ее задачи. Данные и информация, методы кодирования и расчет параметров. Единицы измерения информации, характеристики ее качества.

    презентация [330,8 K], добавлен 19.12.2011

  • Сущностные характеристики информации. Классификация информации по форме представления, области возникновения, способу передачи и восприятия и способам кодирования. Анализ основных единиц измерения информации, служащих для измерения объёма информации.

    реферат [77,6 K], добавлен 04.10.2011

  • Информация и ее свойства. Единицы измерения данных. Вероятностный и объемный подход к измерению количества информации, способы ее передачи. Рассмотрение поставщиков финансовой информации в Интернете; технологии финансовых инвестиций в компьютерной сети.

    контрольная работа [61,5 K], добавлен 08.06.2013

  • Информация относится к фундаментальным, неопределяемым понятиям науки информатика. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным.

    шпаргалка [132,6 K], добавлен 27.06.2008

  • Изучение основных видов носителей от созданных с помощью примитивных манипуляций с природными материалами, до детищ новейших разработок нынешней науки и техники. Компьютеризированные носители информации. Физические и оптические параметры компакт–дисков.

    курсовая работа [71,3 K], добавлен 25.05.2014

  • Информация как неотъемлемая составляющая самоуправляемых систем, источники и потребители информации, символьная, текстовая и графическая формы ее представления. Информатика как наука, изучающая все аспекты получения, хранения и использования информации.

    контрольная работа [21,7 K], добавлен 07.02.2011

  • Дисковод (FDD) - это устройство, предназначенное для чтения информации с гибких магнитных дисков, а также записи на них (как правило, используется для переноса информации с одного компьютера на другой). Информация записывается на гибкий магнитный диск.

    контрольная работа [502,1 K], добавлен 28.02.2004

  • Сущность понятия "носители информации". Записи на песке и камне. Использование восковых дощечек в Древнем Риме. Технология изготовления папируса. Свойства бумаги как носителя информации. Принцип работы первых вычислительных машин. Жесткий магнитный диск.

    презентация [539,5 K], добавлен 08.02.2014

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Информация как объект хранения, преобразования и передачи. Объединение источников и получателей информации в информационную систему. Синтаксический, семантический и прагматический аспекты информации. Степень структуризации информационных данных.

    презентация [36,5 K], добавлен 14.10.2013

  • Информатика - наука об информации, технических средствах ее сбора, хранения, обработки, передачи. Носители информации, память. Носители информации вещество и поле. Процесс сообщения. Целенаправленная передача информации. Непрерывное и дискретное знания.

    автореферат [667,1 K], добавлен 08.06.2008

  • Анализ особенностей восприятия человеком окружающего мира. Обзор процессов, связанных с получением, хранением, обработкой и передачей информации. Описания технических устройств для автоматической обработки информации. Роль информации в жизни человека.

    доклад [10,9 K], добавлен 20.09.2012

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Основные понятия информатики. Информация, ее виды, свойства, единицы измерения и способы обработки. Командные строки для форматирования дискеты с переносом на неё операционной системы и создания файловой структуры. Программы, работающие на компьютере.

    контрольная работа [17,3 K], добавлен 13.04.2012

  • Информация и информационные процессы в природе, обществе, технике. Информационная деятельность человека. Кодирование информации. Способы кодирования. Кодирование изображений. Информация в кибернетике. Свойства информации. Измерение количества информации.

    реферат [21,4 K], добавлен 18.11.2008

  • Понятие и отличительные черты аналоговой и цифровой информации. Изучение единиц измерения цифровой информации: бит (двоичная цифра) и байт. Особенности передачи, методы кодирования и декодирования текстовой, звуковой и графической цифровой информации.

    реферат [479,4 K], добавлен 22.03.2010

  • Понятие информации как одно из фундаментальных в современной науке и базовое для информатики. Дискретизация входной информации как условие пригодности для компьютерной обработки. Понятия, виды, свойства информации, ее классификация. Информация и рынок.

    курсовая работа [31,0 K], добавлен 12.10.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.