Синергетическая теория информации: пояснения и терминологические замечания

История развития синергетической теории. Ее зависимость от синергетики Г. Хакена. Классификация видов синтропии. Принципиальное различие содержательной сущности информационной меры Р. Хартли и количества информации, самоотражаемой конечным множеством.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 29.04.2017
Размер файла 186,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Синергетическая теория информации: пояснения и терминологические замечания

Вяткин В.Б.

Введение

В работах [1-8], в том числе опубликованных в настоящем журнале [3-7], представлена синергетическая теория информации, которая является новым направлением в исследовании количественной стороны феномена информации. Эта новизна заключается в том, что если в традиционной теории информации, основанной на работах Р.Хартли [9] и К.Шеннона [10], информация рассматривается как нечто атрибутивно связанное с управлением, то в синергетической теории информации речь идет о другом виде информации, который существует независимо от управления и генетически ему предшествует.

Более конкретно - в традиционной теории информация представляет собой снятую неопределенность выбора одной из множества возможностей, а в синергетической теории под термином информация понимаются сведения о конечном множестве как едином целом. Соответственно, предметом познания синергетической теории информации являются информационно-количественные аспекты отражения конечных множеств (дискретных систем), как целостных образований.

В основе теории лежит вывод двух информационных формул, на которых базируются все дальнейшие теоретические построения. Это формула информации , отражаемой произвольным множеством А о самом себе как о целостном образовании (самоотражаемая множеством информация):

, (1)

и формула информации , которую отражают друг о друге, как едином целом, два пересекающихся конечных множества А и В, таких, что

:

, (2)

где - число элементов в составе множеств A, B, K.

С помощью формул (1) и (2) получен ряд новых информационно-теоретических результатов, к числу основных из которых, имеющих междисциплинарный характер, можно отнести следующее:

- Установлено, что при отражении дискретных систем через совокупности своих частей (подсистем) происходит разделение отражаемой информации на отраженную и неотраженную части (информационный закон отражения). При этом показано, что отраженная информация характеризует структуру системы со стороны ее упорядоченности, а неотраженная информация - со стороны хаотичности.

- Доказано, что при любых структурных преобразованиях дискретных систем, происходящих без изменения общего числа их элементов, сумма хаоса и порядка в структуре систем всегда остается постоянной величиной (закон сохранения суммы хаоса и порядка).

- Обосновано существование информационных границ взаимного отражения пересекающихся конечных множеств, при переходе через которые отраженные образы множеств становятся пустыми множествами.

- Разработана методика количественной оценки структурной организации и структурного развития дискретных систем с конечным множеством элементов.

- Показано, что при структурных преобразованиях дискретных систем происходят взаимные переходы друг в друга различных видов информации (вероятностного, который актуализируется при управлении и синергетического, существующего независимо от управления). При этом суммарное количество различных видов информации не изменяется (закон сохранения и превращения информации).

- Установлено, что любая система с конечным множеством элементов, в зависимости от количества частей, на которые она разбивается по значениям того или иного признака, однозначно попадает в один из трех интервалов на соответствующей числовой оси (левый, центральный, правый). При этом в каждом интервале структура системы имеет свои отличительные особенности, которые сохраняются при любых внутри интервальных преобразованиях системы и сводятся к тому, что в левом интервале наблюдается необратимое преобладание порядка над хаосом, а в правом интервале, наоборот, - необратимое преобладание хаоса над порядком. В центральном интервале, в свою очередь, преобладание как порядка над хаосом, так и хаоса над порядком является обратимым. Соответственно, любые дискретные системы с конечным множеством элементов, в зависимости от количества частей, на которые они разделяются в плоскости какого-либо признака, формализовано классифицируются на три типа: упорядоченные (левый интервал), синергетичные (центральный интервал), хаотичные (правый интервал).

Кроме того, установлено, что синергетическая теория информации и вероятностная теория информации К.Шеннона [10], имея предметом своего познания различные виды информации, и развиваясь независимо друг от друга на основе различных аксиоматических базисов, в то же самое время имеют между собой непосредственную математически выраженную взаимосвязь [2, 4, 8]. Это свидетельствует о том, что данные теории в своей совокупности образуют единую количественную теорию информации. (В определенной мере подобно тому, как в физике феноменологическая и статистическая термодинамики образуют единое учение о теплоте).

Разработка синергетической теории информации далека от своего завершения, но уже множатся примеры ее практического использования при решении разнообразных задач в различных предметных областях [11-22 и др.] и просто цитирования в научной литературе [23-33 и др.]. Кроме того, ссылки на нее можно обнаружить в ряде кандидатских [34-37] и докторских [38-40] диссертаций. Примечателен также и тот факт, что статья "Хаос и порядок дискретных систем в свете синергетической теории информации" [7] длительный период времени входит в ТОР-5 наиболее популярных статей по среднему числу просмотров за день в Научном журнале КубГАУ [41]. Наконец, можно указать и такую экзотическую форму признания теории и примеров ее практического использования, как групповой плагиат со стороны профильных специалистов [42, 43].

Вместе с тем, имеется ряд моментов, благодаря которым синергетическая теория информации не всегда находит свое адекватное понимание и порой воспринимается как некая специфическая надстройка тех или иных теоретических воззрений, фактически не имеющих отношения к ее содержательной сущности. Такими моментам, в первую очередь, являются:

- название теории, часто ошибочно воспринимаемое как генетически вытекающее из синергетики Г.Хакена [44];

- внешнее сходство формулы самоотражаемой множеством информации (1) с формулой Р.Хартли [9], которая является частным случаем информационно-энтропийной меры К.Шеннона [10], что иногда порождает иллюзию того, что разрабатываемая теория ассимилируется традиционной теорией информации;

- использование термина негэнтропия в названии информации, отражаемой друг о друге двумя пересекающимися множествами (2) (негэнтропия отражения), что вносит определенную путаницу в общее понимание этого термина и порой создает ложное впечатление, что синергетическая теория информации является развитием идей Л.Бриллюэна [45, 46].

Раскрытию, объяснению и коррекции этих моментов посвящена настоящая статья. Кроме того, поскольку в синергетической теории информации понятие информации неразрывно связывается с отражением, то также дается краткая характеристика соответствующих философских воззрений.

1. О названии "синергетическая теория информации"

Сразу нужно сказать, что синергетическая теория информации обязана своим названием не научной дисциплине "синергетика", которая по замыслу ее основоположника - немецкого физика Г.Хакена - объединяет различные подходы к изучению явлений самоорганизации открытых динамических систем [44], а исходному значению слова синергетика, которое в переводе с греческого языка означает совместный, согласованно действующий. Дело в том, что в данной теории рассматриваются информационные аспекты отражения конечных множеств как целостных образований. Элементы множеств при этом принимают участие в информационных процессах отражения одновременно всей своей совокупностью без какого-либо выделения любого из них в качестве самостоятельного события, результата испытания и т.п., как это принято делать в традиционной теории информации. Поэтому включение в название теории слова синергетическая представляется вполне оправданным. В связи с этим нужно заметить, что аналогичным образом обосновывал использование слова синергетика и Г.Хакен, говоря: "Я назвал новую дисциплину «синергетикой". В ней исследуется совместное действие многих подсистем, в результате которого на макроскопическом уровне возникает структура и соответствующее функционирование» [44, с.15].

Кроме того, обсуждая общее использование термина синергетика, следует сказать, что этим термином, независимо от учения Г.Хакена, широко пользовался американский архитектор, изобретатель и философ Р.Б.Фуллер Разнообразная плодотворная деятельность Ричарда Бакминстера Фуллера (США, 1895-1983) отмечена тем, что его именем названа одна из аллотропных форм углерода (фуллерен), а в 2004 году в США была выпущена почтовая марка с его изображением. [47], определивший синергетику как такое поведение целого, которое не предсказуемо на основе изучения его частей. При этом в качестве примера Р.Б.Фуллер приводил тот факт, что хром-никелевый сплав при своем растяжении демонстрирует прочность, в несколько раз превышающую прочность каждого из своих компонентов.

Синергетическая теория информации, возникнув и развиваясь независимо от традиционной синергетики Г.Хакена, в то же время имеет с ней объединяющее начало, которое заключается в том, что там и тут большое внимание уделяется общим вопросам организации (самоорганизации) системных образований в плоскости таких понятий как хаос и порядок. Но при этом содержательное наполнение данных понятий в обоих случаях принципиально различно. Так, например, хаос в синергетической теории информации имеет статический характер и связан с неоднородностью распределения элементов системы по значениям какого-либо признака [2, 4, 7, 8], а в традиционной синергетике хаос является динамическим и выражает случайный характер движения систем в фазовом пространстве, то есть актуализируется как непредсказуемый случайный процесс [44, 48-50].

В случае порядка все, соответственно, наоборот. Иначе говоря, рассматривая систему со стороны хаоса и порядка в i-й момент времени, в синергетической теории информации нас интересует соответствующая данному моменту внутренняя структура системы, а в традиционной синергетике, в первую очередь, - предсказуемость перехода системы в то или иное состояние в следующий момент времени, то есть возможность экстраполяции ее фазовой траектории.

С другой стороны, по замечанию известного специалиста в области синергетики Ю.Л. Климонтовича, "основная задача синергетики - выявление общих идей, методов и закономерностей в процессах самоорганизации в различных областях естествознания и социологии" [48, c.60]. К аспектам решения этой задачи можно отнести тот факт, что с помощью синергетической теории информации обнаружены общие закономерности структурной организации реальных дискретных систем различной природы со стороны соотношения в их структуре хаоса и порядка [7, 8].

Это говорит о том, что синергетическая теория информации может быть включена в арсенал средств познания традиционной синергетики, что, в свою очередь, согласуется с высказыванием Г. Хакена о том, что "синергетику можно рассматривать как форум, на котором ученые разных дисциплин встретились друг с другом для того, чтобы обменяться своими идеями, как справиться с большими системами" [цит. по 51, с.9].

Таким образом, название "синергетическая теория информации" является обоснованным, как со стороны дословного значения термина синергетика, так и со стороны междисциплинарного научного направления "синергетика".

2. О сходстве и различии формулы самоотражаемой множеством информации и информационной меры Р. Хартли

На первый взгляд может показаться, что формула самоотражаемой множеством информации (1) представляет собой информационную меру Р.Хартли [9], взятую при единичном выборе и двоичном основании логарифма, к которой при одинаковой вероятности событий сводится также информационно-энтропийная мера К.Шеннона [10]:

, (3)

где N - разнообразие элементов множества по какому-либо признаку .

Между тем, формулы (1) и (3) получены различными путями и имеют только внешнее формально-математическое сходство, что видно хотя бы из того, что их аргументы и N характеризуют множество с разных сторон. Соответственно, в одной и той же ситуации и Н, в общем случае, имеют различные значения, причем . В этом можно убедиться на примере буквенных последовательностей (систем) конечной длины, информационные оценки которых по формулам (1) и (3) приведены в таблицах 1 и 2.

Таблица 1

Буквенная последовательность

N

H

1

a,b,c,d,e,f,g,h

8

8

3

3

2

a,a,b,b,c,c,d,d

8

4

3

2

3

a,a,a,a,b,b,b,b

8

2

3

1

4

a,a,a,a,a,a,a,a,

8

1

3

0

Таблица 2

Буквенная последовательность

N

H

1

a,b

2

2

1

1

2

a,a,b,b

4

2

2

1

3

a,a,a,a,b,b,b,b

8

2

3

1

Из табл. 1 видно, что не зависит от разнообразия букв, образующих последовательность, а табл. 2, в свою очередь, показывает, что H не зависит от общей длины буквенной последовательности. Иначе говоря, самоотражаемая множеством информация (1) и информационная мера Р.Хартли (3) инвариантны относительно друг друга, а их значения равны между собой только в частном случае, когда .

Сказанное относится к частному случаю информационной меры Р.Хартли и может вызвать ложное предубеждение, что формулы (1) и (3) просто являются различными реализациями одной и той же комбинаторной формулы количества информации, представляющей собой двоичный логарифм числа элементов какого-либо конечного множества, которое, по замечанию А.Д.Урсула, может быть представлено "и количеством случайных событий, и количеством возможностей, и наличным количеством каких-то предметов и т.д." [52, с.37]. Покажем, что это не так, и вскроем глубинные различия формул (1) и (3), для чего обратимся к их генезису.

Самоотражаемая множеством информация (1) представляет собой среднюю длину интегративных кодов элементов, которые могут быть поставлены в соответствие каждому из них при рассмотрении множества в качестве единого целого. В работах [1, 3] показано, что интегративный код элементов при этом может быть составлен с помощью только двоичного алфавита . В противном случае, при числе символов алфавита , возникают нарушения монотонного возрастания средней длины кодов и информации по мере увеличения общего числа элементов множества . Соответственно, за самоотражаемую множеством информацию принята средняя длина интегративных кодов при , точная формула которой имеет вид:

, (4)

где - целочисленная часть .

При этом установлено, что на всем множестве возможных значений отклонение от (см. рис. 1) ограничено постоянной величиной

,

что наглядно демонстрирует рис. 2.

Поэтому в качестве практической меры информации , самоотражаемой конечным множеством A с числом элементов , вместо относительно громоздкого выражения (4) принята его аппроксимация Аппроксимация (от лат. Approximo - приближаюсь) - замена одних математических объектов другими, в том или ином смысле близкими к исходным. Аппроксимация позволяет исследовать числовые характеристики и качественные свойства объекта, сводя задачу к изучению более простых или более удобных объектов (например, таких, характеристики которых легко вычисляются или свойства которых уже известны) (БСЭ). в виде формулы (1), то есть:

Рисунок 1. Графики функций и

Рисунок 2. График разности

Информационная мера Р.Хартли, в свою очередь, была изначально получена для целей сравнительного анализа пропускной способности различных систем технической связи [9]. Р.Хартли исходил из того, что при передаче сообщения с помощью N-символьного алфавита каждому символу сообщения соответствует единичный выбор из N возможностей. Следовательно, для того, чтобы передать сообщение из n символов по техническому каналу связи, необходимо осуществить n таких выборов. При этом сообщение в целом, как единая n-символьная последовательность, является реализацией одной из возможных таких последовательностей. Дальнейший вывод информационной меры является довольно коротким, поэтому для соблюдения адекватности приведем его полностью.

"Будем произвольно считать, что количество информации пропорционально числу выборов, а коэффициент пропорциональности выберем таким образом, чтобы равным числам возможных последовательностей соответствовали равные количества информации. Пусть в какой-либо системе количество информации, связанное с n выборами, есть

(5)

где K - константа, зависящая от числа N возможных при каждом выборе символов. Возьмем две системы, в которых N имеет значения и , и пусть соответствующие константы будут и . Определим эти константы следующим условием: если числа выборов n1 и n2 в двух системах таковы, что возможных последовательностей в обеих системах одинаково, то одинаково и количество информации, т.е. если

,

то

,

откуда

.

Это соотношение справедливо для всех значений N только тогда, когда K связано с N соотношением:

,

где одинаково для всех систем. Так как произвольно, то его можно опустить, оставляя основание логарифмов произвольным. Выбор того или иного основания определяет единицу измерения информации. Подставляя значение K в (5), имеем:

(6)

Сделанное нами сводится, следовательно, к тому, что в качестве практической меры информации мы берем логарифм числа возможных последовательностей символов" [9, с.11-12].

Наиболее широкую известность мера Р.Хартли (6) получила при и двоичном основании логарифма, то есть в виде формулы (3). Более того, непосредственно с формулы (3), как правило, начинается сейчас и изложение собственно комбинаторного подхода к определению количества информации. Так, например, академик А.Н.Колмогоров в своей известной статье "Три подхода к определению понятия "количество информации" [53], изложение комбинаторного подхода начинает следующим образом: "Пусть переменное х способно принимать значения, принадлежащие конечному множеству X, которое состоит из N элементов. Говорят, что «энтропия" переменного х равна

Указывая определенное значение х = а переменного х, мы "снимаем" эту энтропию, сообщая "информацию" [53, с.3]

. (7)

Каких-либо замечаний по поводу того, почему используется именно двоичный логарифм, А.Н.Колмогоров при этом не делает, принимая основание "2" как за нечто данное. Возможно, это потому, что еще за восемь лет до опубликования данной статьи он говорил, что "способ измерения количества информации при помощи сравнения любой информации с информацией в виде некоторого числа двоичных знаков стал сейчас стандартным в теории информации" [54, с.31]. В связи с этим можно заметить, что слова "стал сейчас стандартным" не являются научным обоснованием в строгом смысле этого слова, а отражают лишь факт предпочтительного удобства использования двоичных логарифмов в теоретической и практической деятельности, связанной с передачей, хранением и переработкой информации.

В отличие от произвольного основания логарифма в первоначальной мере Р.Хартли (6) и практического выбора двоичного логарифма в выражениях (3) и (7), в формуле самоотражаемой множеством информации (1), как это следует из ее выше описанного вывода, никакое другое основание логарифма, кроме "2", не допускается. В противном случае, фрагментарно нарушается монотонный характер увеличения информации с ростом числа элементов множества. Например, при основании "10" для всех будем иметь . (При этом имеется в виду, что длина интегративного кода, как последовательности символов, может принимать только целочисленные значения.) То есть основание логарифма "2" в формуле (1) имеет теоретическое, а не эмпирическое, как в (3) и (7), обоснование (подробности в работах [1, 3]).

Описанный генезис формул (1) и (3) свидетельствует о том, что они отличаются друг от друга не только своими аргументами, но и всем ходом рассуждений, на основе которых они получены, то есть являются принципиально различными мерами информации. Более того, если формулу самоотражаемой множеством информации (1) можно применять для информационной оценки любого конечного множества без каких-либо дополнительных сведений о нем, то для корректного практического использования меры Р.Хартли (3) и (6) необходимо знание условий формирования множества. Иначе говоря, при оценке количества информации по формулам (3) и (6) получатель информации должен знать, с помощью какого именно алфавита составлено сообщение. В противном случае оценка количества информации будет далеко не всегда адекватной и однозначной. Покажем это на конкретном лингвистическом примере и будем при этом информацию в формуле (6) обозначать как .

Пусть имеется телеграфное сообщение без предлогов в виде следующего текста из восьми символов (пробел "-" учитывается как символ)

Русскоязычный читатель будет считать, что этот текст написан на русском языке с помощью русского алфавита ( при равнозначности е - ё и ь - ъ), а его смысл заключается в том, что какое-то море или его участок загрязнены посторонними предметами. Соответственно, количество информации, приходящейся на один символ сообщения по формуле (3) равно , а общее количество информации, содержащейся в сообщении, по формуле (6) составляет .

В том случае, если сообщение (8) попадет к англоязычному читателю, то оно будет воспринято, как составленное с помощью латинского алфавита . А поскольку на английском языке слова сообщения могут означать СОР [ k?p] - полицейский, а МОРЕ [m?up] - угрюмый человек, то содержание сообщения для его получателя может представлять собой информацию о том, что некий полицейский является неприветливым хмурым человеком. Количество информации на один символ по Р.Хартли в этом случае равно , а для всего сообщения .

Если же рассматривать текст (8) чисто формально, как просто существующую саму по себе последовательность символов, то с помощью меры Р.Хартли мы можем, строго говоря, оценить только разнообразие символов текста, причем разнообразие в смысле У.Р.Эшби [55], которое не учитывает частоту встречаемости символов У.Р. Эшби в отношении символьных множеств писал, что «если порядок, в котором расположены элементы, игнорируется, то множество c, b, c, a, c, c, a, b, c, b, b, a, содержащее двенадцать элементов, содержит только три различных элемента: a, b и с. О таком множестве будет говориться, что оно имеет разнообразие в три элемента» [55, c.178].. В этом случае мы должны принять, что сообщение (8) составлено с помощью алфавита из шести символов "-", Е, М, О, Р, С и, соответственно, , .

В свою очередь, информационная оценка текста (8) с помощью формулы (1) является однозначной, и независимо от каких-либо условий показывает, что текст отражает о самом себе, как едином целом, количество информации, равное . Причем значение не совпадает ни с одной из оценок, полученных с помощью меры Р.Хартли.

Таким образом, на примере телеграфного сообщения (8) мы убедились, что при информационном анализе одного и того же множества с помощью меры Р.Хартли можно получить различные результаты, зависящие от условий рассмотрения множества. В то же время, количество информации, самоотражаемой множеством, всегда остается постоянной величиной и не зависит от каких-либо условий. Это лишний раз говорит о том, что формулы (1) и (3) по своей содержательной сущности являются принципиально различными информационными мерами.

3. Характеристика информации с позиций отражения

В синергетической теории информации количественные аспекты информации рассматриваются с позиций воспроизведения конечных множеств как друг через друга , так и через самих себя , то есть с позиций отражения. Тем самым, в определенной мере, формализуются философские воззрения о неразрывной взаимосвязи понятия информация с категорией отражение. Впервые на эту взаимосвязь указал в 1959 году И.Б. Новик [57], а наиболее обстоятельное ее рассмотрение провел в ряде своих работ А.Д. Урсул [52, 58, 59], который, учитывая исследования Р.Хартли [9], К.Шеннона [10] и У.Р.Эшби [55], пришел к заключению, что информацию "можно определить в самом общем случае как отраженное разнообразие" [58, с.284]. Но при этом было оговорено, что "при определении тех или иных особенных форм понятия информации более важным может оказаться не признак разнообразия, а какой-либо иной" [59, с.29]. К таким "особенным формам" можно отнести информации и , которые, как это следует из предыдущего раздела, не могут интерпретироваться как отраженное разнообразие. Эти разновидности информации связаны с объединением всех элементов множества в единое неделимое целое и, соответственно, в философском отношении понятие информация в данных разновидностях выступает как отраженное целое.

Сказанное лишний раз свидетельствует о том, что информация, фигурирующая в традиционной теории информации Хартли-Шеннона (отраженное разнообразие) и информация, рассматриваемая в синергетической теории информации (отраженное целое), являются различными видами информации, каждый из которых имеет свое автономное существование.

4. О необходимости замены названия "негэнтропия отражения"

4.1 Генезис словосочетания негэнтропия отражения

Начиная с ранних работ по анализу информационных аспектов отражения конечных множеств [60-63], информация , которую отражают друг о друге два пересекающихся множества, именуется как "негэнтропия отражения". Первый раз формула (2) была опубликована автором в 1989 году [64] и выражала собой «информацию отражения». Исторически вывод формулы (2), выражающей количество этой информации, был инициирован проблемой совершенствования методики информационной оценки признаков при прогнозе месторождений полезных ископаемых. Автор, будучи по образованию геофизиком, длительное время работал в геологических организациях Министерства геологии СССР и Министерства природных ресурсов России, занимаясь вопросами прогноза месторождений полезных ископаемых с помощью математических схем принятия решений. Эта проблема заключалась в том, что способы оценки информативности геологических признаков, основанные на вероятностной теории информации К.Шеннона [65-69], дают неустойчивые, ситуационные результаты, что может приводить к общей противоречивости прогнозных заключений [61, 70-72]. Оценка же информативности признаков с помощью формулы (2) свободна от этих недостатков, что неоднократно было подтверждено на практике при проведении прогнозно-геологических исследований в производственных условиях [73, 74].

Сначала формула (2) была получена эмпирическим путем на основе интуитивных представлений о том, что количество информации должно, во-первых, находиться в прямой зависимости от числа элементов в области пересечения множеств

и в обратной зависимости от числа элементов в дополняющих множествах и , а во-вторых, выражаться в битах, чтобы легитимно являться информационной мерой. Эти условия были выполнены, но получаемые при этом по формуле (2) информационные оценки множеств, противоречили традиционным подходам к определению количества информации (комбинаторному и вероятностному), идущим от работ Р.Хартли и К.Шеннона. В частности, явное такое противоречие можно видеть в том, что при наиболее сильной взаимосвязи множеств информация, отражаемая множествами друг о друге, по формуле (2) принимает максимальное значение, в то время как согласно традиционным подходам она должна быть равна нулю, что само по себе является нонсенсом. (При множества, выделенные по признакам и , состоят из одних и тех же элементов, которые в плоскости этих признаков неотличимы друг от друга. Соответственно, среди элементов нет разнообразия и нет выбора, а следовательно, по Хартли и Шеннону нет никакой информации.) Поэтому, полученную эмпирическим путем формулу (2) нужно было как-то терминологически обособить, чтобы отличать от традиционных мер информации.

При выборе специального названия для информации внимание, прежде всего, было обращено на два момента. Во-первых, формула (2) нашла идеологическую поддержку в лице философских представлений о диалектической взаимосвязи понятия информация с категорией отражение. (См. предыдущий раздел 3.) Во-вторых, в тезаурусе общей теории информации имелся относительно близкий по своему смыслу термин негэнтропия, введенный в научный обиход в 1950-х годах Л.Бриллюэном [45, 46] в качестве замены словосочетания отрицательная энтропия, которым пользовался Э.Шредингер [75]. Эта близость тогда - 20 лет назад - виделась в следующем. - Согласно негэнтропийному принципу информации Л.Бриллюэна "информация представляет собой отрицательный вклад в энтропию" [46, с.34], а последняя, выйдя после работ К.Шеннона [10] и Н.Винера [76] за пределы термодинамики, сейчас широко трактуется как мера неопределенности, хаотичности, дезорганизации чего-либо [77-79]. В этом контексте негэнтропия является информацией, которая уменьшает неопределенность и численно равна разности априорной и апостериорной энтропий. Информация же , в свою очередь, с гносеологических позиций может интерпретироваться как снятая неопределенность отражения, что в некоторой степени согласуется с указанным пониманием негэнтропии. Поэтому, учитывая сказанное, информации , выражаемой с помощью формулы (2), было дано название негэнтропия отражения.

4.2 Критический анализ словосочетания негэнтропия отражения

Описанный генезис названия негэнтропия отражения относится к первоначальному этапу познания информационно-количественных аспектов отражения конечных множеств, когда исследования велись в русле решения прогнозно-геологических задач и имели ярко выраженный эмпирический характер. Сейчас эти исследования имеют под собой аксиоматический базис, а их интегральным результатом является синергетическая теория информации. При этом в процессе развития данной теории возникли определенные моменты, с позиций которых название негэнтропия отражения для информации представляется не совсем удачным. К таким моментам, в первую очередь, относится следующее.

Во-первых, в разрабатываемой теории формула (2) получена уже аналитическим путем, причем независимо от тех требований, которые априорно предъявлялись к ней при ее эмпирическом выводе. При этом в процессе вывода формулы какая-либо речь о таком понятии как энтропия не ведется. Термин же негэнтропия генетически вытекает из энтропии и предполагает актуальное наличие последней, как неопределенности выбора одной из множества возможностей или неопределенности состояния, в котором находится та или иная физическая система. Эти виды неопределенности к выводу формулы (2) отношения не имеют, а потому присутствие в ее названии слова негэнтропия выглядит не достаточно корректным. В связи с этим следует признать, что введение в оборот словосочетания негэнтропия отражения было вынужденной мерой, обусловленной отсутствием (или незнанием) более подходящего термина для информации , чем негэнтропия.

Во-вторых (и это более важный момент), при анализе отражения системы А через совокупность ее частей , с помощью формулы (2), выражающей отраженную информацию, получена формула неотраженной информации, которая будучи названной энтропией отражения (S), оказалась математически тождественной энтропии Шеннона. То есть в синергетической теории информации при анализе отражения дискретных систем, как целостных образований, перед нами в хронологической последовательности предстают три разновидности информации: отражаемая информация отраженная информация

неотраженная информация

.

Включение при этом в название отраженной информации термина негэнтропия выглядит нелогичным, поскольку энтропия в данном случае, замыкая приведенную последовательность, является вторичной выводимой функцией и выступает лишь в качестве одной из разновидностей информации, которая апостериорно характеризует неадекватность отражения системы через совокупность своих частей. Можно также сказать, что, называя отраженную информацию негэнтропией отражения, мы без достаточных на то оснований как бы предвосхищаем появление энтропии, и тем самым, образно выражаясь, ставим телегу впереди лошади.

Кроме указанных негативных моментов использование словосочетания негэнтропия отражения вносит также определенную путаницу в общее понимание термина негэнтропия и порой создает не соответствующую действительности иллюзию того, что синергетическая теория информации является развитием идей Л.Бриллюэна. Все это диктует необходимость отказа от употребления в данной теории термина негэнтропия и его замены каким-то иным термином, более адекватно соответствующим сущности выражения (2).

5. Синтропия

Учитывая приведенный критический анализ названия "негэнтропия отражения", информацию, которую отражают друг о друге два пересекающихся конечных множества, предлагается назвать греческим словом синтропия. На русский язык это слово может быть переведено как сообраз, взаимная связь образов, совместный путь, сродство (приставка syn- соответствует приставке со-, а корень trop может иметь ряд значений, среди которых образ, путь, манера). Представляется, что такое название более адекватно соответствует содержательной сущности информации, выражаемой с помощью формулы (2), поскольку величина этой информации тем больше, чем больше пересекающиеся множества проникают друг в друга, формируя при этом совместный образ в виде нового множества, и отражая тем самым свою непосредственную взаимосвязь. То есть, можно принять, что в синергетической теории информации синтропия - это информация, которую отражают друг о друге, как едином целом, два пересекающихся конечных множества.

Ранее термин синтропия в теории информации не применялся, но имеются прецеденты его использования в других предметных областях. Поэтому целесообразно осветить общую историю этого термина.

Впервые термин синтропия стали использовать в 1921 году немецкие педиатры М.Пфаундлер и Л.Зехт [80], которые назвали синтропией "взаимную склонность, притяжение" двух болезней (в противоположность дистропии, те есть "взаимному отталкиванию"). Термин был воспринят медицинским сообществом и сейчас довольно широко используется при анализе полипатических явлений (сочетанной патологии), в том числе, проводимом на генетическом уровне [81, 82].

Позднее, независимо от медицинских исследований, термином синтропия стал пользоваться ряд ученых (Л.Фантаппи, А.Сент-Дьерди, Р.Б.Фуллер) для обозначения того, что противоположно по своему смыслу энтропии и присуще живой материи. Пионером в данном отношении выступил итальянский математик Л.Фантаппи [83, 84], который, занимаясь совместным анализом решения уравнений квантовой механики и специальной теории относительности, заострил внимание на том, что запаздывающие волны расходятся от источника, расположенного в прошлом, а опережающие волны, наоборот, сходятся к "источнику" (аттрактору), находящемуся в будущем. Интерпретируя расхождение волн (дивергенцию) как энтропию, противоположному явлению - схождению волн (конвергенции) - Л.Фантаппи дал название синтропия (полагая, что дословное значение этих терминов может быть выражено следующим образом: энтропия - entropy (en=diverging, tropos=tendency), синтропия - syntropy (syn=converging, tropos=tendency) [85]).

Исходя из этого Л.Фантаппи пришел к индуктивному заключению, что в причинно-временном отношении в природе существует два типа явлений: явления, причина которых находится в прошлом (причинно-следственные взаимосвязи) и явления, "причина"-аттрактор которых расположена в будущем (так называемый финализм, то есть предопределенное движение к цели). Причем к первому типу относятся физические и химические явления, подчиняющиеся закону возрастания энтропии (второму началу термодинамики), а ко второму типу - биологические явления, управляемые неким симметричным законом, которому Л.Фантаппи дал название закон синтропии [84]. Соответственно, во временном отношении явления первого типа сопровождаются рассеянием энергии, дезорганизацией и разупорядочиванием, а явления второго типа характеризуются концентрацией энергии и нарастанием порядка, организованности.

Интегральным результатом рассуждений Л.Фантаппи явилась "Объединенная теория физического и биологического мира", которую он доложил в 1942 году на заседании Академии наук Италии [83]. Однако, эта теория не получила широкого признания, а закон синтропии, выражающий финализм биологических явлений, был воспринят большинством ученых как "метафизический" ненаучный принцип. (Сам Л.Фантаппи по этому поводу огорченно говорил, что "такое отношение является препятствием на пути спокойного изучения реально существующих явлений второго типа" [84].) В связи с этой коллизией следует отметить осторожно-взвешенное отношение к работам Л.Фантаппи со стороны Л.Бриллюэна, негэнтропия которого, генетически вытекающая из представлений Э.Шредингера о физической сущности жизни [75], является родственным понятием по отношению к синтропии Л.Фантаппи (иногда их даже считают синонимами [86, 87]).

С одной стороны, отмечая неожиданность попытки объяснить финальность биологических явлений с помощью опережающих волн, Л.Бриллюэн задает критический вопрос: "О волнах какого рода здесь идет речь?". Полагая при этом, что о световых волнах в данном случае говорить нельзя, поскольку "трудно возложить на световые волны ответственность за биологию" [46, с.107].

С другой стороны, не отрицая общую идею формализованного выражения финализма биологических явлений, он говорит, что "в современной физике почти все представляется с помощью волн, и, возможно, мы позднее обнаружим, что и в биологии доминирующую роль может играть какая-то волна. В настоящий момент этот вопрос остается открытым" [46, с.107].

При этом обращает на себя внимание тот факт, что, комментируя работы Л.Фантаппи, Л.Бриллюэн как бы забывает про термин синтропия, возможно, не желая его афишировать.

С иных позиций, нежели чем Л.Фантаппи, к использованию термина синтропия для обозначения того, что противостоит энтропии, подошел венгерский физиолог, лауреат Нобелевской премии А.Сент-Дьерди [88-90], который в 1974 году, популяризируя синтропию, предложил научному сообществу отказаться от употребления термина негэнтропия, заменив его синтропией. А.Сент-Дьерди исходил из того, что объекты неживой природы с течением времени, подчиняясь второму началу термодинамики, претерпевают деструкцию и переходят к простым формам своего существования, в то время как живые организмы в процессе развития все время усложняются и повышают уровень своей организации. На этом основании он постулировал существование в природе некой "жизненной силы" в виде "отрицательной энтропии", которой дал название синтропия. То есть, согласно А.Сент-Дьерди, в процессе биологической эволюции нарастанию энтропии противостоит синтропия, которая выражается во врожденном стремлении живой материи к самосовершенствованию (принцип синтропии).

Научное сообщество, несмотря на высокий статус А.Сент-Дьерди как нобелевского лауреата, подвергло критике его синтропийные взгляды на биологическую эволюцию и расценило принцип синтропии как одну из разновидностей витализма Виталимзм (от лат. vitalis - «жизненный») - философское направление, утверждающее наличие в организмах нематериальной сверхъестественной силы, управляющей жизненными явлениями - «жизненной силы». (Википедия.) [90].

Попытки популяризировать синтропию, как то, что противостоит энтропии и олицетворяет движение к порядку и гармонии, предпринимал также Р.Б.Фуллер [91-93], который говорил, что "неумолимый путь постепенного исчерпания энергии вселенной, то есть энтропия, - всего лишь часть картины. Энтропия имеет свою противоположность, которую мы назвали синтропией" [91, p.51].

Изложенное свидетельствует о том, что использование термина синтропия имеет междисциплинарный характер, а его содержательная интерпретация при этом не является однозначной. Поэтому, чтобы избегать омонимичной путаницы, целесообразно дать общую классификацию различных видов синтропии, отражающую их внутреннее содержание. При этом предварительно отметим, что каждая из синтропий Л.Фантаппи, А.Сент-Дьерди и Р.Б.Фуллера подразумевает развитие окружающего мира по сценарию явлений второго типа (по Л.Фантаппи), то есть движение материи в сторону упорядоченности и организованности, вследствие чего их можно объединить общим названием - эволюционная синтропия. С учетом этого дадим следующую классификацию синтропий (в хронологическом порядке):

- медицинская синтропия (синтропия Пфаундлера - Зехта);

- эволюционная синтропия (синтропия Фантаппи - Сент-Дьерди - Фуллера);

- информационная синтропия (синтропия Вяткина).

По своему содержательному наполнению эти синтропии довольно далеки друг от друга. Вместе с тем, их количественная оценка может производиться в одном ключе, и этим ключом является формула информационной синтропии (2). Действительно, поскольку медицинская синтропия означает совместное протекание двух болезней А и В, то ее можно легко количественно оценить с помощью формулы (2), если при анализе соответствующей совокупности больных принять, что: - число случаев заболевания болезнью А; - число случаев заболевания болезнью В; - число случаев одновременного заболевания болезнями А и В. При этом, в целях объективного сравнения синтропийных оценок различных пар болезней, получаемые результаты следует нормировать, представляя их в виде значений относительной синтропии

, .

В свою очередь, в отношении количественной оценки эволюционной синтропии можно сказать следующее. - В работах [2, 4, 8] показано, что при отражении дискретной системы А через совокупность своих частей аддитивная синтропия

,

как отраженная информация, всегда меньше, чем информация , которую отражает система А сама о себе, как едином целом. При этом та часть информации, которая остается неотраженной

,

именуется как энтропия отражения. В этих же работах также показано, что по отношению к структуре отражаемой системы аддитивная синтропия и энтропия отражения выступают в качестве мер упорядоченности и хаотичности, соответственно. Причем энтропия отражения математически тождественна (но только математически) энтропии К.Шеннона, которая при определенных условиях, с точностью до постоянного множителя, равна энтропии Больцмана-Планка, статистически выражающей второе начало термодинамики. Отсюда следует, что значения аддитивной информационной синтропии и термодинамической энтропии изменяются противоположным образом.

Поэтому информационная синтропия может служить количественной характеристикой эволюционной синтропии. (Конечно, это относится только к статистическим исследованиям, когда объекты познания в каждый i-й момент времени могут быть представлены в виде конечного множества элементов.) При этом особо следует подчеркнуть, что информационная синтропия определяется независимо от энтропии, что делает соответствующую оценку эволюционной синтропии также независимой от каких-либо энтропийных предопределений.

В то время, как последователи Л.Фантаппи [94] пытаются придать его синтропии математическую форму, используя энтропию К.Шеннона Сам Л.Фантаппи, будучи профессиональным математиком, не оставил после себя приемлемой для расчетов формулы синтропии. Как отмечает Mario Ludovico, «Фантаппи, возможно, не хватило времени, чтобы перевести понятие «синтропия» из предварительного философского определения в математически подходящую формулировку» [94, p.199]. В 2004 году Ulisse Di Corpo, с разрешения родственников Л.Фантаппи, получил доступ к его личному каталогизированному архиву и с удивлением обнаружил, что все документы, касающиеся синтропии, загадочным образом исчезли. Причем исчезли только именно эти документы [95].. При этом в качестве оценки принимается разность между максимальной и фактической энтропией. То есть, по сути дела, определяется негэнтропия Л.Бриллюэна После работ Л.Бриллюэна негэнтропия употребляется, главным образом, в двух значениях: как количество информации, равное разности между начальной (до получения сообщения) и конечной (после получения сообщения) энтропий, и как величина, обратная энтропии, выражающая упорядоченность материальных объектов [96]. .

Таким образом, можно констатировать, что информационная синтропия , первоначально выражая взаимосвязь абстрактных конечных множеств, имеет универсальный характер и может служить количественной характеристикой других видов синтропии.

синергетический синтропия хакен хартли

Заключение

Статья имеет разноплановый характер и преследует своей целью как разъяснение отдельных моментов синергетической теории информации, так и совершенствование ее терминологического базиса. Соответственно, к основным результатам выполненной работы относится следующее:

- показано, что синергетическая теория информации не имеет генетической связи с синергетикой Г.Хакена и в сравнении с последней иначе рассматривает такие понятия как хаос и порядок;

- как теоретически, так и практически на конкретных примерах, дано разъяснение того, что формула информации, самоотражаемой конечным множеством, и двоичный логарифм Р.Хартли числа равновероятных возможностей являются принципиально различными и иформационными мерами;

- с философских позиций сделано заключение, что информация, с которой оперирует синергетическая теория информации, представляет собой отраженное целое;

- проведен критический анализ словосочетания негэнтропия отражения, как названия информации, которую отражают друг о друге два пересекающихся конечных множества, и обоснована замена этого словосочетания термином синтропия;

- сделан междисциплинарный обзор использования термина синтропия в научных исследованиях и дана соответствующая классификация различных видов синтропии.

В целом изложенный материал может рассматриваться как один большой комментарий различных моментов синергетической теории информации, направленный на более четкое проявление ее контура, как самостоятельного научного направления в исследовании количественной стороны феномена информации.

Литература

1. Вяткин В.Б. Синергетический подход к определению количества информации // Информационные технологии. - 2009, № 12. - С. 68-73.

2. Вяткин В.Б. Введение в синергетическую теорию информации // Информационные технологии. - 2010, № 12. - С. 67-73.

3. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №44(10). С. 166-189. Режим доступа: http://ej.kubagro.ru/2008/10/pdf/12.pdf

4. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных систем в плоскости признаков их описания // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1). С. 154-183. Режим доступа: http://ej.kubagro.ru/2009/01/pdf/12.pdf

5. Вяткин В.Б. Синергетическая теория информации. Часть 3. Информационные функции и энтропия Больцмана // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №46(2). С. 165-174. Режим доступа: http://ej.kubagro.ru/2009/02/pdf/11.pdf

6. Вяткин В.Б. Синергетическая теория информации. Часть 4. Квантовые аспекты отражения конечных множеств // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2011. - №05(69). С. 45-59. - Режим доступа: http://ej.kubagro.ru/2011/05/pdf/06.pdf

7. Вяткин В.Б. Хаос и порядок дискретных систем в свете синергетической теории информации // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №03(47). С. 96 - 129. - Режим доступа: http://ej.kubagro.ru/2009/03/pdf/08.pdf

8. Вяткин В.Б. Синергетическая теория информации: общая характеристика и примеры использования. // Наука и оборонный комплекс - основные ресурсы российской модернизации. Материалы межрегиональной научно-практической конференции. - Екатеринбург: УрО РАН, 2002. - С. 361-390.

9. Хартли Р.В.Л. Передача информации // Сб.: Теория информации и ее приложения. - М.: Физматгиз, 1959. - С. 5-35.

10. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830 с.

11. Салаватов Т.Ш., Мамедов А.В. Анализ текущего состояния режимов работы компрессорных скважин на основе энтропийного подхода. // Территория "Нефтегаз" - 2007, № 8. - С. 34-41.

12. Скорик Б.И., Скорик А.Б., Зверев А.А. К вопросу о теории информационного взаимодействия сложных технических систем // Системи управління, навігації та зв'язку. - Вип. 4(12), 2009. - С. 116-119.

13. Белiнска Я.В. Биховченко В. П. Індикатори фінансової стабільності та інноваційний менеджмент фінансової системи // Стратегічні пріоритети. - 2011, №3 (20). - P. 53-68.

14. Шкрабак И.В. Структурная устойчивость экономики региона с позиций синергетической теории информации // Науковий вісник НЛТУ України. - 2012, Вип. 22.6. - С. 340-345.

15. Mamedov A.V. Entropic approach to compressor well's operation mode current condition analysis. // Elmi ?s?rl?r. Baki: Az?rbaycan respublikasi dцvl?t neft єirk?ti “Neftqazlayih?” institutu. - 2008(24). - С. 101-113.

16. Вяткин В.Б. Периодический закон Д.И. Менделеева в свете синергетической теории информации // Энергоанализ и энергоэффективность. - 2004, № 1. - С. 30-33.

17. Вяткин В.Б. Информационно-синергетический анализ электронных систем атомов химических элементов. Часть 1. Структурная организация электронных систем в плоскости подоболочек. // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №04(48). С. 24-44. - Режим доступа: http://ej.kubagro.ru/2009/04/pdf/03.pdf

18. Вяткин В.Б. Критерии президентских и парламентских выборов // Судьба России: исторический опыт ХХ столетия: Тезисы Третьей Всероссийской конференции. - Екатеринбург: УрГУ, 1998. - С. 306-308.

19. Вяткин В.Б. Теоретические основы системы информационного анализа ИНФОТ и ее функциональные возможности при прогнозно-геологических исследованиях // Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. - Красноярск, 1999 - С. 181-186.

20. Вяткин В.Б., Автонеев С.В. Выделение новых потенциально золоторудных площадей в пределах Краснотурьинского рудного узла с помощью системы ИНФОТ // Геологическое картографирование и прогнозно-металлогеническая оценка территорий средствами компьютерных технологий: Материалы 6-го Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. - Красноярск, 1999 - С. 175-178.

...

Подобные документы

  • Понятие вероятности случайного события. Зависимость количества информации в сообщении о некотором событии от вероятности этого события. Формула Хартли, которая определяет зависимость количества информации в битах от количества равновероятных событий.

    презентация [1,4 M], добавлен 01.12.2015

  • Вычисление количества информации, приходящейся на один символ по формуле Шеннона. Изменения информационной энтропии в текстах экономического, естественнонаучного и литературного содержания. Максимальное количество информации на знак по формуле Хартли.

    лабораторная работа [28,2 K], добавлен 06.12.2013

  • Бит, неопределенность, количество информации и энтропия. Формула Шеннона. Формула Хартли. Логарифмы. Количество информации, получаемой в процессе сообщения. Взаимодействие источника и приемника информации. Количество, информационная емкость ячеек памяти.

    реферат [579,6 K], добавлен 17.07.2008

  • Основы теории передачи информации. Экспериментальное изучение количественных аспектов информации. Количество информации по Хартли и К. Шеннону. Частотные характеристики текстовых сообщений. Количество информации как мера снятой неопределенности.

    лабораторная работа [42,3 K], добавлен 15.02.2011

  • Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации.

    реферат [99,7 K], добавлен 19.08.2015

  • Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

    реферат [41,4 K], добавлен 08.08.2009

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Внешние угрозы информационной безопасности, формы их проявления. Методы и средства защиты от промышленного шпионажа, его цели: получение информации о конкуренте, уничтожение информации. Способы несанкционированного доступа к конфиденциальной информации.

    контрольная работа [30,5 K], добавлен 18.09.2016

  • Понятие и сущность информации. Исторические этапы развития информационной безопасности, ее принципы и необходимость, цели обеспечения. Виды угроз и способы защиты. Последствия утечек информации. Классификация различных средств защиты информации.

    реферат [32,8 K], добавлен 21.09.2014

  • Пути несанкционированного доступа, классификация способов и средств защиты информации. Каналы утечки информации. Основные направления защиты информации в СУП. Меры непосредственной защиты ПЭВМ. Анализ защищенности узлов локальной сети "Стройпроект".

    дипломная работа [1,4 M], добавлен 05.06.2011

  • Задачи и постулаты прикладной теории информации. Разновидности помехоустойчивых кодов. Кодирование информации для канала с помехами. Энтропия при непрерывном сообщении. Количественная оценка информации. Условная и взаимная энтропия и ее свойства.

    курс лекций [3,2 M], добавлен 28.04.2009

  • Характеристика информации. Перевод числа из двоичной системы в десятичную, шестнадцатеричную и восьмеричную. Способы оценки количества информации. Технические средства обработки информации. Принцип работы, история изобретения струйного принтера.

    контрольная работа [1016,6 K], добавлен 22.10.2012

  • История формирования различных видов информационной деятельности. Сущность информации, ее источники и носители. Объекты исследования кибернетики и информатики. Развитие ЭВМ и Интернета. Негативные последствия распространения информационных технологий.

    контрольная работа [40,1 K], добавлен 15.01.2011

  • Предмет и задачи теории информации, ее функции при создании АСУ. Определение пропускной способности дискретных (цифровых) каналов при отсутствии шумов. Расчет скорости передачи информации. Вычисление значения энтропии - среднего количества информации.

    контрольная работа [112,0 K], добавлен 18.01.2015

  • Информатика - наука об общих свойствах и закономерностях информации. Появление электронно-вычислительных машин. Математическая теория процессов передачи и обработки информации. История компьютера. Глобальная информационная сеть.

    реферат [120,1 K], добавлен 18.04.2004

  • Проблемы защиты информации человеком и обществом. Использование информации. Организация информации. Угроза информации. Вирусы, характеристика и классификация. Проблемы защиты информации в Интернете. Анализ и характеристики способов защиты информации.

    реферат [36,5 K], добавлен 17.06.2008

  • Исторические аспекты возникновения и развития информационной безопасности. Средства обеспечения защиты информации и их классификация. Виды и принцип действия компьютерных вирусов. Правовые основы защиты информации от несанкционированного доступа.

    презентация [525,3 K], добавлен 09.12.2015

  • Система формирования режима информационной безопасности. Задачи информационной безопасности общества. Средства защиты информации: основные методы и системы. Защита информации в компьютерных сетях. Положения важнейших законодательных актов России.

    реферат [51,5 K], добавлен 20.01.2014

  • Организационно-административное обеспечение информационной безопасности. Процедура санкционирования в отношении средств информации. Классификация ресурсов и контроль за ними. Неформальные методы поиска оптимальных решений. Управление защитой информации.

    учебное пособие [969,6 K], добавлен 18.01.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.