Разрешение противоречий между теорией информации и формальной информацией

Научные положения теории информации и формальной информации. Процесс написания сообщения на листе бумаги. Универсальность алгоритма преобразования формальной информации. Возможность обозначения любого знания бесконечным количеством идентификаторов.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 03.03.2018
Размер файла 24,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Разрешение противоречий между теорией информации и формальной информацией

Андрейчиков Николай Иосифович, кандидат экономических наук

Введение

Публикация автором основополагающих работ по теории формальной информации [1, 2, 3] вызвала неоднозначную оценку среди сторонников существующей теории информации. Главное возражение сводится к наличию противоречий между отдельными научными положениями существующей теорией информации и научными положениями формальной информации. Наиболее активному неприятию подвергается основной вывод формальной информации о том, что произвольная формальная информация преобразуется в любую другую произвольную формальную информацию независимо от размера и содержания обеих формальных информаций. Это означает, что информационное сообщение, состоящее из одной единственной буквы, может быть преобразовано в информационное сообщение, состоящее, например, из миллиона различных букв и, наоборот. Это научное положение, полностью подтвержденное на практике, противоречит закону сохранения информации, универсальности информации во Вселенной и некоторым другим научным положениям существующей теории информации.

Разрешению этих противоречий и посвящена настоящая работа. Главный вывод состоит в том, что существующая теория информации и формальная информация не противоречат друг другу, так как изучают различные стороны информации и используют различные методы исследования.

Существующая теория информации изучает нематериальную сущность информации с использованием методов теории вероятностей, а формальная информация изучает материальную сущность информации с использованием методов непосредственного конструирования.

Научные положения существующей теории информации относительно закона сохранения информации основаны на аналогии между идеальным газом, в котором молекулы газа считаются одинаковыми шариками, и массивом информационных сообщений, в котором все информационные сообщения считаются одинаковыми.

В настоящей статье доказывается, что основное свойство формальной информации - преобразование информации в любую другую информацию независимо от размера и содержание обеих информаций - этого всего лишь возможность обозначить любое знание или смысл бесконечным количеством различных идентификаторов. Такой подход полностью устраняет противоречия между научными положениями существующей теории информации и научными положениями формальной информации.

Причиной возникновения противоречий между научными положениями существующей теории информации и научными положениями формальной информации является недостаточное обоснование отдельных научных положений существующей теории информации.

1. Основные научные положения существующей теории информации

Самое краткое и точное описание существующей теории информации найдено нами в Физической энциклопедии от 1988 г., написанной самыми авторитетными учеными Советского Союза во главе с нобелевским лауреатом академиком А.М. Прохоровым [4, c. 71-72].

Приводим несколько сокращенные основные научные положения теории информации из указанной энциклопедии (начало цитирования):

Теория информации - наука о статистических (случайных) процессах передачи информации в технических, природных и социальных системах. Теория информации является по существу статистической теорией связи, или теории передачи информации.

Информацию в виде сообщения создает источник сообщений. Сообщения представляют собой слова или наборы слов, записанные буквами некоторого алфавита. Источниками сообщений могут быть человеческая речь, тексты на любых естественных или формальных языках, данные систем сбора и обработки информации и др.

Источники сообщений, рассматриваемые в теории информации, имеют статистический (случайный) характер, то есть появление каждого из возможных сообщений (полный набор которых предполагается заранее известным) определяется соответствующей априорной вероятностью. Согласно Шеннону, считается, что чем больше априорная вероятность данного сообщения, тем меньше неопределенности относительно его действительного появления и, следовательно, тем меньше информации оно несет. Если вероятность появления сообщения - единица, то есть его появление достоверно, то неопределенности нет, и считается, что сообщение не несет информации.

Для оценки количества информации в сообщении в теории информации используется логарифмическая мера, введенная Р. Хартли, вероятностная интерпретация которой была дана Шенноном. Если вероятность появления сообщениях есть p(x), причем 0<p(x)<1, то количество информации I(x), содержащееся в сообщении, определяется формулой:

I(x) = -log(p(x)).

При любом основании логарифма I(x)>=0,I(x)=0 при p(x) = 1 и I(x) при p(x)0.

Еслиx1иx2- сообщения от двух независимых источников с вероятностями появления p(x1) и p(x2), то вероятность их совместного появления p(x1, x2)=p(x1)·p(x2), а соответствующее количество информации I(x1, x2) = I(x1) + I(x2).

Это аддитивное свойство логарифмической меры служит основанием для выбора ее в качестве меры количества информации, так как соответствует интуитивным представлениям о суммировании количества информации, содержащегося в независимых сообщениях.

Для сообщений x1, …, xn, создаваемых источником с вероятностями p(x1), …, p(xn), причем = 1, Шеннон ввел среднюю меру количества информации усреднением по множеству сообщений H=-log(p(x1))-…-log(p(xn)). Функция H, характеризующая информационные свойства источника сообщений, называется энтропией, так как по форме она совпадает с энтропией в статистической физике, характеризующей априорную неопределенность нахождения статистической системы в состояниях x1, …, xn, имеющих вероятности p1, …, pn. Очевидна прямая аналогия формулы для количества информации в сообщении и формулы Больцмана для физической энтропии S:

S = k·ln(W) + const,

где k - постоянная Больцмана, W - термодинамическая вероятность. (Конец цитирования).

Наш комментарий:

Существующая теория информации считает информационные сообщения случайными объектами и совершенно не рассматривает вопросы построения информационных сообщений. Все информационные сообщения независимо от размера и содержания считаются одинаковыми для целей теории информации.

Количество информации в информационном сообщении измеряется логарифмом от вероятности появления информационного сообщения. Априорная вероятность, как и любая другая вероятность, - это частота с которой появляется случайное информационное сообщение [5, c. 113 - 118]. Тот факт, что вероятность обычно выражается в относительных единицах - в долях единицы или процентах от общего количества появления случайной величины - не изменяет сущности вероятности как частоты появления. Логарифмирование частоты также не изменяет сущности вероятности. Следовательно, количество информации в существующей теории информации измеряется через частоту появления случайного информационного сообщения. Математическая связь между частотой появления информационного сообщения и содержанием информационного сообщения неизвестно. Поэтому способ измерения количества информации в существующей теории информации не отражает реальные свойства, имманентно присущие информационному сообщению.

Единственным достоинством метода измерения количества информации в существующей теории информации является аддитивное свойство этого метода, но оно, в свою очередь, является следствием свойства независимости случайных величин в теории вероятности.

Существующая теория информации считает информационные сообщения случайными объектами, точно также как термодинамика рассматривает молекулы газов. В термодинамике на основе использования тории вероятностей вводится понятие энтропии, как меры необратимого рассеивания энергии [4, c. 616]. Поскольку существующая теория информации рассматривает информационные сообщения точно так же, как термодинамика рассматривает молекулы газов, то, естественно, что информационные сообщения в теории информации обладают энтропией.

Здесь нет ничего удивительного, так как различие информационных сообщений, как и различие молекул газа, считается несущественным, что позволяет применять теорию вероятностей для описания множества информационных сообщений и для описания множества молекул газа. Совпадение результатов применения теории вероятностей к различным системам (к множеству информационных сообщений и множеству молекул газа) в математике называется изоморфизмом. Конечно, говорить об информационной энтропии как мере рассеивания энергии, по крайней мере, неуместно. Поэтому говорят, что информационная энтропия характеризует меру неопределенности информационных сообщений, при этом вопрос о том, что означает определенность или неопределенность информационного сообщения остается открытым [4, с.617].

Причина, по которой, существующая теория информации востребована государством, очевидна: существующая теория информации позволяет обосновать степень защищенности информационных сообщений при массовой передаче их по каналам связи в органах государственной власти. Более того существующая теория информации обосновала критерий абсолютной защиты информации, что позволяет чиновникам не беспокоится о разглашении информации, циркулирующей по каналам связи государственных органов власти. С другой стороны, использование государством существующей теории информации является препятствием для развития науки об информации, поскольку все, что связано с защитой информации в органах государственной власти является государственной тайной. Не стоит сбрасывать со счетов и такой немаловажный факт, как личная заинтересованность ученых в секретных государственных учреждениях в сохранении в неизменном виде своего положения и, следовательно, существующей теории информации.

Наши выводы:

Применение теории вероятностей в существующей теории информации позволяет относительно адекватно описывать массовый поток информационных сообщений в крупных государственных структурах. Распространение выводов существующей теории информации, основанных на анализе массового потока сообщений, на единичные информационные сообщения является необоснованным. Любое достоверное событие всегда можно считать случайным событием, вероятность которого равна единице. Но, это единственный научный результат, который можно получить после применения теории вероятности к достоверному событию. Существующая теория информации не описывает построение единичных информационных сообщений, так как единичные информационные сообщения возникают не случайно, а закономерно - их создают люди по определенным правилам.

Недостаточно обоснованное применение теории вероятностей к описанию единичных информационных сообщений приводит к следующей цепи логических выводов:

Энтропия в термодинамике характеризует степень рассеивания энергии и является следствием закона сохранения энергии. Это верное утверждение.

Поскольку информационная энтропия по форме совпадает с энтропией в термодинамике, то информационная энтропия является следствием закона сохранения информации по аналогии со следствием физической энтропии из закона сохранения энергии. Следовательно, закон сохранения информации существует. Это утверждение логически возможное, но нуждается в подтверждении практикой. Кроме того необходимо доказать обоснованность применения аналогии.

Поскольку закон сохранения энергии является фундаментальным законом во Вселенной, то по аналогии и закон сохранения информации является фундаментальным законом во Вселенной. Это утверждение логически возможное, но не обязательно истинное, так как нуждается в подтверждении практикой. Кроме того необходимо доказать обоснованность применения аналогии.

Поскольку закон сохранения энергии является следствием свойств физических полей, то по аналогии и закон сохранения информации является следствием свойства особого информационного поля и, следовательно, информационное поле существует. Это утверждение логически возможное, но нуждается в подтверждении практикой. Кроме того необходимо доказать обоснованность применения аналогии.

Изложенная логика не плод фантазий автора, а существующая реальность. В настоящее время появились достаточно крупные ученые, которые именно эти идеи исповедует. Проводятся научные семинары и конференции по обсуждению описанных научных положений и логики [6, с. 30].

2. Основы формальной информации

Основные результаты по формальной информации опубликованы в открытой печати [1, 2, 3]. Термин «формальная» выбран не случайно, а для того, чтобы подчеркнуть важность научного изучения формы единичных информационных сообщений. Одна и та же информация может быть отображена на русском языке, любом другом иностранном языке, с использованием азбуки Морзе и т.п. Однако законы построения информационных сообщений во всех случаях остаются одними и теми же.

Формальная информация изучает информационные сообщения с позиций конструктивизма, то есть строит информационные сообщения по правилам, придуманными людьми, и изучает свойства таких информационных сообщений.

Основные научные положения формальной информации:

Рассмотрим некоторое информационное сообщение, записанное на бумаги. Как мы видим, информационное сообщение начинается с первого символа и заканчивается последним символом. Первый символ не имеет предыдущего символа, а последний символ не имеет последующего символа. Все остальные символы в информационном сообщении имеют ровно один предыдущий и ровно один последующий символы. Первый символ имеет только один последующий символ, а последний символ имеет только один предыдущий символ. Символы в информационном сообщении не могут одновременно иметь два и более предыдущих символов и/или два и более последующих символов. Физической моделью информационного сообщения является, по-видимому, нитка с узелками. Информационное сообщение обладает свойством целостности и свойством порядка.

Целостность информационного сообщения обеспечивает внешняя среда, в нашем примере - это лист бумаги. Порядок символов в информационном сообщении обеспечиваем мы, путем записи символов в линию с минимальным зазором между символами.

Рассмотрим процесс написания информационного сообщения на листе бумаги.

Берем копию первой необходимой буквы из алфавита и записываем ее на первое место в информационное сообщение. Затем берем копию второй необходимой буквы из алфавита и записываем ее на второе место в информационное сообщение. Продолжая процесс, мы напишем первое слово информационного сообщения.

Далее необходимо использовать пробел или другие знаки предложений. Но обычный алфавит содержит только буквы и не содержит других знаков. Для создания информационных сообщений необходимы также цифры, знаки препинания, пробел и другие вспомогательные знаки, которые в алфавите отсутствуют. Для решения этой проблемы дополним алфавит прописными буквами, цифрами, пробелом, знаками препинания и другими необходимыми знаками для создания информационного сообщения. Будем называть элементы нового алфавита символами, а сам новый алфавит просто алфавитом. Все символы встречаются в алфавите по одному разу и равноправны. Таким образом, мы отказываемся от «избыточности информации», используемой в существующей теории информации. При построении единичного информационного сообщения никакой избыточности быть не может. Это при массовой передаче информации по каналам связи в целях экономии можно рассматривать избыточность информации.

Теперь, мы легко можем написать любое информационное сообщение. Для этого берем из алфавита копии необходимых символов и записываем на листе бумаги. Можно записывать символы в информационном сообщении не слева направо, а справа налево, как принято в арабской письменности.

Символы в информационном сообщении можно менять местами без нарушения содержания информационного сообщения только в том случае, если символы тождественны. В противном случае изменяется содержание информационного сообщения.

Информационное сообщение можно рассматривать как вектор, содержащий в качестве элементов не числа, а символы. Вектор обеспечивает целостность и порядок в информационном сообщении, эквивалентные целостности и порядку в информационном сообщении на бумаге.

Алфавит отличается от информационного сообщения только тем, что все символы встречаются ровно один раз. Это свойство алфавита не влечет существенное отличие от обычного информационного сообщения, поэтому считаем алфавит информационным сообщением. Таким образом, информационные сообщения строятся через использование информационных сообщений. Это принципиальное отличие информации от других свойств материи. По-видимому, возможность построения информационных сообщений обеспечивается фундаментальным свойством физического пространства - копированием. Без копирования информационное сообщение не построить.

Информационное сообщение всегда ограничено по размеру или во времени, так как процесс построения бесконечного информационного сообщения никогда не остановится и, следовательно, бесконечное информационное сообщение никогда не будет создано. Символы формальной информации, как элементы информационного сообщения всегда конечны, так как невозможно создать копии бесконечных объектов. Символы в алфавите должны быть различными. Следовательно, символы должны иметь объективные различия. В качестве символа может использоваться произвольный конечный объект физического пространства и/или отдельные конечные свойства объектов физического пространства.

Одна и та же единичная информация может быть отображена различными разнородными физическими объектами и/или их свойствами. В этом и состоит главная трудность изучения информации.

Введем одномерный числовой вектор I (1 до N) с индексами от 1 до N, где N - это количество символов в информационном сообщении. Этот вектор будем использовать для записи адресов символов единичного информационного сообщения в алфавите. Назовем этот вектор Инвариантом, поскольку он не зависит от содержания символов алфавита. Это означает, что одно и то же информационное сообщение можно отобразить символами русского языка или символами азбуки Морзе, а Инвариант будет одним и тем же. Таким образом, Инвариант позволяет избавиться от многозначности отображения при изучении одной и той же информации.

Инвариант является математической сущностью единичного информационного сообщения, так как частота распределения символов в информационном сообщении совпадает с частотой распределения чисел в Инварианте. Числа в Инварианте находятся во взаимно-однозначном соответствии с символами в информационном сообщении. Каждое информационное сообщение имеет свой собственный Инвариант. Если Инварианты двух информационных сообщений равны, то информационные сообщения могут совпадать в случае совпадения алфавитов, или не совпадать в случае различных алфавитов. Два алфавита совпадают, если они содержат одни и те же символы и порядок следования символов в алфавитах одинаковый.

Два информационных сообщения равны, если они содержать одни и те же символы по одним и тем же адресам. Если два информационных сообщения равны, то равны и их Инварианты. Обратное утверждение неверно, Инварианты двух информационных сообщений могут быть равны, а могут быть не равными.

Количество информации в информационном сообщении принимаем равной количеству символов в информационном сообщении. Это естественная мера для единичного информационного сообщения. Этой мерой мы исключаем из рассмотрения ценность и важность информации, поскольку эти показатели устанавливаются людьми, субъективны и не имеют никакого отношения к процессу построения информационных сообщений. Кроме того, количество символов в информационном сообщении, это имманентно присущее свойство информационного сообщения.

Произвольная формальная информация преобразовывается в произвольную другую формальную информацию, в том числе в себя, независимо от размера и содержания обеих формальных информаций. Размер формальной информации изменяется от 1 символа. Размер алфавита изменяется от 2 символов. Это утверждение математически строго доказано автором в опубликованной статье [1, с. 234-250].

Сущность преобразования информационных сообщений состоит в том, что преобразовываются не информационные сообщения, а преобразовываются Инварианты информационных сообщений. Поскольку Инварианты - это числовые векторы, то преобразование одного Инварианта в другой Инвариант осуществляется просто - путем прибавления или вычитания натуральных чисел от 1 до длины алфавита. Эти числа называются приращениями. Все приращения размещаются в специальном числом векторе, который называется вектором приращений или вектором преобразований.

Преобразование формальной информации в себя через один единственный собственный символ является изоморфизмом процессов развития организмов из одной единственной клетки. Это означает, что в живой природе развитие организма из клетки происходит в таком порядке, что и преобразование формальной информации. Усложнение организма в процессе развития происходит путем использования более сложных алфавитов. На разных этапах развития организма используются различные по сложности алфавиты. Обратное преобразование формальной информации в один единственный собственный символ, по-видимому, является изоморфизмом создания половой клетки организма в живой природе.

В статье автора [3, с.116-125] рассматривается построение информационных сообщений из алфавитов, содержащих символы в виде различных предложений и слов языка. Это пример усложнения алфавита. Примерно тоже самое происходит в живой природе в процессе развития организма из одной клетки. Кроме того, мы совершенно не рассматривали использование переменных алфавитов, которые, по всей видимости, широко применяются в живой природе.

Выводы:

Формальная информация адекватно описывает процесс построения единичных информационных сообщений в человеческом обществе и, возможно, в живой природе.

Преобразование формальной информации через себя независимо от размера доказывает независимость содержания информации от формы существования информации.

Универсальность алгоритма преобразования формальной информации.

Пусть имеется информационное сообщение

T1={a1, a2, …, ar},

Где T1 - информационное сообщение;

a1, a2, …, ar- символы информационного сообщения;

r - длина (размер) информационного сообщения, количество символов.

Пусть некотором методом, в том числе односторонним, произведено преобразование информационного сообщения T1. В результате преобразования получено информационное сообщение

T2={b1, b2, …, bs},

Где T2 - преобразованное информационное сообщение;

b1, b2, …, bs - символы преобразованного информационного сообщения;

s - длина (размер) преобразованного информационного сообщения, количество символов.

Этот же самый результат можно всегда получить с помощью алгоритма преобразования формальной информации. Для того из информационного сообщения T1 вычисляется Инвариант I1, а из информационного сообщения T2 вычисляется Инвариант I2. Далее из Инвариантов I1 и I2 вычисляется вектор приращений V={k1, k2, …, ks}, позволяющий преобразовать информационное сообщениеT1в информационное сообщение T2. С помощью этого же вектора приращений можно произвести обратное преобразование информационного сообщения T2 в информационное сообщение T1.

Таким образом, какие бы хитроумные методы преобразования не применялись для преобразования информационного сообщения, всегда существует прямое и обратное преобразования этого же информационного сообщения алгоритмом преобразования формальной информации с тем же самым результатом. Отсюда следует, что научные изыскания все более больших простых чисел и поиски односторонних функций являются пустой тратой времени и сил.

Обращаем внимание на тот факт, что величина чисел вектора приращений зависит от длины алфавита и от места нахождения символа в алфавите. При перестановке символов алфавита вектор приращений изменяется, поэтому существует не один единственный вариант преобразования одного информационного сообщения в другое информационное сообщение, а много вариантов. Если говорить строго, то количество вариантов преобразования равно факториалу от длины алфавита. Если дина алфавита равна 256, то количество вариантов преобразования превосходит 10506. Это чудовищно большое число, его не с чем сравнить.

Разрешение противоречий между научными положениями существующей теории информации и научными положениями формальной информации.

Рассмотрим определения информации в обеих науках. Для сравнимости определений термин «формальная» заключим в квадратные скобки.

[ФОРМАЛЬНАЯ] ИНФОРМАЦИЯ - это конечное упорядоченное множество символов, которые являются копиями произвольных объектов физического пространства. Упорядочение состоит в том, что в [формальной] информации обязательно существует один первый символ и один последний символ. Каждый символ [формальной] информации, кроме первого символа, имеет один предыдущий символ. Каждый символ [формальной] информации, кроме последнего символа, имеет один последующий символ. Рядом расположенные символы [формальной] информации могут совпадать, однако один из них будет для другого последующим или предыдущим. Обмен местами двух различных символов формальной [информации] влечет изменение [формальной] информации. Обмен местами двух одинаковых символов [формальной] информации не изменяет [формальную] информацию.

Сравним это определение информации с наиболее распространенным определением информации в учебном пособии для студентов, изучающих курс «Теории информации»:

«Информация -- нематериальная сущность, при помощи которой с любой точностью можно описывать реальные (материальные), виртуальные (возможные) и понятийные сущности. Информация -- противоположность неопределенности» [7, с.10].

Как видим, в формальной информации под информацией понимается конечный упорядоченный набор объектов материального мира, а в существующей теории информации под информацией понимается нематериальная сущность.

Формальная информация позволяет дать определение знанию или смыслу в информации. Поскольку любая информация, например слово «барон» преобразуется в любую другую информацию, например в слово «карантин», то смысл в слове «барон» и смысл в слове «карантин» никак не связаны со словами, как объектами информации. Следовательно, знание или смысл в информации - это внешнее обстоятельство по отношению к информации, имманентно не присущее информации. Информация является идентификатором (обозначением) для знаний или смысла в информации. Возможность преобразования произвольной информации в любую другую информацию независимо от размера и содержания обеих информаций означает, что одни и те же знания или смысл можно обозначить бесчисленным количеством различных идентификаторов.

Поскольку знания или смысл в информации никак не связаны с конкретными идентификаторами, то возникает вопрос о происхождении знаний или смысла информации. Ответ очевиден - знания или смысл в информации возникают из общения людей между собой. Само по себе общение людей между собой является нематериальной сущностью информации. Общение невозможно пощупать или потрогать, но оно существует и является единственным источником знания или смысла в информации.

Общение людей осуществляется путем обмена идентификаторами (обозначениями) относительно окружающего мира. Другие люди соглашаются или не соглашаются с содержанием принятой информации. Идентификаторами люди обозначают объекты материального мира, свои ощущения, свои и чужие действия, события, отдельные предложения и наборы предложений и т.п. В качестве идентификаторов могут использоваться звуки, запахи, движения, изменения формы и т.п. Все общественные живые существа обмениваются между собой информацией, которая несет, возможно, примитивные, но знания: приближение опасности, поиск партнера для размножения, наличие пищи и т.п.

Сознание отдельного человека - это общение человека самого с собой. Но сознание отдельного человека вторично по отношению к общению между людьми. Сознание отдельного человека может приводить к изменению знаний других людей, но только при согласии других людей с этими изменениями. Новые научные истины становятся новым знанием только после одобрения профессиональным сообществом ученых.

К сожалению, в России профессиональные сообщества практически никакой роли не играют. Поэтому новые научные истины признаются новым научным знанием профессиональными сообществами ученых развитых стран Запада, главным образом, США. Российская академия наук (РАН) в соответствии со своим Уставом является профессиональной организаций ученых, но признавать научные истины новым научным знанием, не спешит. Причина чисто техническая. РАН выполняет функции государственного управления наукой и не может себе позволить допускать ошибки. А признание научных истин новым научным знанием сплошь и рядом являются ошибочными. С другой стороны, отсутствие механизмов признания новых научных знаний заставляет талантливую молодежь покидать Россию и переселяться в страны Запада.

Заключение

Непреодолимых противоречий между научными положениями существующей теории информации и научными положениями формальной информации не существует. В существующей теории информации имеются научные положения логически возможные, но не достаточны обоснованные и не подтвержденные практикой. Эти научные положения противоречат научным положениям формальной информации.

Нематериальной сущностью в определении информации в существующей теории информации является общение людей между собой. Именно общение людей является источником знаний или смысла в информации. Физические объекты информации являются идентификаторами (обозначением) знаний или смысла в информации. Общение людей между собой - это обмен физическими идентификаторами (обозначениями) знаний или смысла в информации. Сознание отдельного человека - это общение человека самого с собой путем обмена идентификаторами информации из памяти человека через органы чувств. Поскольку существует два источника поступления информации конкретному человеку: от других людей и из своей собственной памяти, то это различие влечет отождествлении человеком себя путем введения идентификатора «Я».

Основное свойство формальной информации - преобразование информации в любую другую информацию независимо от размера и содержание обеих информаций - объясняется, как возможность обозначить любое знание или смысл бесконечным количеством идентификаторов. Это научное положение полностью устраняет противоречия между научными положениями существующей теории информации и научными положениями формальной информации.

Существующая теория информации возникла как наука о статистических (случайных) процессах передачи информации в технических, природных и социальных системах. Такой теория информации остается и останется навсегда. От необоснованных обобщений результатов применения теории вероятностей к массе информационных сообщений на единичные информационные сообщения придется отказаться.

Проанализированные автором основания существующей теории информации должны были сделать ученые из этой отрасли знания. Однако в силу работы этих ученых в секретных учреждениях они не могут это сделать. Кроме того, личный меркантильный интерес этих ученых также препятствует объективному анализу в существующей теории информации. Автор не связан корпоративными интересами и поэтому может позволить себе объективность. Конечно, автор не ждет прозрения официальных ученых в существующей теории информации. Остается один путь - всячески пропагандировать новые научные истины в надежде, что подрастающее новое поколение ученых будет руководствоваться практикой, а не мнением авторитетных, но заинтересованных лиц в существующей теории информации.

формальный информация алгоритм идентификатор

Литература

1. Андрейчиков Н.И. Математические основы преобразования формальной информации. // Журнал научных публикаций аспирантов и докторантов, Курск, 2014, N5, с.234-250, ISSN 1991-3087, подписной индекс 42457.

2. Андрейчиков Н.И. Использование методов формальной информации для защиты частной информации в сети Интернет. // Журнал научных публикаций аспирантов и докторантов, Курск, 2014, N7, с. 92 - 97, ISSN 1991-3087, подписной индекс 42457.

3. Андрейчиков Н.И. Формальная информация: направления практического использования. // Журнал научных публикаций аспирантов и докторантов, Курск, 2014, N8, с. 116-125, ISSN 1991-3087, подписной индекс 42457.

4. Физическая энциклопедия / Гл. ред. А.М. Прохоров. Ред. кол. Д.М. Алексеев, А.М. Балдин, А.М. Бонч-Бруевич, А.С. Боровик-Романов и др. - М.: Советская энциклопедия. Т.5. Стробоскопические приборы - Яркость, 1988, с.71-72, 616, 617.

5. Математический энциклопедический словарь. Гл. редактор Ю.В.Прохоров. М., Научное издательство «Большая Российская Энциклопедия», 1995, с. 113 - 118.

6. К.К. Колин, д.т.н., проф. Институт проблем информатики Российской Академии Наук. Философия информации: структура реальности и феномен информации. Доклад на десятом заседании семинара «Методологические проблемы наук об информации». Москва, ИНИОН РАН, 7 февраля 2013 г., 44 с.

Размещено на Allbest.ru

...

Подобные документы

  • Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации.

    реферат [99,7 K], добавлен 19.08.2015

  • Информатика - наука об информации, технических средствах ее сбора, хранения, обработки, передачи. Носители информации, память. Носители информации вещество и поле. Процесс сообщения. Целенаправленная передача информации. Непрерывное и дискретное знания.

    автореферат [667,1 K], добавлен 08.06.2008

  • Основные понятия теории информации как науки. Среднее количество информации, приходящееся на 1 знак определяемое формулой Шеннона. Общая схема передачи сообщения. Пропускная способность канала. Булева алгебра и техническая реализация процесса вычисления.

    презентация [365,8 K], добавлен 13.08.2013

  • Определение и примеры формальной системы. Понятия языка и метаязыка. Интерпретация формальной теории. Понятие изоморфизма в терминах теории формальных систем. Примеры продукционных правил, теория чисел. Исчисление предикатов первого и второго порядка.

    лекция [201,4 K], добавлен 19.12.2013

  • Основы теории передачи информации. Экспериментальное изучение количественных аспектов информации. Количество информации по Хартли и К. Шеннону. Частотные характеристики текстовых сообщений. Количество информации как мера снятой неопределенности.

    лабораторная работа [42,3 K], добавлен 15.02.2011

  • Непрерывная и дискретная информация. Кодирование как процесс представления информации в виде кода. Особенности процедуры дискретизации непрерывного сообщения. Позиционные и непозиционные системы счисления. Представление информации в двоичном коде.

    реферат [117,3 K], добавлен 11.06.2010

  • Технология сбора информации традиционными методами. Правила сбора оффлайновой информации. Технические средства сбора информации. Операции для быстрого восстановления данных в системах хранения. Технологический процесс и процедуры обработки информации.

    курсовая работа [304,5 K], добавлен 02.04.2013

  • Основные положения теории защиты информации. Сущность основных методов и средств защиты информации в сетях. Общая характеристика деятельности и корпоративной сети предприятия "Вестел", анализ его методик защиты информации в телекоммуникационных сетях.

    дипломная работа [1,1 M], добавлен 30.08.2010

  • Бит, неопределенность, количество информации и энтропия. Формула Шеннона. Формула Хартли. Логарифмы. Количество информации, получаемой в процессе сообщения. Взаимодействие источника и приемника информации. Количество, информационная емкость ячеек памяти.

    реферат [579,6 K], добавлен 17.07.2008

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Задачи и постулаты прикладной теории информации. Разновидности помехоустойчивых кодов. Кодирование информации для канала с помехами. Энтропия при непрерывном сообщении. Количественная оценка информации. Условная и взаимная энтропия и ее свойства.

    курс лекций [3,2 M], добавлен 28.04.2009

  • Проблемы защиты информации человеком и обществом. Использование информации. Организация информации. Угроза информации. Вирусы, характеристика и классификация. Проблемы защиты информации в Интернете. Анализ и характеристики способов защиты информации.

    реферат [36,5 K], добавлен 17.06.2008

  • Система передачи информации. Использование энтропии в теории информации. Способы преобразования сообщения в сигнал. Динамический диапазон канала. Определение коэффициента модуляции. Преобразование цифровых сигналов в аналоговые. Использование USB–модемов.

    курсовая работа [986,3 K], добавлен 18.07.2012

  • Разработка программы, создающей и управляющей базой данных, ее реализация на языке Turbo Pascal. Организация алгоритма программы. Вывод информации и возможность добавления информации в базу данных. Поиск информации в базе данных по заданному значению.

    курсовая работа [26,7 K], добавлен 19.06.2010

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Виды информации, с которыми работают современные компьютеры. Понятие "информация": в физике, в биологии, в кибернетике. Представление информации. Кодирование и каналы передачи информации. Локальные компьютерные сети. Хранение информации в файлах.

    контрольная работа [26,4 K], добавлен 13.01.2008

  • Информация как объект хранения, преобразования и передачи. Объединение источников и получателей информации в информационную систему. Синтаксический, семантический и прагматический аспекты информации. Степень структуризации информационных данных.

    презентация [36,5 K], добавлен 14.10.2013

  • Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.

    презентация [173,0 K], добавлен 19.10.2014

  • Основные свойства информации. Операции с данными. Данные – диалектическая составная часть информации. Виды умышленных угроз безопасности информации. Классификация вредоносных программ. Основные методы и средства защиты информации в компьютерных сетях.

    курсовая работа [41,4 K], добавлен 17.02.2010

  • Информация и информационные процессы в природе, обществе, технике. Информационная деятельность человека. Кодирование информации. Способы кодирования. Кодирование изображений. Информация в кибернетике. Свойства информации. Измерение количества информации.

    реферат [21,4 K], добавлен 18.11.2008

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.