О термине "информация" и месте теоретической информатики в структуре современной науки
Изучение объективных и субъективных определений категорий информатики. Анализ структуры информатики и ее отличий от логики, математики и философии. Описание структуры информатики и ее характерных признаков, классификация различных информационных теорий.
Рубрика | Педагогика |
Вид | статья |
Язык | русский |
Дата добавления | 02.12.2018 |
Размер файла | 43,5 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
УДК 004; 007; 510; 519
О термине "информация" и месте теоретической информатики в структуре современной науки
Г.Н. Зверев,
д.т.н., проф. каф. компьютерной математики
Уфимский государственный авиационный технический университет
Рассматриваются объективные и субъективные определения категорий информатики. Анализируется структура информатики и ее отличия от логики, математики, философии.
Ключевые слова: информация, данные, знание, теоретическая информатика.
В современную эпоху информатизации практически всех сфер человеческой деятельности, серьезных изменений повседневного жизненного уклада, не прекращаются дискуссии о роли информации в природе и обществе, о смысловом содержании этого понятия, о месте информатики в едином здании науки [1]. Жаркие споры в Интернете, на страницах журналов, в среде преподавателей свидетельствуют об актуальности объективного научного подхода к определению основных терминов информатики, их строгой формализации. Масло в огонь дискуссий подливают последние работы по квантовой информатике, заявления астрофизиков и других ученых о том, что черные дыры поглощают и излучают информацию, что в каждый структурно организованный физический объект вложена информация, что Вселенная есть гигантский компьютер, функционирующий в соответствии с фундаментальными законами природы [2]. информатика логика философия
В настоящей работе, следуя принципам информационного подхода [3], дается обоснование определений категорий информатики, лежащих в основаниях языка науки. Приводится сравнительный анализ других известных дефиниций понятий информации, знания, данных и др. Анализируются структура информатики и классификации информационных теорий, сформулированы характерные признаки, отличающие теоретическую информатику и ее методологию от математики, логики, научной философии.
Объективация определений категорий информатики
Термин «информация» вошел в научный оборот в XX веке, когда были созданы технические средства получения, преобразования, использования всевозможных данных в жизненных ситуациях и стало ясно, что не только человек, его органы чувств, мышление и речь являются источниками, носителями знаний о внешнем и внутреннем мире людей, что существуют общие информационные закономерности в живой и неживой природе, независимые от их материального воплощения.
Среди специалистов в области информатики бытует мнение о том что «информация представляет собой один из наиболее значимых и в тоже время загадочных феноменов окружающего нас мира» [4], что «точное и исчерпывающее … определение [понятия информации] остается одной из труднейших научных задач» [5]. В самом деле, математики, физики, биологи, инженеры, социологи, философы и т.д. вкладывают в это понятие разные смыслы, отражающие специфику своей предметной области. Вместе с тем, строгая и однозначная дефиниция данного термина позволяет уточнить смыслы близких к нему понятий весьма длинного синонимического ряда: сообщение, знание, данные, знак, символьная модель, сигнал, сведения, факты, изображения, документы и т.п. Эти понятия с определенной долей адекватности описывают мышление и чувства людей. Наиболее близким синонимом информации является понятие знака ? предельно общее представление информационных объектов в теоретической семиотике [3], которое за три тысячелетия породило в естественных языках десятки вариантов родственных значений слов с корнем «зна-».
Древнегреческие ученые - стоики создали основы логики, грамматики и семиотики ? теории знаков (гр. semeion - знак, признак), полагая, что источником и приемником (потребителем) знаков может быть только человек. В этой теории, опираясь на различия живой и неживой природы, стоики определили внутреннюю структуру знака, выделив в нем обозначение ? это слово, имя предмета, явления и значение ? смысл, семантика слова, словосочетания, любого понятия. Далее семантику знака - имени понятия они разделили на прямое значение имени ? сам предмет, прообраз понятия и косвенное значение ? образ, отражение свойств предмета в мыслях и чувствах сознания и подсознания человека ? источника слов, сообщений либо приемника речи, устной или письменной. Имя, образ и прообраз в представлениях стоиков образуют семантический треугольник, стороны которого выражают связи между тремя компонентами знака.
Слова «информация» не было в древнегреческом и других языках, оно появилось гораздо позднее как производное от лат. informare - порождать форму, помещать в форму, информировать ? это функции знаков и знаковых систем. Почти два тысячелетия после стоиков Дж. Локк в «Опыте о человеческом разуме» (1690) разделил науку того времени на физику, этику и семиотику ? прародительницу информатики. Однако датой рождения семиотики как самостоятельной науки ученые считают 1938 г., когда вышла книга Чарлза Морриса «Основы теории знаков», а чуть позже и другие его работы: «Шесть теорий разума», «Обозначение и смысл», «Знаки, язык и поведение», «Знаки и действия», «Изучение отношения знаков и ценностей».
Понятия информатики, как и многие слова естественного языка, имеют несколько исторически изменчивых смысловых значений и, чтобы превратить слова вольного употребления в научные термины, нужно устранить их полисемию, однозначно описать их семантику ? формализовать и объективировать смыслы терминов. Объективация предполагает исключение из определений антропоморфных следов и ссылок на ясность, интуитивную очевидность, явное определение источников исходных данных и их свойств в базисах предметных областей.
Формализованные научные понятия определяются в среде естественного языка и реализуются в искусственном языке предметной области путем замены определяемого понятия конструкцией из определяющих понятий, которые входят в терминосистему языка и предметики и строятся из базисных (далее не определяемых) терминов, укорененных в естественном интеллекте и конструктивно воспроизводимых в программно-аппаратных средствах искусственного интеллекта. Тем самым устраняются «порочные круги» дефиниций, когда в определяющие понятия включают близкие синонимы определяемых понятий либо используют недоопределенные языковые конструкции с размытой семантикой.
Чтобы более полно и точно воплотить эти требования, необходимо, прежде всего, дать формализованное определение понятия произвольного языка и договориться о типовой конструкции любого понятия ? результата понимания субъектом изучаемой действительности. Для этого мы используем базисы системологии, теоретической семиотики, сенсформики [3]. Итак, произвольный язык есть знаковая (лингвистическая) система, которая независимо от материального воплощения определяется в базисах теоретической информатики тремя в общем случае независимыми компонентами: 1) языковая среда, 2) парадигма языка, 3) прагма языка. Языковая среда есть конечное множество субъектов ? носителей языка и конечное множество каналов связей между субъектами, по которым могут передаваться имена знаков ? это информация, точнее, ее материальные носители: сигналы, тексты, изображения на бумаге и т.д. Языковые субъекты состоят из знаковых процессоров, необходимых для порождения, восприятия, преобразования, сохранения в неизменном виде в памяти субъекта знаковых структур. Основные типы процессоров субъектов языковой среды - сенсур, рефур, эффур (мотор, эффектор), мемур (память, накопитель), генур, материальный процессор:
? сенсор выполняет избирательное восприятие материальной реальности ? физического мира и преобразование (отражение) его свойств в знаки виртуальной реальности ? это мир знаков , информационных моделей физической реальности - либо осуществляет идентификацию материальных носителей знаков-сообщений;
? рефор выполняет реформирование, преобразование информационного мира знаков, это предельно общая функциональная модель процессов мышления, вычисления, рассуждения, обработки информации, данных, знаний, моделей, процедур принятия решений;
? эффектор ? это произвольный преобразователь знаков в материальные предметы и действия;
? накопитель знаков ? память субъекта G: Ms>Ms сохраняет знания, информацию в неизменном виде;
? генор ? внутренний источник знаков определенного класса, модель генерации знаков при моделировании виртуального мира субъекта;
? материальный процессор ? преобразователь физической реальности, в которой нет знаков, знаний, информации и знаковых процессоров A, B, E, G, Г.
Сенсоры (датчики, органы чувств, рецепторы, измерительные системы) и эффекторы (исполнительные устройства, идеомоторика организма) выполняют прямые и обратные связи объективированного субъекта с материальной реальностью. Все известные языковые среды от внутриклеточного генетического языка живой материи до социальных сред и Интернета -- это специальным образом организованные материально-информационные структуры живой и неживой природы. И чем дальше развивается наука и техника, тем яснее становится идея независимости общих функций языковых сред от материального носителя этих функций -- мозга, белков и нуклеиновых кислот, электромагнитных сигналов, аппаратных средств информатики.
Парадигма языка (гр. paradeigma - образец) есть система формализованных правил функционирования языковой системы, в ней выделяют четыре раздела: алфавит -- конечное множество элементарных знаков (букв, точек, линий, …), из которых строятся составные знаки; лексика -- конечное множество знаков (слов, понятий, терминов), обладающих предметной и абстрактной семантикой; синтаксис -- множество согласованных правил конструирования и разбора знаковых структур, абстрагированных от их конкретного смысла; семантика языка -- множество формализованных и неформализованных правил анализа и синтеза смысла знаковых структур.
Прагма языка -- это совокупность управляемых знаковых процессов в языковой среде, соответствующих целям субъектов и правилам парадигмы, а также результаты этих процессоров -- множество текстов, знаковых структур, представляющих новые знания, решения поставленных проблем. При переносе знаков из парадигмы в прагму и обратно выполняются уточнения семантики знаков в контексте проблемной ситуации, операции конкретизации и абстрагирования, специализации и обобщения, идеализации понятий. Модели языковой среды и парадигмы описывают статику языковой системы в определенном интервале времени, а прагма -- ее динамику в этом временном интервале. Рис.1. Семиотическая пирамида
Итак, языковая система порождает, преобразует, хранит в памяти субъектов знаки, понятия, описывающие материальную и информационную реальность. В семиотическом базисе информатики уточняются смысл слова «понятие» и его отличие от знака определением метапонятия -- понятия о произвольном понятии посредством различения семантики знака в узком и широком смысле и более глубокой формализации и объективизации представлений древнегреческих стоиков. Знак в узком смысле, или просто знак, есть обозначение, имя прообраза понятия и его семантики, это материальный носитель знака, выполняющий информационные функции, заменитель образа и прообраза понятия в языковых (знаковых, информационных) процессах и их результатах. Попытки ввести различия между материальным воплощением обозначения и его информационными функциями оказались непродуктивными, поэтому далее мы отождествляем имя знака и его материальный носитель.
Знак в широком смысле - метазнак есть понятие субъекта о прообразе понятия, его свойствах и связях с другими образами и прообразами, объединение обозначающей овеществленной формы и обозначаемого смыслового содержания. Типовую структуру любого понятия определяет семиотическая пирамида, см. рис.1, вершина которой представляет метазнак-понятие П как единый информационный объект, связанный с составляющими его компонентами, расположенными в основании пирамиды:
И - имя понятия, знак в узком смысле, И-знак;
Д - прямое семантическое значение имени -- дент (от лат. denotatus - обозначенный) -- это прообраз понятия;
К - косвенное семантическое значение -- конт (от логического concept и лингвистического connotat - дополнительный смысл имени) -- это образ понятия, отраженный сенсором, рефором, знаковая модель прообраза в памяти субъекта;
А - ссылочное семантическое значение имени -- семиотический адрес А всех компонентов понятия-метазнака.
Семантический треугольник стоиков ИКД составляет часть основания пирамиды, его недостаточно для объективации и описания знаковых процессов и структуры машинных или человеческих понятий. Дент может быть материальным объектом -- редент, либо знаком, информационным (идеальным, виртуальным, абстрактным) объектом -- идент. Конт и семиотический адрес -- это тоже знаковые структуры, наделенные собственной семантикой, именами и их материальными носителями -- реконт и реадрес, скажем, нанофайлы белков и нуклеиновых кислот нейросетей естественного интеллекта.
Семиотическая адресация информационных и материальных компонентов понятий обеспечивает их объединение в целостную структуру П, пространственно-временную ориентацию субъектов языковой среды в физическом и виртуальных мирах. Используя адресацию, можно явно определить механизмы переходов знаковых процессов от одних компонентов к другим, описать внешние связи понятий. Семиотический адрес А понятия П указывает место, область, а для динамических ситуаций и время пребывания соответствующего компонента понятия в семиотическом вместилище метазнаков , которое определяется тремя пространственно-временными моделями:
? физическое четырехмерное пространство-время , в котором определяются физические адреса компонентов понятий, r =(r1,r2,r3) - пространственные координаты, - физическое время;
? информационное (знаковое) пространство-время произвольной размерности, внутренняя и внешняя память субъектов и их процессоров, в нем задаются динамические информационные адреса - адрес хранения компонента понятия и соответствующее ему информационное время;
? модельное (виртуальное) пространство-время моделируемой проблемной ситуации контами понятия, в котором заданы модельные динамические адреса компонентов понятий, - модельное время.
Итак, семиотический адрес позволяет описать внутренние связи компонентов метазнака , включая косвенную адресацию , и внешние связи понятия П, а также пространственно-временное согласование моделей знаковых процессов в пространствах . Внутренние двусторонние связи, представленные ребрами и диагоналями основания семиотической пирамиды, описывают основные абстрактные типы информационных процессов: - процесс формализации, отражения, построения конта понятия - модели прообраза; - процесс интерпретации знаний, построение или выбор прообраза, соответствующего исходной знаковой модели ; - переход от синтаксической структуры, от И-знака к прямому или косвенному смыслу имени понятия; - адресные ссылки на прообраз и образ понятия и т.д.
В вершинах семиотической пирамиды добавляют петли для описания иерархий абстрагирования - конкретизации К>Кґ, обобщения - специализации , переименования, косвенного именования, кодирования-декодирования информации, копирования (смена носителя) без изменения семантики метазнака , косвенной адресации , изменения состава и структуры понятия П>Пґ и его внешних связей.
Используя описанные выше понятия теоретической семиотики-лингвистики, уточним семантику основных категорий информатики: информация, данные, знания, умения, источник и преобразователь информации, информационная связь и др. Слово «информация», подобно словам «документация, коммуникация, революция, классификация», в повседневной речи означает действие и его результат. Информация, во-первых, есть И-знак, сообщение, порожденное кем-то или чем-то и полученное адресатом и, во-вторых, это информационный процесс синтеза сообщения, его доставки, усвоения, т.е. информирования адресата. Аналогично в математике, функция есть преобразование аргумента функции в результат и сам этот результат.
Чтобы достичь однозначной определенности семантики понятий информатики, введем помимо общепринятого понятия «информация» с исходным смыслом «сообщение» его нейтральный синоним -- информационный объект, семантика которого подлежит последующему уточнению и строгой формализации, а второе семантическое значение -- информационный процесс получения, передачи и восприятия сообщений -- выразим введением трех функциональных объектов: источник информации, преобразователь информации, приемник, потребитель информации. Объективация этих понятий преследует цель устранения антропоморфизмов, субъективных ассоциаций в семантике терминов информатики.
Источник информации -- это человек, измерительный прибор, компьютер, книга и т.д. На входе источника информации как функционального объекта находится изучаемое явление, проблемный объект, прообраз информации либо предшествующий ему другой источник, а на выходе -- информация о проблемном объекте, это синтаксическая структура, И-знак, наделенный в определенном языке КАД-семантикой о входном прообразе. Человек видит предмет, называет его имя и описывает его свойства в естественной языковой среде. Измерительный прибор, включенный в электросеть, показывает амплитуду переменного напряжения, скажем, 225 Вольт и его частоту - 51 Герц. Это примеры источников - сенсоров, на входе которых - материальные объекты, а на выходе - информационные объекты.
Если же на входе источника не сам проблемный объект, а информация о нем, то такие знаковые процессоры есть рефоры: компьютер, книга, телевизор, выдающие потребителю предварительно вложенную или переработанную информацию. Неживая материя сенсоров и рефоров -- измерительный прибор, компьютер, книга -- приобретают информационные функции и внутреннюю семантику, которой они наделяют выходную информацию, вложенную в них разработчиками искусственных объектов средств информатики и авторами исходных знаний. В общем случае информационные объекты и процессы есть абстракции от свойств материи, из которой они сложены. Каждый источник информации характеризуется допустимым множеством входных объектов -- областью применимости данного функционального объекта и множеством выходных информационных объектов, которые он в принципе способен породить. Это множество есть шкала сенсора или рефора -- мыслимое пространство информационных объектов, которое в реальных информационных процессах «заполняется» лишь частично. Предназначение источника информации - различать входные объекты по их выходным И-знакам, результатам взаимодействия сенсора с входным объектом либо преобразования рефором входной информации. Свойство различать явления действительности определяет информативность источника [3].
При более полном описании информационного процесса получения, преобразования и использования информации сам проблемный объект на входе сенсора -- proobj есть тоже источник информации о себе самом, воздействующий на сенсор и порождающий на выходе сенсорную информацию. Этот источник -- прообраз информации является первичным источником, тогда сенсоры и рефоры есть вторичные и третичные источники образов проблемного объекта, а механизм генерации проблемной информационной ситуации -- генор Г, в которой функционируют сенсоры и рефоры субъектов, называются праисточниками информационного процесса и его результата [3].
Следует отметить, что в ориентированной цепочке функциональных моделей информационного процесса: {генор Г > proobj в информационной ситуации > сенсор > информация} праисточник и первичный источник (генор и проблемный объект) являются лишь потенциальными источниками информации. Актуальными источниками они становятся только при наличии сенсоров и рефоров, порождающих знаки, а при их отсутствии информации не возникает, в этом случае цепочка Г > proobj представляет модель материального явления. Например, атмосферный грозовой разряд есть чисто физическое явление, но если есть наблюдатель, вооруженный сенсорами (зрением и слухом) и рефорами (мышлением), то для него вспышка молнии есть информация о грозе и о скором приближении раскатов грома.
Следующим фундаментальным понятием информатики является информационная связь между объектами и субъектами. Связи между двумя объектами могут быть материальными, изучаемыми физикой и другими естественными и техническими науками, или информационными, которые являются предметом исследований абстрактных наук. Информационная (виртуальная, идеальная) связь материальных или информационных явлений есть опосредованная зависимость между контами (образами, моделями явлений), представляющими знания субъекта об этих явлениях, а не между дентами (прообразами), т. е. самими явлениями, которые физически могут быть никак не связанными между собой и относиться к разным реальным и виртуальным мирам. Скажем, два материальных тела, находящиеся в разных изолированных системах, не имеют физических связей между собой, но их свойства могут иметь информационные связи сходства или различия, устанавливаемые сенсором, а сами прообразы принадлежат одному либо разным классам физических объектов. Другой пример: все предметы из заданного класса характеризуются двумя свойствами, которые оценивают два сенсора. Между этими свойствами может существовать информационная связь, которую устанавливает соответствующий рефор либо он выясняет, что эти свойства независимы в данном классе объектов и ситуаций. Понятие информационной связи между свойствами позволяет ввести количественные меры зависимости и информации.
Связи между информационными объектами возникают в модельном мире знаков и призваны описать свойства материальной реальности Rm, поэтому информационную связь иногда называют идеальной, нематериальной. Однако эта связь, конечно, не идеальна, все знания субъектов имеют ограниченную адекватность, они идеализируются в логико-математическом языке и в теориях предметных областей. Информационная связь имеет материальный носитель -- реконт, реадрес и возникает в информационной среде на материальной основе сенсорных, рефорных, эффекторных процессоров субъектов.
Информационная связь между субъектами осуществляется передачей сообщений -- знаковых структур по каналам связи: звуковым, визуальным, электрическим и т.д. Простейшая информационная модель диалога двух людей, обменивающихся сообщениями, включает два внутренних языка понимания, мышления (langua mentalis) , и два внешних языка общения , , соответственно, в языковых средах мыслительных и лингвистических процессоров первого ( , ) и второго ( , ) субъекта диалога, а также включает в описание диалога модель двустороннего канала связи.
Пусть первый субъект синтезировал КАД-семантику сообщения на языке собственного понимания, закодировал ее знаковой структурой на своем языке общения , которым он владеет, и переслал ее по каналу связи. Второй субъект получил информацию, точную либо приближенную , искаженную помехами, плохой дикцией, неразборчивым почерком источника, пытается исправить синтаксические ошибки, распознать элементарные знаки полученного сообщения и декодирует смысл сообщения с языка общения на свой язык понимания , встраивает смысловые структуры в свою понятийную сеть. Тогда последовательность языковых сред, в которых протекают знаковые процессы передачи смысла, будет такая: . Идеальная передача семантики сообщения произойдет при отсутствии ошибок кодирования и декодирования смыслов в языковых средах первого и второго субъекта, отсутствии синтаксических помех в канале связи: , взаимнооднозначном соответствии или равенстве фрагментов языков понимания и общения, относящихся к теме диалога: , .
Введенные выше понятия позволяют объективировать определения основных категорий информатики. Из всех возможных семантических значений слова «информация» выделим два: информация в широком и узком смысле, как это было выполнено в семиотике для знака - ее ближайшего синонима. Информация в узком смысле -- это синтаксическая знаковая структура безотносительно присваиваемой ей семантики источником, преобразователем или приемником информации, заданная в статической дискретной (цифровой) или непрерывной (аналоговой) форме: текст, чертеж, диаграмма, график, рисунок, формула, либо в виде динамической структуры: устной речи, аудиовидеоинформации, сигналов физических приборов -- последовательности во времени статических или динамических знаков, порождаемых источником и воспринимаемых приемником. Синтаксическая форма информации допускает копирование, шифрование, смену носителя (бумажного, электрического, оптического, акустического и т. д.), взаимнооднозначного преобразования формы без изменения семантического содержания сообщения.
Информация в широком смысле -- это информационный объект , содержащий синтаксическую и семантическую формы: -знак, конт и семиотические адреса компонентов, в частности адрес дента , а сам дент -- прообраз информации, очевидно, в информацию о нем не входит. Знаки косвенного и адресного смысла хранятся в источнике и восстанавливаются с тем или иным успехом в приемнике информации. Субъекты языковой среды -- источники и приемники - в процессе жизнедеятельности накапливают информацию и формируют в своей памяти знания в виде сети понятий. В отличие от информации «о чем-то», знание, во-первых, индивидуализировано -- это знание «кого-то о чем-то» - конкретного субъекта (человека, автомата, животного, растения, бактерии) о проблемном объекте, а во-вторых, это результат преобразования в языковой среде понимания или поступившей информации о прообразе в сетевую структуру знаний субъекта материально-информационной реальности RmMs. Новое знание в исходной форме субъективно и в последующем подвергается объективации построением оценок ценности и адекватности, доказательством соответствия знания действительности и превращается в межсубъектное научное знание.
Слово «знание» также имеет, по крайней мере, два смысла. В узком смысле -- это описание реальности, дескриптивная форма знания, скажем, в форме конкретных значений свойств, структуры, состояний проблемного объекта. В широком смысле знание включает дескриптивную и конструктивную форму, последняя называется умением решать проблему: «знаю как». Исходная дескриптивная форма знаний преобразуется в конструктивную форму, скажем, из системы уравнений, описывающей связи свойств проблемного объекта, получают алгоритм и технологию решения проблемы. В педагогике и психологии умения, которые в результате упражнений, практического опыта переводятся из сознания в подсознание и становятся автоматизмами деятельности человека, называют навыками. Итак, в теоретической информатике знание определяется как знаковая структура, доступная для понимания, образовавшаяся в информационной среде и памяти субъекта, которая имеет оценки истинности и полезности для субъекта, используется им для построения новых знаний, для целесообразных действий в динамической материально-информационной реальности.
Широко распространенный термин «данные» также является ближайшим синонимом информации. В Большом энциклопедическом словаре (2000 г.) в соответствии с традиционным словоупотреблением данные определяются как «информация, представленная в формализованном виде, что обеспечивает возможность ее хранения, обработки и передачи». Семиотическое уточнение этого определения состоит в задании форматов синтаксического представления -знаков, не касаясь форм представления их -семантики.
Более детальная характеризация семантики категорий информатики осуществляется сравнением с их антиподами -- это неопределенности, их виды, модели и меры, незнание, отсутствие данных (информационный ноль), искажения, дезинформация, противоречия [3].
Свойства информации
Различают три основных свойства информации: 1) объем информации, количество элементарных знаков данного типа в информационном объекте, 2) информативность сообщения, мера качества информации, мера повышения определенности и точности новых знаний, 3) ценность, материальная или обобщенная полезность информационного объекта. В практической деятельности эти свойства иногда совмещают, что приводит к семантическим шумам и потерям эффективности анализа и синтеза информационных процессов.
Объем информации определяется в подходящих единицах материального носителя: числом страниц, объемом памяти, временем звучания, воспроизведения и т. п. Эта мера имеет симметричное отношение к источнику и приемнику информации. Информативность сообщения или качество информации асимметрична, ее оценивает потребитель при решении своих проблем, она определяется новизной поступившей информации для субъекта и ее адекватностью, достоверностью, характеризующей свойства источника информации, который косвенно оценивает информационные потребности в виде ожидаемых показателей информативности: полнота, объективность, своевременность полученных данных и т. п. Обычно информативность объекта y оценивается приемником уменьшением меры неопределенности свойств неизвестного объекта x или повышением точности оценки за счет использования объекта y в решении одной или многих задач. В теории информации вариативная мера информационной полезности называется количеством информации, содержащейся в известном y относительно неизвестного x и оценивается в логарифмической шкале уменьшением среднего числа возможных значений x. В индефинитике -- теории неопределенностей - вводятся вариативные и адеквативные (точностные) меры информативности в линейных, логарифмических и других шкалах. Так, если использование информационного объекта повышает точность оценки x на 5%, то эта величина есть адеквативная мера информативности в проблеме оценки x [3].
Обобщенная ценность информации также асимметрична и определяется приёмником, потребителем показателями экономии затрат материалов, энергии, времени и других ресурсов. Часто в свойства информационного объекта y включают характеристики решаемых проблем, свойства решающих систем и процессов в них, зависящих от наличия фактических данных, теоретических моделей, априорных знаний, что не совсем правомерно. Так, свойство полноты исходной информации есть характеристика постановки решаемой проблемы, оперативность есть свойство источника информации и процесса решения, релевантность есть характеристика предваряющего процесса сбора, поиска необходимой информации, защищенность информации характеризует свойства надежности информационной системы, удобство формы представления данных выражает эргономические показатели человеческого восприятия сообщений.
Неотъемлемым семантическим атрибутом всякой информации является то, что в логике называется предикативностью высказывания, т. е. информация имеет отношение к реальности и утверждает нечто о ее свойствах. Основное предназначение информации -- обеспечить достижение целей живых систем -- сохранение, продление жизни, улучшение ее характеристик целесообразными действиями. Информация как синтаксическая структура есть знаковый носитель ее -семантики в процессах решения проблем, это предельно гибкий ресурс, интегрируемый с любыми другими ресурсами. Если субъект передает информацию другому субъекту, то он сам ее не теряет (за исключением материального носителя). Информация не существует без материального носителя, неживая материя существует без информации. К этому следует добавить, что составляющие информацию метазнаки-понятия есть весьма гибкие открытые системы, легко допускающие изменения и пополнение новыми смыслами в языковой системе, т. е. они способны быть заменителями заменителей при кодировании-декодировании, абстрагировании-конкретизации, обобщении-ограничении, идеализации проблемных ситуаций.
Другие определения категорий информатики
Трудности, с которыми столкнулись ученые при анализе смысловых значений понятия «информация» и их объективации, в значительной степени обусловлены участием в информационных процессах порождения, восприятия, переработки сообщений недостаточно изученными механизмами мышления и речи, сенсорики организма человека. В первых определениях, выполненных в неформализованной среде естественного языка, информация выступает как неуловимая субстанция, заменяющая образ или прообраз изучаемого явления, которую можно попытаться как-то характеризовать наблюдаемыми свойствами и аналогиями с изученными физическими явлениями.
В 1925 г. Р.А. Фишер, основатель значительной части математической статистики, ввел квадратическую меру количества информации и уточнил ее смысл на основании понятия достаточной статистики, т. е. такого преобразования статистической выборки, результат которого - достаточная статистика - содержит всю полезную информацию, содержащуюся в выборке об искомых, подлежащих оценке параметров, см. [6]. Например, среднее значение, полученное по случайной выборке нормально распределенного параметра, есть достаточная статистика для оценки неизвестного матожидания этого распределения. В определении Фишера имеются два информационных объекта: исходная выборка, порожденная сенсором, и достаточная статистика, порожденная рефором, две информационные связи этих объектов, которые позволяют с одинаковой степенью уменьшить неопределенность оценки искомого, повысить ее точность, в чем и состоит смысл выражения «содержит всю полезную информацию».
В 1928 г. вышла статья инженера Р.В.Л. Хартли, в которой «На основе физических (а не физиологических) соображений установлена количественная мера «информации»..., обсуждается, насколько ограничена скорость передачи информации помехами...В обычном понимании термин «информация» слишком эластичен» [7]. В этой работе вводится логарифмическая мера информации, «не зависящая от психологических факторов», а слово «информация» в данной статье имеет смысл сообщения, передаваемого телеграфом, радио, телевидением.
В 1929 г. физик Л. Сциллард опубликовал работу, посвященную анализу проблемы демона Максвелла и связи между понятиями информации и термодинамической энтропии физической системы - статистического ансамбля атомов и, опираясь на эту связь, предложил меру информации, равную отрицательной энтропии термодинамической системы, см. [8]. Демон Максвелла -- мысленная абстрактная модель информационно-управляющей системы -- измеряет сенсором скорость и направления движения атома газа, обрабатывает рефором измерительную информацию и принимает решение открыть или закрыть эффектором заслонку в сосуде с газом, тем самым демон перерабатывает информацию в физическую энтропию, повышая или понижая её. В последнем случае информация является «горючим» для вечного двигателя второго рода [9].
В 1948 г. и далее были опубликованы работы К. Шеннона, которые развивали идеи Хартли и получили название «теория информации», хотя Шеннон ограничился названием «теория коммуникации», введя понятие информационной энтропии как меры исходной и остаточной неопределенности сообщений, из которых построил меру информации [10]. В том же году Н. Винер в широко известной «Кибернетике» ввел по сути такую же меру неопределенности, но со знаком минус и дал «негативное» определение информации - перечислил то, что не является информацией: «Механический мозг не выделяет мысль, «как печень выделяет желчь»... и не выделяет ее в виде энергии, подобно мышцам, информация есть информация, а не материя и не энергия». Позднее во второй книге «Кибернетика и общество» Винер сформулировал «позитивное» определение: «Информация -- это обозначение содержания, черпаемого нами из внешнего мира в процессе нашего приспособления к нему и приведения в соответствие с ним нашего мышления», вполне в духе семиотической дефиниции. Для критиков данное определение Винера означало недопустимую замену одного слова (информация) другими словами (обозначение и содержание) той же степени смысловой неопределенности, поэтому оно осталось невостребованным.
Вместе с тем подобно Сцилларду Винер придерживался взглядов на информационные явления с позиций статистической физики, абстрагируясь от существенных различий понятий физической и информационной энтропии, определяя информацию как меру организованности, а энтропию как меру дезорганизованности материальной системы -- дента, прообраза физических моделей, а не конта, образа, т. е. физической информации о системе, полученной наблюдателем. Очевидно, степень организованности материи определяется не информацией о системе, доступной наблюдателю, а законами материального мира: минимума энергии равновесного состояния, максимума физической энтропии и др.
Идеи Сцилларда и Винера активно развивали Л. Бриллюэн [8], Р.Л. Стратонович [9], создатели и приверженцы синергетики, см., например, [11]. Триада Винера «материя-энергия-информация» стала популярной в научном мире, однако в теоретической информатике более обоснована дихотомия «материя-информация», а энергия есть свойство материи, ее движений и напряженных состояний, подобно таким понятиям, как масса, сила, заряд и другие измеряемые и вычисляемые физические свойства материальных систем, при этом энергия разделяется на свободную и связанную, последнюю характеризует физическая энтропия, которая описывает свойства необратимости и случайности физических состояний и преобразований.
Энергия является неотъемлемым свойством материи, информация не является свойством, это автономный объект с информационными свойствами и функциями, непременно присутствующий в живой материи и той части неживой материи, которую «оживил» целеориентированный субъект, придав ей функции сенсоров, рефоров, эффекторов и носителей информации, знаний. Материальное взаимодействие тел осуществляется обменом вещества и энергии, информационное взаимодействие субъектов состоит в обмене материальными носителями сообщений в единой языковой среде. Взаимодействие субъекта языковой среды с материальным миром выполняют сенсорные и эффекторные процессоры субъекта.
Бриллюэн, вслед за Сциллардом и Винером, определяет информацию «как отрицательное слагаемое энтропии системы... Энтропия физической системы часто описывалась как мера случайности строения системы... Термодинамическая энтропия есть мера недостатка информации о некоторой физической системе» [8]. Эти взгляды на физическую энтропию и информацию призваны были обосновать незыблемость второго начала термодинамики и нашли свое продолжение в трудах Стратоновича [9], а также в работах по синергетике -- теории самоорганизации неравновесных термодинамических, механических и других систем. Однако в этих трудах не выделяются формально и по существу источники, преобразователи и потребители информации, проблемные (материальные) и решающие (информационные) системы. Скажем, физика - это информационная система, которая решает проблемы адекватного описания свойств материальной реальности, поиска фундаментальных законов существования неживой материи, вооруженная информационными средствами наблюдений, измерений физических параметров -- сенсорами, обработки фактической и теоретической информации физических экспериментов -- рефорами, средствами материального (но не информационного) воздействия на проблемные физические объекты -- эффекторами. Материальные системы и процессы причинно ориентированы, не имеют целевой ориентации, для чего необходима информация, и все многовековые попытки найти цели и целесообразное поведение неживой природы оказались безуспешными.
Увеличение или уменьшение физической энтропии в открытых системах и их самоорганизация в общем случае не зависят от информации и знаний наблюдателя и подчиняются физическим законам, поэтому информацию и ее меру нельзя определять фактом и величиной уменьшения физической энтропии. Автор известных книг по термодинамике И.П. Базаров подчеркивает: «информационная энтропия не является термодинамическим параметром... В публикациях сначала отмечали различия физической и информационной энтропии, а потом пошли вслед за Л. Бриллюэном» [12]. Физическая энтропия описывает свойства энергии статистического ансамбля молекул, информационная энтропия характеризует свойства источника информации в заданном классе -- статистическом ансамбле -- информационных ситуаций различать проблемные объекты. Связь между двумя видами энтропии есть связь между образами -- контами, а не прообразами -- дентами, подобно тому, как одно дифференциальное уравнение может с одинаковым успехом описывать поведение механических, тепловых систем и военные действия между государствами. Аналогично, образование кристалла с регулярной внутренней структурой из хаотического раствора или сложных фигур снежинок в морозном воздухе соответствует равновесному состоянию вещества и экстремальному значению термодинамического параметра системы, а не максимуму бриллюэновской или синергетической информации. Наличие или отсутствие в проблемной системе целей и соответствующей им информации определяет границу между существом и веществом, которую давным давно в других терминах ввели родоначальники науки. Отвлечение от различий информационных и материальных процессов, живой и неживой материи ведет к бесплодным поискам, к противоречиям и парадоксам.
Источник информации о материальной реальности - сенсор субъекта -- на входе имеет материю, на выходе -- знаковую структуру, описывающую свойства материи. Приемник информации -- сенсор и рефор субъекта -- в нормальных ситуациях на входе имеет материальный носитель информации, -знак модельного мира , который после синтаксического и семантического декодирования преобразуется в новую информацию, новые знания субъекта, а в общем случае приемник должен различать знаки и незнаки - информационные и материальные объекты, последние не являются носителями информации, у них нет источника, который наделяет материю смыслом о свойствах проблемной системы.
Бриллюэн вслед за Винером дополняет семантику информационной и физической энтропии связью с беспорядком, т. к., по его мнению, энтропия оценивает меру «случайности строения системы» [8]. Эта идея в иной форме задолго была развита основателями статистической физики Л. Больцманом и Дж. Гиббсом, однако, чтобы применить ее к понятию информации, к информационным процессам, необходимо дать конструктивное определение случайности, беспорядка, различать прообраз, информацию о нем и ее свойства, т. е. отличать знаковую структуру от ее объема и информативности. Эта программа в известной степени была выполнена А.Н.Колмогоровым в его алгоритмической теории информации [13-16, 3], в которой центральным понятием является сложность информационного объекта -- энтропия индивида по Колмогорову (а не класса индивидов при статистическом подходе), заменяющая термодинамическую энтропию.
В теории Колмогорова не учитываются искажения и неполнота информационного описания системы, предполагается, что модель системы точно описывает свойства, структуру, функции системы и результаты ее функционирования, служит адекватным заменителем прообраза и можно считать, что при такой идеализации сложность системы совпадает со сложностью ее модели и чем сложнее устроена система, тем больше требуется предельно качественной информации для описания ее свойств. Однако в реальных проблемах анализа и синтеза систем важно различать проблемную систему и ее модель. Более того, понятие сложности относится, прежде всего, к образу-конту, а не к физическому прообразу-денту, т. к. в действительности простых систем не бывает, есть только простые и сложные описания -- информационные объекты, точные или приближенные, полные -- в аспекте поставленных целей -- или неполные, приемлемой адекватности либо сильно искаженные, содержащие дезинформативные модели, оценки свойств, понятия, теории. Сложность в этом подходе выступает как мера детерминированной и случайной неопределенности проблемной ситуации.
В математической теории сложности [15, 17] описание ситуации характеризуется объемом информации -- количеством знаков или количеством шагов вычислительного процесса. В информационной теории сложности [18, 3] мера обобщенной сложности решаемой информационной проблемы слагается из мер адеквативной (точность), временнуй (скорость, оперативность), емкостной сложности (объем требуемой информации), которые составляют фундаментальные меры и критерии информационной деятельности. В теории Колмогорова, который ограничился простейшей моделью различимости объектов или состояний и описанием системы в виде последовательности нулей и единиц, сложность (энтропия) системы определяется минимальной длиной кода, который после декодирования однозначно описывает исходную систему, а мера информации определяется разностью между исходной и условной сложностью, полученной при условном кодировании, использующим данный информационный объект. В алгоритмической теории информации и алгоритмической теории вероятностей случайность определяется как предельная сложность системы с неустранимой неопределенностью ее состояний, структуры, функций, когда оптимальное кодирование не уменьшает исходную сложность описания системы [14, 15].
Продолжим анализ определений понятий информации и ее мер, используемых в современных публикациях. У. Росс Эшби в основу кладет множество объектов и ситуаций и определяет информацию как меру разнообразия, различимости явлений действительности: «Самым фундаментальным понятием является понятие «различия», означающее, что, либо две вещи ощутимо различны, либо одна вещь изменилась с течением времени». Не соглашаясь с достаточно вольными, зыбкими аналогиями, отождествлением смыслов информационной и физической энтропии и, сравнивая подходы Шеннона и Винера, он пишет: «Оба автора рассматривают информацию как «то, что устраняет неопределенность», и оба измеряют ее количеством неопределенности, которую она устраняет... при получении сообщения...» [19]. Подобных взглядов придерживался В.М. Глушков: «Понятие информации принадлежит к числу важнейших понятий современной науки. Важность этого понятия обуславливается его всеобщностью: с понятием информации мы сталкиваемся при изучении любого явления, происходящего в природе или обществе. С наиболее общей точки зрения процесс получения информации есть не что иное, как процесс снятия неопределенности... » [20]. Вместо снятия или устранения (у Эшби) лучше было бы сказать об уменьшении неопределенности.
Позднее, без должного обоснования, Глушков расширил смысл термина: «Информация, в самом общем ее понимании, представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все проистекающие в мире процессы» [21]. В данном определении совмещены, во-первых, информационный объект и его свойство (мера информативности) и, во-вторых, совмещены входной и выходной объекты источника информации -- сенсора, т. е. свойства материи - прообраза (дента), и свойства информации -- образа (конта). Подобное слияние смыслов разных понятий не приводит к серьезным ошибкам, если только сенсор идеальный, а в реальных информационных ситуациях сенсорные преобразования вырождены, искажены помехами и разнообразие информации на выходе сенсора далеко не всегда отражает разнообразия свойств множества входных материальных объектов. Обычно разнообразие действительности больше разнообразия наших знаний о ней.
Определение Глушкова и близкие к нему по смыслу представления нашли много сторонников среди физиков и других специалистов. К.К. Колин, привлекая идею связи между информацией и асимметрией, предложил уточнение и новую интерпретацию определения Глушкова [4, 22, 23], однако в этих формулировках и модельных представлениях также отсутствуют источники и приемники информации, различительные признаки образа -- информации и прообраза -- материи. Термин «физическая информация» имеет в публикациях неоднозначную семантику: если он обозначает данные о свойствах физического явления, поставляемые наблюдателем и его измерительными приборами, взаимодействующими с неживой материей в соответствии с законами природы, которые устанавливает физика, то здесь всё в порядке, а если информацию считать активным агентом или участником физических процессов, то эта гипотеза не имеет никаких реальных подтверждений. Совсем иная ситуация возникает при конструировании человеком искусственных технических средств из объектов неживой природы для выполнения своих целевых функций, тогда его эффекторы наделяют неживую материю какими-то свойствами живых существ.
М. Мазур определил информацию как «преобразование одного сообщения... в другое сообщение» [24]. В этом определении отсутствует исходный источник сообщения и его семантики, а само сообщение (в наших терминах -- информация) в общем случае есть результат преобразования источником информации -- сенсором или рефором свойств входного проблемного объекта -- первичного источника в выходную знаковую структуру, но не само преобразование, которое составляет этап информационного процесса.
Р.С. Гиляревский, соавтор, пожалуй, первого обобщающего труда по информатике и информации [25], в одной из последних публикаций [5] сформулировал свое видение рассматриваемой проблемы: «Данные суть факты, идеи, сведения, представленные в знаковой (символьной) форме, позволяющей производить их передачу, обработку, интерпретацию..., а информация -- это смысл, который человек приписывает данным... Таким образом, информация -- это потенциальное свойство данных, которое может быть реализовано одним воспринявшим их человеком и не реализовано другим. Объектом машинной обработки являются данные, а не информация..., машина... не может мыслить». Последнее высказывание противоречит генеральным тенденциям развития информатики, а ограничить понятие информации только семантикой сообщения, которую присваивает приемник информации безотносительно к источнику, материальному носителю и конкретной языковой среде, выглядит не убедительно, впрочем, терминологические споры обычно разрешает прагма естественной языковой среды.
Подобные замечания имеют отношение и к определению В.Д.Ильина, И.А. Соколова: информация -- это символьная «модель результата интерпретации сообщения» на символьной «модели выбранной системы понятий» [26]. В данном определении присутствуют приемники, процессы и результаты интерпретации, но отсутствуют другие важнейшие смысловые компоненты этого понятия: источники информации, процессы и результаты формализации, а также носитель информации, который определяет функциональные свойства информационных процессов. Информация источника в общем случае не равна информации приемника. Более того, результат формализации, кодирования семантики сообщения и превращение ее в синтаксическую форму -знака в большинстве информационных ситуаций является, по всей видимости, более значимым, чем результат интерпретации сообщения потребителем информации. Так, разработчики измерительных, вычислительных, управляющих и коммуникационных систем вкладывают весьма ценную информацию в структуру и функции программно-аппаратных средств информатики, которые затем порождают новую информацию для приемников в различных проблемных ситуациях.
...Подобные документы
Понятие о внеурочной воспитательной работе, ее сущность и специфика в деятельности учителя информатики, общая характеристика и предъявляемые требования. Анализ применения учителем информатики современных информационно-коммуникационных технологий.
курсовая работа [70,0 K], добавлен 03.06.2014Состав, структура, функции и типы электронного портфолио. Основы алгоритмизации на уроке информатики в школе. Основные алгоритмические структуры, способы описания алгоритмов. Применение электронного портфолио в практической деятельности учителя.
дипломная работа [938,0 K], добавлен 09.07.2009Развитие мышления учащихся. История возникновения игр. Основные психолого–педагогические особенности организации учебной деятельности учащихся 5–6 классов с помощью развивающих игр на уроках информатики. Описание игр, применяемых на уроках информатики.
дипломная работа [3,4 M], добавлен 21.04.2011Пассивные и активные методы обучения на уроках информатики. Разработка план-конспекта с применением активных и пассивных методов обучения на уроках информатики. Выбор метода обучения школьников на уроках информатики, основные методики преподавания.
курсовая работа [2,2 M], добавлен 25.09.2011Характеристика традиционных форм педагогического контроля. Виды тестов на уроке информатики и ИКТ, эффективность их применения. Типология тестовых заданий для пропедевтического курса информатики. Организация тестового контроля на уроках в 3 классе.
курсовая работа [65,1 K], добавлен 16.04.2014Метод проектов как способ организации исследовательской деятельности школьников на уроках информатики. Понятие исследовательского поведения. Разработка заданий по формированию исследовательской культуры при изучении информатики в начальной школе.
дипломная работа [898,5 K], добавлен 16.06.2015Интеграция информатики и математики как главное направление в повышении эффективности обучения. Методика применения программных средств к интерактивным урокам. Отбор учебного материала для электронного обучения математики и информатики в средней школе.
дипломная работа [1,1 M], добавлен 08.04.2013Методика формирования умений творческой деятельности будущего учителя информатики. Примеры творческих работ учащихся младших классов в курсе информатики. Разработка школьного урока по изучению основных видов принтеров, их устройств, технологии печати.
курсовая работа [33,7 K], добавлен 18.09.2010Изучение истории возникновения метода проектов и рассмотрение его роли в деятельности школьников. Характеристика исследовательских, творческих, приключенческих и информационных проектов. Результаты проектной деятельности учителя информатики в школе.
курсовая работа [1,1 M], добавлен 07.05.2012Общее понятие информации. Методические особенности подготовки школьников в области информатики и информационных технологий. Содержание курса информатики и информационных технологий для 5-х классов. Разработка различных типов заданий для рабочей тетради.
курсовая работа [213,3 K], добавлен 03.06.2009Анализ методов формирования понятий информатики при обучении учащихся с учётом особенностей их возраста и факторов, влияющих на формирование их речевой культуры. Разработка методики изучения темы "Аппаратное обеспечение компьютера" на уроках информатики.
дипломная работа [6,0 M], добавлен 20.06.2011Изучение информационных технологий в рамках школьного курса информатики. Понятие информационных технологий и их значение в современном обществе. Принципы и методы отбора содержания курса информационные технологии. Основы построения информационной модели.
дипломная работа [630,8 K], добавлен 30.03.2011Цели, содержание и методы изучения алгоритмической линии в курсе информатики в начальной школе. Ретроспективный обзор и характеристика исполнителей. Технологические карты уроков. Эффективность включения в урок информатики работы с исполнителями.
дипломная работа [5,9 M], добавлен 08.09.2017Разработка учебной программы по информатике для старших классов на основе сочетания поурочного планирования и проектного метода. Основополагающая концепция школьного курса информатики. Тематическое планирование курса информатики для IX и X классов.
курсовая работа [71,1 K], добавлен 24.03.2013Методика преподавания информатики как новый раздел педагогической науки и учебный предмет подготовки учителя информатики. Представление числовой информации в компьютере. Особенности концепции проблемного обучения, его сущность, основные методы и функции.
курсовая работа [149,4 K], добавлен 08.06.2013Учебный процесс и средства информационных и коммуникационных технологий. Тенденция функционирования и развития содержания методической системы обучения информатике в педвузах. Недостатки современной системы методической подготовки учителя информатики.
автореферат [104,5 K], добавлен 13.10.2008Методы и приёмы преподавания темы: "Табличные процессоры Excel". Разработка примерной программы курса "Технология обработки числовых данных" на профильных курсах информатики. Тематическое содержание курса информатики в старшей школе на профильном уровне.
курсовая работа [334,4 K], добавлен 24.06.2011Структура и содержание образовательного процесса. Современные формы работы на уроках "Информатика и ИКТ". Технология проектного обучения в современной школе. Обоснование выбора различных методов диагностики проведения проектов на уроках информатики.
курсовая работа [189,8 K], добавлен 15.07.2015Понятие компетентностного подхода к обучению, анализ литературных источников. Ключевые компетенции учащихся. Урок информатики как средство формирования ключевых компетенций учащихся. Примеры реализации компетентностного подхода на уроках информатики.
курсовая работа [56,9 K], добавлен 24.06.2010Задачи классно-урочных занятий по основам информатики в школе и место самостоятельной работы в структуре урока. Социально-медицинские проблемы раннего обучения. Влияние самостоятельной работы на качество знаний и развитие познавательной способности.
дипломная работа [514,2 K], добавлен 03.07.2015