Системная нечеткая интервальная математика (СНИМ) – перспективное направление теоретической и вычислительной математики

Анализ перспектив и "точек роста" современной теоретической и вычислительной математики. Теория нечетких множеств. Развитие идеи системного обобщения математики в области теории информации. Реализация идей системного интервального обобщения математики.

Рубрика Математика
Вид статья
Язык русский
Дата добавления 29.04.2017
Размер файла 1,0 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Аргументы при втором типе сравнений не имеют доказательной силы, поскольку по поводу границ применимости даже такой давно выделившейся научной области, как вероятностно-статистические методы, имеются различные мнения. Более того, нет единства мнений об арифметике. Напомним, что итог рассуждений одного из наиболее известных французских математиков Анри Лебега по поводу границ применимости арифметики таков: «Арифметика применима тогда, когда она применима» (см. [7, 8]).

При сравнении различных аксиоматик теории нечеткости и теории вероятностей нетрудно увидеть, что списки аксиом различаются. Из этого, однако, отнюдь не следует, что между указанными теориями нельзя установить связь, типа известного сведения евклидовой геометрии на плоскости к арифметике (точнее к теории числовой системы R2). Эти две аксиоматики -- евклидовой геометрии и арифметики -- на первый взгляд весьма сильно различаются.

Можно понять желание энтузиастов теории нечеткости подчеркнуть принципиальную новизну своего научного аппарата. Однако не менее важно установить связи этого подхода с ранее известными.

Проекция случайного множества. Как оказалось, теория нечетких множеств тесно связана с теорией случайных множеств. Еще в 1975 г. доказано (см. [7, 8, 12]), что нечеткие множества естественно рассматривать как «проекции» случайных множеств. Рассмотрим этот метод сведения теории нечетких множеств к теории случайных множеств.

Определение 1. Пусть A = A() -- случайное подмножество конечного множества Y. Нечеткое множество В, определенное на Y, называется проекцией А и обозначается Proj A, если

B(y) = P(y A) (3)

при всех y Y.

Очевидно, каждому случайному множеству А можно поставить в соответствие с помощью формулы (3) нечеткое множество В = Proj A. Оказывается, верно и обратное.

Теорема 1. Для любого нечеткого подмножества В конечного множества Y существует случайное подмножество А множества Y такое, что В = Proj A.

Изучение связи между нечеткими и случайными множествами началось с введения случайных множеств с целью развития и обобщения аппарата нечетких множеств Л. Заде. Дело в том, что математический аппарат нечетких множеств не позволяет в должной мере учитывать различные варианты зависимости между понятиями (объектами), моделируемыми с его помощью, т.е. не является достаточно гибким. Так, для описания «общей части» двух нечетких множеств есть лишь две операции -- произведение и пересечение. Если применяется первая из них, то фактически предполагается, что множества ведут себя как проекции независимых случайных множеств. Операция пересечения также накладывает вполне определенные ограничения на вид зависимости между множествами, причем в этом случае найдены даже необходимые и достаточные условия [7, 8, 12]. Желательно иметь более широкие возможности для моделирования зависимости между множествами (понятиями, объектами). Использование математического аппарата случайных множеств предоставляет такие возможности.

Цель сведения теории нечетких множеств к теории случайных множеств в том, чтобы за любой конструкцией из нечетких множеств увидеть конструкцию из случайных множеств, определяющую свойства первой, аналогично тому, как за плотностью распределения вероятностей мы видим случайную величину. Приведем один из результатов по сведению алгебры нечетких множеств к алгебре случайных множеств.

Теорема 2. Пусть B1, B2, B3, …, Bt -- некоторые нечеткие подмножества множества Y из конечного числа элементов. Рассмотрим результаты последовательного выполнения теоретико-множественных операций

Bm = ((…((B1B2)B3)…)Bm-1) Bm, m = 1, 2, …, t,

где -- символ одной из следующих теоретико-множественных операций над нечеткими множествами: пересечение, произведение, объединение, сумма (на разных местах могут стоять разные символы). Тогда существуют случайные подмножества A1, A2, A3, …, At того же множества Y такие, что

ProjAi = Bi, i = 1, 2, …, t,

и, кроме того, результаты теоретико-множественных операций связаны аналогичными соотношениями

Proj{((…((A1 A2) A3) Am-1) Am} = Bm, m = 1, 2, …, t,

где знак означает, что на рассматриваемом месте стоит символ пересечения случайных множеств, если в определении Bm стоит символ пересечения или символ произведения нечетких множеств, и соответственно символ объединения случайных множеств, если в Bm стоит символ объединения или символ суммы нечетких множеств.

6. Интервальные числа как частный случай нечетких множеств

Интервальное число - это нечеткое множество с функцией принадлежности, заданной формулой (2). Проще говоря, интервальное число - это интервал [a, b]. Интервальные числа часто используются для описания результатов измерений, поскольку измерение всегда проводится с некоторой неопределенностью. Прогноз погоды, как и другие прогнозы, дается в виде интервала, например: «Температура завтра днем будет 15 - 17 градусов Цельсия».

Арифметические операции над интервальными числами [a, b] и [c, d] определяются следующим образом:

[a, b] + [c, d] = [a + c, b + d], [a, b] - [c, d] = [a - d+ c, b - c],

[a, b] [c, d] = [ac, bd], [a, b] / [c, d] = [a/d, b/c]

(формулы для умножения и деления приведены в случае положительных чисел a, b, c, d).

Определив арифметические операции, можем по аналогии с обычной математикой проводить различные расчеты, поскольку алгоритмы расчетов представляют собой последовательности арифметических действий.

7. Развитие интервальной математики. «Интервальное удвоение» математики

Первая монография по интервальной математике была опубликована Р.Е. Муром в 1966 г. (практически одновременно с первой статьей Л.А. Заде по нечетким множествам), а на русском языке - Ю.И. Шокиным в 1981 г. В дальнейшем интервальная математика активно развивалась, но не так быстро, как теория нечетких множеств. Исключением является статистика интервальных данных, в которой получено много интересных результатов (они приведены в одной из четырех глав монографии [7]), в то время как статистика нечетких данных до сих пор гораздо менее развита и представляет собой в основном результат применения общих подходов статистики объектов нечисловой природы, являющихся элементами пространств произвольного вида [7].

Любую математическую конструкцию, использующую числа, можно обобщить, заменив обычные числа на интервальные. Таким образом, применение интервальных чисел позволяет произвести «интервальное удвоение» математики. Открывается большое поле для теоретических исследований, имеющих непосредственный практический интерес. Вначале основные применения были связаны с автоматическим контролем ошибок округления при вычислениях на ЭВМ. Затем начали учитывать ошибки дискретизации численных методов и ошибки в начальных данных. Статистика интервальных данных исходит из модели, согласно которой элементы выборки известны лишь с точностью до «плюс-минус дельта», т.е. выборка состоит из интервалов фиксированной длины со случайными концами.

Констатируем необходимость расширения математического аппарата с целью учета присущих реальности нечеткости и интервальности. Такая необходимость отмечалась в ряде публикаций [35-37], но пока еще не стала общепризнанной. На описании неопределенностей с помощью вероятностных моделей не останавливаемся, поскольку такому подходу посвящено множество работ.

8. Система как обобщение множества. Системное обобщение математики и задачи, возникающие при этом

В науке принято два основных принципа определения понятий:

- через подведение определяемого понятия под более общее понятие и выделение из него определяемого понятия путем указания одного или нескольких его специфических признаков (например, млекопитающие - это животные, выкармливающие своих детенышей молоком);

- процедурное определение, которое определяет понятие путем указания пути к нему или способа его достижения (магнитный северный полюс - это точка, в которую попадешь, если все время двигаться на север, определяя направление движения с помощью магнитного компаса).

Как это ни парадоксально, но понятия системы и множества могут быть определены друг через друга, т.е. трудно сказать, какое из этих понятие является более общим.

Определение системы через множество.

Система есть множество элементов, взаимосвязанных друг с другом, что дает системе новые качества, которых не было у элементов. Эти новые системные свойства еще называются эмерджентными, т.к. не очень просто понять, откуда они берутся. Чем больше сила взаимодействия элементов, тем сильнее свойства системы отличаются от свойств множества и тем выше уровень системности и синергетический эффект. Получается, что система - это множество элементов, но не всякое множество, а только такое, в котором элементы взаимосвязаны (это и есть специфический признак, выделяющий системы в множестве), т.е. множество - это более общее понятие.

Определение множества через систему.

Но можно рассуждать и иначе, считая более общим понятием систему, т.е. мы ведь можем определить понятие множества через понятие системы. Множество - это система, в которой сила взаимодействия между элементами равна нулю (это и есть отличительный признак, выделяющий множества среди систем). Тогда более общим понятием является система, а множества - это просто системы с нулевым уровнем системности.

Вторая точка зрения объективно является предпочтительной, т.к. совершенно очевидно, что понятие множества является предельной абстракцией от понятия системы и реально в мире существуют только системы, а множеств в чистом виде не существует, как не существует математической точки. Точнее сказать, что множества, конечно, существуют, но всегда исключительно и только в составе систем как их базовый уровень иерархии, на котором они основаны.

Из этого вытекает очень важный вывод: все понятия и теории, основанные на понятии множества, допускают обобщение путем замены понятия множества на понятие системы и тщательного прослеживания всех последствий этой замены. При этом более общие теории будут удовлетворять принципу соответствия, обязательному для более общих теорий, т.е. в асимптотическом случае, когда сила взаимосвязи элементов систем будет стремиться к нулю, системы будут все меньше отличаться от множеств и системное обобщение теории перейдет к классическому варианту, основанному на понятии множества. В предельном случае, когда сила взаимосвязи точно равна нулю, системная теория будет давать точно такие же результаты, как основанная на понятии множества.

Этот вывод верен для всех теорий, но в данной статье для авторов наиболее интересным и важным является то, что очень многие, если не практически все понятия современной математики основаны на понятии множества, в частности на математической теории множеств. В частности, к таким понятиям относятся понятия:

- математической операции: преобразования одного или нескольких исходных множеств в одно или несколько результирующих;

- функциональной зависимости: отображение множества значений аргумента на множество значений функции для однозначной функции одного аргумента или отображение множеств значений аргументов на множества значений функций для многозначной функции многих аргументов;

- «количество информации»: функция от свойств множества.

В статье [13] впервые сформулирована и обоснована программная идея системного обобщения математики, суть которой состоит в тотальной замене понятия "множество" на более общее понятие "система" и прослеживании всех последствий этого. При этом обеспечивается соблюдение принципа соответствия, обязательного для более общей теории, т.к. при понижении уровня системности система по своим свойствам становится все ближе к множеству и система с нулевым уровнем системности и есть множество. Приводится развернутый пример реализации этой программной идеи в области теории информации, в качестве которого выступает предложенная в 2002 году системная теория информации [17], являющаяся системным обобщением теории информации Найквиста - Больцмана - Хартли - Шеннона и семантической теории информации Харкевича. Основа этой теории состоит в обобщении комбинаторного понятия информации Хартли I = Log2N на основе идеи о том, что количество информации определяется не мощностью множества N, а мощностью системы, под которой предлагается понимать суммарное количество подсистем различного уровня иерархии в системе, начиная с базовых элементов исходного множества и заканчивая системой в целом. При этом в 2002 году, когда было предложено системное обобщение формулы Хартли, число подсистем в системе, т.е. мощность системы Ns, предлагалось рассчитывать по формуле:

.

Соответственно, системное обобщение формулы Хартли для количества информации в системе из n элементов предлагалось в виде:

В статье [38] дано системное обобщение формулы Хартли для количества информации для квантовых систем, подчиняющиеся статистике как Ферми-Дирака, так и Бозе-Эйнштейна, и стало ясно, что предложенные в 2002 году в работе [17] вышеприведенные выражения имеют силу только для систем, подчиняющихся статистике Ферми-Дирака.

В статье [14] кратко описывается семантическая информационная модель системно-когнитивного анализа (СК-анализ), вводится универсальная информационная мера силы и направления влияния значений факторов (независимая от их природы и единиц измерения) на поведение объекта управления (основанная на лемме Неймана - Пирсона), а также неметрический интегральный критерий сходства между образами конкретных объектов и обобщенными образами классов, образами классов и образами значений факторов. Идентификация и прогнозирование рассматривается как разложение образа конкретного объекта в ряд по обобщенным образам классов (объектный анализ), что предлагается рассматривать как возможный вариант решения на практике 13-й проблемы Гильберта.

В статьях [15, 16] обоснована идея системного обобщения математики и сделан первый шаг по ее реализации: предложен вариант системной теории информации [17, 21]. В данной статье осуществлена попытка сделать второй шаг в этом же направлении: на концептуальном уровне рассматривается один из возможных подходов к системному обобщению математического понятия множества, а именно - подход, основанный на системной теории информации. Предполагается, что этот подход может стать основой для системного обобщения теории множеств и создания математической теории систем. Сформулированы задачи, возникающие на пути достижения этой цели (разработки системного обобщения математики) и предложены или намечены пути их решения:

Задача 1: найти способ представления системы как совокупности взаимосвязанных множеств.

Задача 2: сформулировать, чем отличаются друг от друга различные системы, состоящие из одних и тех же базисных элементов.

Задача 3: обосновать принципы геометрической интерпретации понятий: "элемент системы" и "система".

Задача 4: предложить способы аналитического описания (задания) подсистем как элементов системы.

Задача 5: описать системное семантическое пространство для отображения систем в форме эйдосов (эйдос-пространство).

Задача 6: описать принцип формирования эйдосов (включая зеркальные части).

Задача 7: показать, что базовая когнитивная концепция [17] формализуется многослойной системой эйдос-пространств (термин автора) различных размерностей.

Задача 8: показать, что системная теория информации позволяет непосредственно на основе эмпирических данных определять вид функций принадлежности, т.е. решать одну из основных задач теории нечетких множеств.

Задача 9: сформулировать перспективы: разработка операций с системами: объединение (сложение), пересечение (умножение), вычитание. Привести предварительные соображения по сложению систем.

В данной статье эти варианты решения не приводятся из-за ограниченности ее объема.

9. Системное обобщение операций над множествами (на примере операции объединения булеанов)

В статье [22] рассматривается реализация математической операции объединения систем, являющаяся обобщением операции объединения множеств в рамках системного обобщения теории множеств. Эта операция сходна с операцией объединения булеанов классической теории множеств. Но в отличие от классической теории множеств в ее системном обобщении предлагается конкретный алгоритм объединения систем и обосновывается количественная мера системного (синергетического, эмерджентного) эффекта, возникающего за счет объединения систем. Для этой меры предложено название: «Обобщенный коэффициент эмерджентности Р. Хартли» из-за сходства его математической формы с локальным коэффициентом эмерджентности Хартли и отражающим степень отличия системы от множества её базовых элементов. Приводится ссылка на авторскую программу, реализующую предложенный алгоритм и обеспечивающую численное моделирование объединения систем при различных ограничениях на сложность систем и при различной мощности порождающего множества, приводятся некоторые результаты численного моделирования.

В статье [23] предлагается общее математическое выражение для количественной оценки системного (синергетического) эффекта, возникающего при объединении булеанов (систем), являющихся обобщением множества в системном обобщении теории множеств и независящее от способа (алгоритма) образования подсистем в системе. Для этой количественной меры предложено название: «Обобщенный коэффициент эмерджентности Р.Хартли» из-за сходства его математической формы с локальным коэффициентом эмерджентности Хартли, отражающим степень отличия системы от множества его базовых элементов. Для локального коэффициента эмерджентности Хартли также предложено обобщение, независящее от способа (алгоритма) образования подсистем в системе. Приводятся численные оценки системного эффекта при объединении двух систем с применением авторской программы, на которую дается ссылка.

10. Системное обобщение понятия функции и функциональной зависимости. Когнитивные функции. Матрицы знаний как нечеткое с расчетной степенью истинности отображение системы аргументов на систему значений функции

Выше кратко рассматривается программная идея системного обобщения понятий математики (в частности теории информации), основанных на теории множеств, путем тотальной замены понятия множества на более содержательное понятие системы и прослеживания всех последствий этого. Частично эта идея была реализована автором при разработке автоматизированного системно-когнитивного анализа (АСК-анализа) [39], математическая модель которого основана на системном обобщении формул для количества информации Хартли и Харкевича [17].

В статье [24] реализуется следующий шаг: предлагается системное обобщение понятия функциональной зависимости, и вводятся термины "когнитивные функции" и "когнитивные числа". На численных примерах показано, что АСК-анализ обеспечивает выявление когнитивных функциональных зависимостей в многомерных зашумленных фрагментированных данных.

В работе [20] намечены принципы применения многозначных функций многих аргументов для описания сложных систем и предложено матричное представление этих функций.

В статье [25] обсуждается возможность восстановления значений одномерных и двумерных функций как между значениями аргумента (интерполяция), так и за их пределами (экстраполяция) на основе использования априорной информации о взаимосвязи между признаками аргумента и значениями функции в опорных точках с применением системно-когнитивного анализа и его инструментария - системы «Эйдос». Приводятся численные примеры и визуализация результатов. Предлагается применение аппарата многомерных когнитивных функций для решения задач распознавания и прогнозирования на картографических базах данных.

В статье [26] на примере решения проблемы управления агропромышленным холдингом рассматривается технология когнитивных функций СК-анализа, обеспечивающая как выявление знаний из эмпирических данных, так и использование этих знаний для поддержки принятия решений по управлению холдингом в целом на основе управления характеристиками входящих в него предприятий.

В статье [27] рассматривается применение метода автоматизированного системно-когнитивного анализа и его программного инструментария - системы «Эйдос» для выявления причинно-следственных зависимостей из эмпирических данных. В качестве инструментария для формального представления причинно-следственных зависимостей предлагаются когнитивные функции.

Когнитивные функции представляют собой многозначные интервальные функции многих аргументов, в которых различные значения функции в различной степени соответствуют различным значениям аргументов, причем количественной мерой этого соответствия выступает знание, т.е. информация о причинно-следственных зависимостях в эмпирических данных, полезная для достижения целей.

В статье [28] на основе применения аппарата когнитивных функций впервые исследована зависимость параметров движения полюса Земли от положения небесных тел Солнечной системы. В последующем эти результаты развиты в монографии [29].

Наиболее полно метод визуализации когнитивных функций, как новый инструмент исследования эмпирических данных большой размерности, раскрыт в статье [30].

В статье [31] рассматривается новая версия системы искусственного интеллекта «Эйдос-астра» для решения прикладных задач с эмпирическими данными большой размерности. Приложение, написанное на языке JAVA, обеспечивает GUI (графический интерфейс пользователя) и позволяет подготовить и выполнить визуализацию матрицы знаний без ограничений, налагаемых реализацией предыдущих версий системы «Эйдос-астра». Отметим, что в системе Эйдос-Х++ все эти ограничения на размерность моделей также сняты в универсальной форме, не зависящей от предметной области.

В статье [32] рассмотрена глубокая взаимосвязь между теорией автоматизированного и автоматического управления и системно-когнитивным анализом и его программным инструментарием - системой «Эйдос» в их применении для интеллектуального управления сложными системами. Предлагается технология, позволяющая на практике реализовать интеллектуальное автоматизированное и даже автоматическое управление такими объектами управления, для которых ранее управление реализовалось лишь на слабоформализованном уровне, как правило, без применения математических моделей и компьютеров. К таким объектам управления относятся, например, технические системы, штатно качественно-изменяющиеся в процессе управления, биологические и экологические системы, социально-экономические и психологические системы. Намечены возможности получения когнитивных передаточных функций сложных многопараметрических нелинейных объектов управления на основе зашумленной фрагментированной эмпирической информации об их фактическом поведении под действием различных сочетаний значений факторов различной природы.

Приведем простейший пример (рис. 1) когнитивной функции затухающего синусоидального колебания, восстановленной по табличным данным, включающим 360 значений функции, при разном числе интервальных значений аргумента и функции: 30 (верхний график) и 60 (нижний график):

Рисунок 1. Когнитивная функция затухающего синусоидального колебания, восстановленная по табличным данным, включающим 360 значений функции, при 30 (вверху) и 60 (внизу) интервальных значениях аргумента и функции

Ясно, что если величина интервала будет стремиться к нулю, то интервальные функции, к которым относятся и когнитивные функции, будут асимптотически приближаться к абстрактным математическим функциям, которые можно считать интервальными функциями с нулевой величиной интервала. Поэтому интервальная математика может рассматриваться как более общая, чем точная и для нее выполняется известный принцип соответствия, обязательный для более общих теорий.

В когнитивных функциях, представленных на рис. 1, цветом отображено количество информации в интервальном значении аргумента об интервальном значении функции. Или выражаясь точнее, цветом отображено количество информации в интервальном значении аргумента о том, что (при этом значении аргумента) функция примет определенное интервальное значение. Или еще точнее, цветом отображено количество информации о том, что при значении аргумента, попадающем в данный интервал, функция примет определенное значение, попадающее в соответствующий интервал.

Из рис. 1 мы видим, что об одних значениях функции в значениях аргумента содержится больше информации, а о других меньше. Это значит, что различные значения аргумента с разной степенью определенности обуславливают соответствующие значения функции. Иначе говоря, зная одни значения аргумента, мы весьма определенно можем сказать о соответствующем значении функции, а по другим значениям мы можем судить о значении функции лишь приблизительно, т.е. с гораздо большей погрешностью или неопределенностью.

Таким образом, когнитивная функция содержит информацию не только о соответствии значений функции значениям аргумента, как абстрактная математическая функция, но и о достоверности высказывания о том, что именно такое их соответствие имеет место в действительности, причем эта достоверность меняется от одних значений аргумента и функции к другим.

Получается, что в каждом значении аргумента содержится определенная информация о каждом значении функции. Эта информация может быть больше или меньше, она может быть положительная или отрицательная, т.е. в когнитивной функции каждому значению аргумента соответствуют все значения функции, но в различной степени. Из этого следует также, что каждое значение функции обуславливается различными значениями аргумента, но каждое из них обусловливает это значение в различной степени. Поэтому когнитивные функции являются многозначными функциями многих аргументов.

Это понятие напоминает доверительный интервал, но с той разницей, что доверительный интервал всегда растет со значением аргумента, а количество информации может и возрастать, и уменьшаться. Если осуществляется интерполяция или прогноз значения когнитивной функции, то при этом одновременно определяется и достоверность этой интерполяции или этого прогноза. На когнитивной функции, представленной на рис. 2, эта достоверность представлена в форме полупрозрачной полосы, ширина которой обратно пропорциональна достоверности (как в доверительном интервале), т.е. чем точнее известно значение функции, тем уже полоса, и чем оно более неопределенно, тем она шире.

Рисунок 2. Когнитивная функция затухающего синусоидального колебания, восстановленная по табличным данным, включающим 360 значений функции, при 15 интервальных значениях аргумента и функции с указанием степени достоверности не только цветом, но и в форме частично-редуцированной когнитивной функции, аналогичной по смыслу доверительному интервалу

В теоретической математике нет меры причинно-следственной связи. Математика оперирует абстрактными понятиями, а понятие причинно-следственной связи является содержательным понятием, относящимся к конкретной изучаемой, в том числе и эмпирически, предметной области. Математические понятия функциональной зависимости или корреляция не являются такой мерой. Правда, в статистике есть критерий хи-квадрат, который действительно является мерой причинно-следственной связи, но статистика специально разработана с целью изучения конкретных явлений и этим существенно отличается от абстрактной теоретической математики.

Мы рассматриваем числовые и лингвистические данные, как сырые данные, полученные непосредственно из опыта и еще не подвергнутые какой-либо обработке. Эти эмпирические данные могут быть преобразованы в информацию путем их анализа. Информация есть осмысленные данные. Смысл согласно концепции смысла Шешка-Абельсона, которой мы придерживаемся, представляет собой знание причинно-следственных зависимостей. Причинно-следственные зависимости возможны только между событиями, а не между данными. Поэтому анализ данных, в результате которого они преобразуются в информацию, включает два этапа:

- нахождение событий в данных;

- выявление причинно-следственных связей между событиями.

Знания представляют собой информацию, полезную для достижения цели. Если такой целью является решение задач прогнозирования, принятия решений и исследования моделируемой предметной области путем исследования ее модели (это корректно, если модель адекватна), то информационная модель является и когнитивной моделью, т.е. интеллектуальной моделью или моделью знаний.

Поэтому когнитивные функции являются наглядным графическим отображение наших знаний о причинно-следственных связях между интервальными или лингвистическими значениями аргумента и интервальными или лингвистическими значениями функции.

Когнитивные функции представляют собой графическое отображение сечений многомерного эйдос-пространства (базы знаний) системы «Эйдос-Х++» плоскостями, содержащими заданные описательные и классификационные шкалы с фактически имеющимися у них интервальными значениями (градациями).

Рассмотрим с позиций теории информации, чем отличаются когнитивные функции от абстрактных математических функций. Формально по точному значению аргумента любой абстрактной математической функции возможно точно узнать ее точное значение. Но на практике это возможно лишь тогда, когда и значения аргумента, и значения функции являются целыми числами. Если же они являются иррациональными числами, то совершенно ясно, что точное их значение никогда не может быть ни вычислено на любом компьютере с ограниченной вычислительной мощностью, ни записано, ни на каких носителях с ограниченной информационной емкостью, ни передано ни по каким каналам связи с ограниченной пропускной способностью. Поэтому точное знание значения иррациональной функции означает доступ к бесконечному количеству информации. На практике же мы, конечно, всегда имеем дело с ограниченной точностью или знаем значения функции с некоторой погрешностью, т.е. оперируем конечным количеством информации в значениях аргумента о значениях функции. Но каким именно количеством информации? До разработки математического аппарата и программного инструментария когнитивных функций это вопрос как-то ребром не ставился и был в тени приоритетных направлений исследований. Ответом на это вопрос и является теория когнитивных функций, где каждому значению аргумента соответствует не только значение функции, но и количество информации в битах, содержащееся в этом значении аргумента о том, что ему соответствует данное значение функции. В оцифрованных аудио, видео и других сигналах мы всегда знаем глубину кодирования, а значит и количество информации в значении аргументе о значении функции. В любых таблицах и базах данных числа всегда представлены с ограниченным числом знаков после запятой, а значит само множество таких чисел ограничено, и всегда можно посчитать, какие количество информации содержится в факте выборки как-то одного конкретного из этих чисел. Например, в известной таблице Брадиса приводится 4 знака значения синуса после запятой. Это значит, что определенному углу (от 0 до 90°) соответствует одно из 9999 значений. По формуле Хартли получаем: I=Log2N=Log29999~13.29 бит.

Разработаны нередуцированные, частично и полностью редуцированные прямые и обратные когнитивные функции, а также программный инструментарий для их расчета (сама система Эйдос-Х++) и визуализации [40]. Однако в данной статье не целесообразно их рассматривать, т.к. этому посвящены работы [24, 27-30] и ряд других.

11. Модификация метода наименьших квадратов при аппроксимации когнитивных функций

Предлагается модификация метода наименьших квадратов для аппроксимации когнитивных функций, в котором точки имеют вес, равный количеству информации в значении аргумента о значении функции. Для упрощения можно рассматривать точки когнитивных функций как «мультиточки», состоящие из определенного количества «элементарных точек», соответствующего их весу. Другой вариант состоит в том, что перед применением стандартного МНК для каждого значения аргумента рассчитывается средневзвешенное значение функции из всех с их весами. В модуле визуализации когнитивных функций [40] этот метод реализован программно для отображения частично и полностью редуцированных когнитивных функций. Математическому описанию этого метода планируются посвятить одну из будущих статей авторов.

12. Развитие идеи системного обобщения математики в области теории информации. Системная (эмерджентная) теория информации (СТИ)

Данный раздел представляет собой краткое частичное изложение статьи [21].

Итак, классическая формула Хартли имеет вид:

( 1 )

Будем искать ее системное обобщение в виде:

( 2 )

где:

W - количество элементов в множестве.

- коэффициент эмерджентности, названный автором в честь Хартли коэффициентом эмерджентности Хартли.

Примем, что системное обобщение формулы Хартли имеет вид:

( 3 )

где:

- количество подсистем из m элементов;

m - сложность подсистем;

M - максимальная сложность подсистем.

Так как , то при M=1 система переходит в множество и выражение (3) приобретает вид (1), т.е. для него выполняется принцип соответствия, являющийся обязательным для более общей теории.

Учитывая, что при M=W:

( 4 )

в этом случае получаем:

( 5 )

Выражение (5) дает приближенную оценку максимального количества информации в элементе системы. Из выражения (5) видно, что при увеличении числа элементов W количество информации I быстро стремится к W (6) и уже при W>4 погрешность выражения (5) не превышает 1%:

( 6 )

Приравняв правые части выражений (2) и (3):

( 7 )

получим выражение для коэффициента эмерджентности Хартли:

( 8 )

Смысл этого коэффициента раскрыт в работах [2, 4, 5, 9, 12, 13, 14]. Здесь отметим лишь, что при M1, когда система асимптотически переходит в множество 1 и (2) (1), как и должно быть согласно принципу соответствия.

С учетом (8) выражение (2) примет вид:

( 9 )

или при M=W и больших W, учитывая (4) и (5):

( 10 )

Выражение (9) и представляет собой искомое системное обобщение классической формулы Хартли, а выражение (10) - его достаточно хорошее приближение при большом количестве элементов в системе W.

Классическая формула А. Харкевича имеет вид:

( 11 )

где: - Pij - условная вероятность перехода объекта в j-е состояние при условии действия на него i-го значения фактора;

- Pj - безусловная вероятность перехода объекта в j-е состояние (вероятность самопроизвольного перехода или вероятность перехода, посчитанная по всей выборке, т.е. при действии любого значения фактора).

Придадим выражению (11) следующий эквивалентный вид, который и будем использовать ниже:

( 12 )

где: - индекс i обозначает признак (значение фактора): 1 i M;

- индекс j обозначает состояние объекта или класс: 1 j W;

- Pij - условная вероятность наблюдения i-го значения фактора у объектов в j-го класса;

- Pi - безусловная вероятность наблюдения i-го значения фактора по всей выборке.

Из (12) видно, что формула Харкевича для семантической меры информации по сути является логарифмом от формулы Байеса для апостериорной вероятности (отношение условной вероятности к безусловной). Вопрос об эквивалентности выражений (11) и (12) рассмотрим позднее.

Известно, что классическая формула Шеннона для количества информации для неравновероятных событий преобразуется в формулу Хартли при условии, что события равновероятны, т.е. удовлетворяет фундаментальному принципу соответствия. Поэтому теория информации Шеннона справедливо считается обобщением теории Хартли для неравновероятных событий. Однако, выражения (11) и (12) при подстановке в них реальных численных значений вероятностей Pij, Pj и Pi не дает количества информации в битах, т.е. для этого выражения не выполняется принцип соответствия, обязательный для более общих теорий. Возможно, в этом состоит причина довольно сдержанного, а иногда и скептического отношения специалистов по теории информации Шеннона к семантической теории информации Харкевича.

Причину этого мы видим в том, что в выражениях (11) и (12) отсутствуют глобальные параметры конкретной модели W и M, т.е. в том, что А. Харкевич в своем выражении для количества информации не ввел зависимости от мощности пространства будущих состояний объекта W и количества значений факторов M, обуславливающих переход объекта в эти состояния.

Поставим задачу получить такое обобщение формулы Харкевича, которое бы удовлетворяло тому же самому принципу соответствия, что и формула Шеннона, т.е. преобразовывалось в формулу Хартли в предельном детерминистском равновероятном случае, когда каждому классу (состоянию объекта) соответствует один признак (значение фактора), и каждому признаку - один класс, и эти классы (а, значит и признаки), равновероятны, и при этом каждый фактор однозначно, т.е. детерминистским образом определяет переход объекта в определенное состояние, соответствующее классу.

Будем искать это обобщение (12) в виде:

( 13 )

Найдем такое выражение для коэффициента , названного нами в честь А. Харкевича "коэффициентом эмерджентности Харкевича", которое обеспечивает выполнение для выражения (13) принципа соответствия с классической формулой Хартли (1) и ее системным обобщением (2) и (3) в равновероятном детерминистском случае.

Для этого нам потребуется выразить вероятности Pij, Pj и Pi через частоты наблюдения признаков по классам (см. табл. 1). В табл. 1 рамкой обведена область значений, переменные определены ранее.

Таблица 1 - МАТРИЦА АБСОЛЮТНЫХ ЧАСТОТ

Алгоритм формирования матрицы абсолютных частот.

Объекты обучающей выборки описываются векторами (массивами) имеющихся у них признаков:

Первоначально в матрице абсолютных частот все значения равны нулю. Затем организуется цикл по объектам обучающей выборки. Если предъявленного объекта, относящегося к j-му классу, есть i-й признак, то:

Здесь можно провести очень интересную и важную аналогию между способом формирования матрицы абсолютных частот и работой многоканальной системы выделения полезного сигнала из шума. Представим себе, что все объекты, предъявляемые для формирования обобщенного образа некоторого класса, в действительности являются различными реализациями одного объекта - "Эйдоса" (в смысле Платона), по-разному зашумленного различными случайными обстоятельствами. И наша задача состоит в том, чтобы подавить этот шум и выделить из него то общее и существенное, что отличает объекты данного класса от объектов других классов. Учитывая, что шум чаще всего является "белым" и имеет свойство при суммировании с самим собой стремиться к нулю, а сигнал при этом, наоборот, возрастает пропорционально количеству слагаемых, то увеличение объема обучающей выборки приводит ко все лучшему отношению сигнал/шум в матрице абсолютных частот, т.е. к выделению полезной информации из шума. Примерно так мы начинаем постепенно понимать смысл фразы, которую мы сразу не расслышали по телефону и несколько раз переспрашивали. При этом в повторах шум не позволяет понять то одну, то другую часть фразы, но в конце-концов за счет использования памяти и интеллектуальной обработки информации мы понимаем ее всю. Так и объекты, описанные признаками, можно рассматривать как зашумленные фразы, несущие нам информацию об обобщенных образах классов - "Эйдосах" [12, 13, 14, 15], к которым они относятся. И эту информацию мы выделяем из шума при синтезе модели.

Для выражения (11):

( 14 )

Для выражений (12) и (13):

( 15 )

Для выражений (11), (12) и (13):

( 16 )

В (16) использованы обозначения:

Nij - суммарное количество наблюдений в исследуемой выборке факта: "действовало i-е значение фактора и объект перешел в j-е состояние";

Nj - суммарное количество встреч различных факторов у объектов, перешедших в j-е состояние;

Ni - суммарное количество встреч i-го фактора у всех объектов исследуемой выборки;

N - суммарное количество встреч различных факторов у всех объектов исследуемой выборки.

Формирование матрицы условных и безусловных процентных распределений.

На основе анализа матрицы частот (табл. 1) классы можно сравнивать по наблюдаемым частотам признаков только в том случае, если количество объектов по всем классам одинаково, как и суммарное количество признаков по классам. Если же они отличаются, то корректно сравнивать классы можно только по условным и безусловным относительным частотам (оценкам вероятностей) наблюдений признаков, посчитанных на основе матрицы частот (табл. 1) в соответствии с выражениями (14) и (15), в результате чего получается матрица условных и безусловных процентных распределений (табл. 2).

При расчете матрицы оценок условных и безусловных вероятностей Nj из табл. 1 могут браться либо из предпоследней, либо из последней строки. В 1-м случае Nj представляет собой "Суммарное количество признаков у всех объектов, использованных для формирования обобщенного образа j-го класса", а во 2-м случае - это "Суммарное количество объектов обучающей выборки, использованных для формирования обобщенного образа j-го класса", соответственно получаем различные, хотя и очень сходные семантические информационные модели, которые мы называем СИМ-1 и СИМ-2. Оба этих вида моделей поддерживаются системой "Эйдос".

Таблица 2 - МАТРИЦА УСЛОВНЫХ И БЕЗУСЛОВНЫХ ПРОЦЕНТНЫХ РАСПРЕДЕЛЕНИЙ

Эквивалентность выражений (11) и (12) устанавливается, если подставить в них выражения относительных частот как оценок вероятностей Pij, Pj и Pi через абсолютные частоты наблюдения признаков по классам из (14), (15) и (16). В обоих случаях из выражений (11) и (12) получается одно и то же выражение (17):

( 17 )

А из (13) - выражение (18), с которым мы и будем далее работать.

( 18 )

При взаимно-однозначном соответствии классов и признаков в равновероятном детерминистском случае имеем (таблица 3):

Таблица 3 - МАТРИЦА ЧАСТОТ В РАВНОВЕРОЯТНОМ ДЕТЕРМИНИСТСКОМ СЛУЧАЕ

В этом случае к каждому классу относится один объект, имеющий единственный признак. Откуда получаем для всех i и j равенства (19):

( 19 )

Таким образом, обобщенная формула А. Харкевича (18) с учетом (19) в этом случае приобретает вид:

( 20 )

откуда:

( 21 )

или, учитывая выражение для коэффициента эмерджентности Хартли (8):

( 22 )

Подставив коэффициент эмерджентности А.Харкевича (21) в выражение (18), получим:

или окончательно:

( 23 )

Отметим, что 1-я задача получения системного обобщения формул Хартли и Харкевича и 2-я задача получения такого обобщения формулы Харкевича, которая удовлетворяет принципу соответствия с формулой Хартли - это две разные задачи. 1-я задача является более общей и при ее решении, которое приведено выше, автоматически решается и 2-я задача, которая является, таким образом, частным случаем 1-й.

Однако, представляет самостоятельный интерес и частный случай, в результате которого получается формула Харкевича, удовлетворяющая в равновероятном детерминистском случае принципу соответствия с классической формулой Хартли (1), а не с ее системным обобщением (2) и (3). Ясно, что эта формула получается из (23) при =1.

( 24 )

Из выражений (21) и (22) видно, что в этом частном случае, т.е. когда система эквивалентна множеству (M=1), коэффициент эмерджентности А.Харкевича приобретает вид:

( 25 )

На практике для численных расчетов удобнее пользоваться не выражениями (23) или (24), а формулой (26), которая получается непосредственно из (18) после подстановки в него выражения (25):

( 26 )

Используя выражение (26) и данные таблицы 1 непосредственно прямым счетом получаем матрицу знаний (таблица 4):

Таблица 4 - МАТРИЦА ЗНАНИЙ (ИНФОРМАТИВНОСТЕЙ)

Здесь - это среднее количество знаний в i-м значении фактора:

В классическом анализе Шеннона идет речь лишь о передаче символов по одному информационному каналу от одного источника к одному приемнику. Его интересует прежде всего передача самого сообщения без искажений.

В данной статье ставится другая задача: идентифицировать или распознать информационный источник по сообщению от него. Поэтому метод Шеннона был обобщен путем учета в математической модели возможности существования многих источников информации, о которых к приемнику по зашумленному каналу связи приходят не отдельные символы-признаки, а сообщения, состоящие из последовательностей символов (признаков) любой длины.

13. Информационные меры уровня системности - коэффициенты эмерджентности

В работе [17] и статье [18] предлагаются теоретически обоснованные количественные меры, следующие из системной теории информации (СТИ), которые позволяют количественно оценивать влияние факторов на системы различной природы не по силе и направлению изменения состояния системы, а по степени возрастания или уменьшения ее эмерджентности (уровня системности) и степени детерминированности.

В статье [19] на простом численном примере рассматривается применение автоматизированного системно-когнитивного анализа (АСК-анализ) и его программного инструментария - интеллектуальной системы «Эйдос» для выявления и исследования детерминации эмерджентных макросвойств систем их составом и иерархической структурой, т.е. подсистемами различной сложности (уровней иерархии). Кратко обсуждаются некоторые методологические вопросы создания и применения формальных моделей в научном познании. Предложены системное обобщение принципа Уильяма Росса Эшби о необходимом разнообразии на основе системного обобщения теории множеств и системной теории информации, обобщенная формулировка принципа относительности Галилея-Эйнштейна, высказана гипотеза о его взаимосвязи с теоремой Эмми Нётер, а также предложена гипотеза «О зависимости силы и направления связей между базовыми элементами системы и ее эмерджентными свойствами в целом от уровня иерархии в системе»

В [18] предложены коэффициенты эмерджентности, применимые для систем, подчиняющихся классической или квантовой статистике. Дан алгоритм оценки уровня системности квантовых объектов. Рассмотрены квантовые системы, подчиняющиеся статистике Ферми-Дирака и Бозе-Эйнштейна, а также классические системы, подчиняющиеся статистике Максвелла-Больцмана. Установлено, что коэффициенты эмерджентности квантовых и классических систем отличаются между собой, как и коэффициенты квантовых систем ферми-частиц и бозе-частиц. Следовательно, коэффициент эмерджентности позволяет отличить классическую систему от квантовой системы, а квантовую систему ферми-частиц от квантовой системы бозе-частиц. Установлено также, что предложенные ранее в ряде работ, начиная с [17], различные варианты коэффициентов эмерджентности Хартли распространяются только на системы, подчиняющиеся статистике Ферми-Дирака.

...

Подобные документы

  • Значение математики в нашей жизни. История возникновения счета. Развитие методов вычислительной математики в настоящее время. Использование математики в других науках, роль математического моделирования. Состояние математического образования в России.

    статья [16,2 K], добавлен 05.01.2010

  • Греческая математика. Средние века и Возрождение. Начало современной математики. Современная математика. В основе математики лежит не логика, а здравая интуиция. Проблемы оснований математики являются философскими.

    реферат [32,6 K], добавлен 06.09.2006

  • История становления математики как науки. Период элементарной математики. Период создания математики переменных величин. Создание аналитической геометрии, дифференциального и интегрельного исчисления. Развитие математики в России в XVIII-XIX столетиях.

    реферат [38,2 K], добавлен 09.10.2008

  • Происхождение термина "математика". Одно из первых определений предмета математики Декартом. Сущность математики с точки зрения Колмогорова. Пессимистическая оценка возможностей математики Г Вейля. Формулировка Бурбаки о некоторых свойствах математики.

    презентация [124,5 K], добавлен 17.05.2012

  • Математическая теория нечетких множеств и нечеткая логика как обобщения классической теории множеств и классической формальной логики. Сферы и особенности применения нечетких экспертных систем. Анализ математического аппарата, способы задания функций.

    презентация [1,0 M], добавлен 17.04.2013

  • Робота присвячена важливісті математики, їх використанню у різних галузях науки. Інформація, яка допоможе зацікавити учнів при вивченні математики. Етапи розвитку математики. Філософія числа піфагорійців. Математичні формули у фізиці, хімії, психології.

    курсовая работа [347,2 K], добавлен 12.09.2009

  • Развитие математики переменных величин: создание аналитической геометрии, дифференциального и интегрального исчисления. Значение появления книги Декарта "Геометрия" в создании математики переменных величин. Становление математики в ее современном виде.

    реферат [25,9 K], добавлен 30.04.2011

  • Период зарождения математики (до VII-V вв. до н.э.). Время математики постоянных величин (VII-V вв. до н.э. – XVII в. н.э.). Математика переменных величин (XVII-XIX вв.). Современный период развития математики. Особенности компьютерной математики.

    презентация [2,2 M], добавлен 20.09.2015

  • Характер давньогрецької математики та джерела. Характер давньогрецької математики та її джерела. Виділення математики в самостійну теоретичну науку. Формулювання теорем про площі і обсяги складних фігур і тіл. Досягнення олександрійських математиків.

    курсовая работа [186,2 K], добавлен 22.11.2011

  • Методы вычислительной математики, работа с приближёнными величинами. Понятие абсолютной, предельной абсолютной и относительной погрешности приближённого числа. Выведение формулы предельной абсолютной и относительной погрешностей для заданной функции.

    контрольная работа [85,3 K], добавлен 05.09.2010

  • Предпосылки зарождения математики в Древнем Египте. Задачи на вычисление "аха". Наука древних египтян. Задача из папируса Райнда. Геометрия в Древнем Египте. Высказывания великих ученых о важности математики. Значение египетской математики в наше время.

    реферат [18,3 K], добавлен 24.05.2012

  • Визначення поняття математики через призму іонійського раціоналізму. Основні властивості правильних багатокутників і правильних багатогранників. Загальна характеристика внеску в розвиток головних засад сучасної математики видатних давньогрецьких вчених.

    реферат [91,5 K], добавлен 15.02.2010

  • Роль математики в современном мире. Основные этапы развития математики. Аксиоматический метод построения научной теории. Начала Евклида как образец аксиоматического построения научной теории. История создания неевклидовой геометрии. Стили мышления.

    реферат [25,8 K], добавлен 08.02.2009

  • Классические каноны в живописи, связанные с математикой: изображение человека, расположение предметов, соотношение мелких и крупных предметов. Роль математики в профессии юриста. Обоснование необходимости знаний математики для врачей и воспитателей.

    презентация [2,3 M], добавлен 21.12.2014

  • Геометрия Евклида как первая естественнонаучная теория. Структура современной математики. Основные черты математического мышления. Аксиоматический метод. Принципы аксиоматического построения научных теорий. Математические доказательства.

    реферат [32,4 K], добавлен 10.05.2011

  • Изучение возникновения математики и использования математических методов Древнем Китае. Особенности задач китайцев по численному решению уравнений и геометрических задач, приводящих к уравнениям третьей степени. Выдающиеся математики Древнего Китая.

    реферат [27,6 K], добавлен 11.09.2010

  • Теория множеств - одна из областей математики. Понятие, обозначение, основные элементы конечных и бесконечных множеств - совокупности или набора определенных и различимых между собой объектов, мыслимых как единое целое. Пустое и универсальное множество.

    реферат [126,6 K], добавлен 14.12.2011

  • Обобщения - метод научного познания в обучении математике. Методические особенности их использования в изучении теоретического материала. Обобщения при решении задач на уроках математики. Обобщение как эвристический прием решения нестандартных задач.

    курсовая работа [3,7 M], добавлен 12.01.2011

  • Достижения древнеегипетской математики. Источники, по которым можно судить об уровне знаний древних египтян. Задачи на арифметическую и геометрическую прогрессии, нахождение числа Пи, подчёркивают практический и теоретический характер древней математики.

    реферат [165,8 K], добавлен 14.12.2009

  • Нечеткая логика как раздел математики, являющийся обобщением классической логики и теории множеств, базирующийся на понятии нечеткого множества. Основные правила и законы данной логики, алгоритм Мамдани. Содержание и принципы решения задачи о парковке.

    курсовая работа [1,4 M], добавлен 22.04.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.