Неформальная постановка задач

Изучение одного из возможных подходов к системному обобщению математического понятия множества, а именно подхода, основанного на системной теории информации. Использование теории как основы для обобщения и создания "математической теории систем".

Рубрика Математика
Вид статья
Язык русский
Дата добавления 26.04.2017
Размер файла 46,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Данная статья является продолжением работы [19], в которой была обоснована перспективная программная идея системного обобщения математики и сделан первый шаг по ее реализации: предложен вариант системной теории информации (СТИ) [9], а также работы [26], в которой на неформальном уровне, в т.ч. без разработки соответствующего математического формализма, были сформулированы и обсуждались некоторые задачи, возникающие при системном обобщении теории множеств на основе системной теории информации, а именно: задачи 1-3. В данной статье продолжено обсуждение задач, поставленных в [26].

Задача: предложить способы аналитического описания (задания) подсистем, как элементов системы.

Для решения данной задачи необходимо найти способ представления в виде аналитической функции системы из (i+1) 0-мерных точек, произвольным образом расположенных в i-мерном пространстве. Предлагается представить эту систему точек в виде пространственных аппроксимирующих функций, вейвлетов и/или сплайнов в многомерном пространстве. математический множество информация

В геометрии существует один принципиальный вопрос, который, насколько известно, в явной форме не задавался: "Каким образом получается так, что из точек нулевой размерности, не обладающих никакими свойствами, образуются геометрические объекты, обладающие целым набором геометрических (и даже физических, как в теории гравитации А. Эйнштейна) свойств, таких как размерность, длина, площадь, объем, кривизна, кручение и т.д.?"

Предлагается следующий ответ на этот вопрос, основанный на программной идее системного обобщения математики: необходимо ввести понятие геометрической системы и признать, что новые свойства геометрических систем, отсутствующие у элементов, из которых они состоят, являются системными или эмерджентными свойствами, которые образуются за счет взаимосвязей между элементами этих систем. Фактически все исследуемые в геометрии объекты, называемые по-разному: "геометрическим местом точек", "многообразием" и т.д., в действительности являются геометрическими системами.

По мере усложнения кривых у них, соответственно, повышается уровень системности и появляются все новые и новые системные (эмерджентные) свойства: если прямая линия обладает только одним новым свойством: размерностью, которого не было у составляющих ее точек 0-вой размерности, то плоская кривая, т.е. кривая, полностью лежащая в плоскости, кроме того, обладает и кривизной, а пространственные кривые обладают еще и кручением.

Аналитически подобные кривые описываются и исследуются в дифференциальной геометрии и топологии с помощью векторного и тензорного анализа. Это описание может быть довольно сложным, поэтому в данной работе предлагается использовать параметрическое задание пространственных кривых через их проекции на координатные плоскости многомерного пространства. При обсуждении данной задачи для простоты будем предполагать, что это ортонормированное пространство с евклидовой метрикой. В общем случае если кривая однозначно задается системой из (i+1) 0-мерных точек, произвольным образом расположенных в i-мерном пространстве, для ее однозначного представления требуется i взаимно-ортогональных (координатных) плоскостей, на которые она проектируется. Сами же эти плоские проекции пространственной кривой можно аппроксимировать различными функциями, но мы предлагаем использовать для этого степенные полиномы различных степеней.

Для нас именно этот вариант аппроксимирующих функций наиболее удобен и интересен, т.к. известно, что полином i-й степени однозначно определяется (i+1) точками на плоскости и гарантировано проходит через них, т.е. не только однозначно определяется ими, но и сам однозначно определяет их.

В частности:

- полином 1-й степени однозначно определяется 2-мя точками 0-й размерности, гарантировано проходит через них и однозначно определяет аналитически точку пространства 1-й размерности, т.е. прямой линии;

- полином 2-й степени однозначно определяется 3-мя точками 0-й размерности, гарантировано проходит через них и однозначно определяет аналитически точку пространства 2-й размерности, т.е. плоскости;

- полином 3-й степени однозначно определяется 4-мя точками 0-й размерности, гарантировано проходит через них и однозначно определяет аналитически точку пространства 3-й размерности, т.е. трехмерного пространства;

- полином i-й степени однозначно определяется (i+1)-мя точками 0-й размерности, гарантировано проходит через них и однозначно определяет аналитически точку пространства i-й размерности.

Это и означает, что аппроксимация проекций пространственных кривых, задаваемых системой точек в многомерном пространстве степенными полиномами, является взаимно-однозначным (т.е. полностью адекватным) способом аналитического представления этой системы точек. Таким образом, системе из (i+1) 0-мерных точек в i-мерном пространстве аналитически соответствует система из i степенных полиномов i-й степени. Это утверждение и предлагается считать одним из вариантов решения задачи.

Приведем простой и наглядный пример, иллюстрирующий сформулированные выше положения. В качестве систем 0-мерных точек рассмотрим обобщенные образы классов, полученные путем обобщения конкретных образов железнодорожных составов, идущих на запад и на восток. Этот пример приведен в учебном пособии [10] в качестве лабораторной работы №1, описание этой работы находится в свободном общем доступе поэтому здесь подробно на нем останавливаться не будем.

Напомним, что мы предлагаем рассматривать описательные шкалы как оси координат в многомерном неортонормированном пространстве, а градации описательных шкал - как интервальные значения, т.е. координаты на этих осях (признаки). Для того чтобы построить в многомерном пространстве кривую, соответствующую некоторому заданному классу, в качестве значений по каждой координате будем рассматривать суммарное количество встреч данного признака у объектов этого класса.

Используя графическую систему SigmaPlot for Windows Version 10.0 фирмы Systat Software Inc., построим трехмерные образы исследуемых нами классов, выбрав три описательные шкалы, отмеченные светло-зеленым цветом, и предполагая, что пространство является ортонормированным. Последнее предположение в общем случае не выполняется (как и нашем примере), но этим обстоятельством на данном этапе мы вынуждены пренебречь, т.к. нам неизвестны системы, позволяющие строить по координатам точек в криволинейных или косоугольных координатах многомерные объекты и проектировать их в евклидово трехмерное или двумерное пространство.

Для построения графиков в системе SigmaPlot выполним подготовку исходных данных, выполнив следующие операции:

1. Выберем 3 описательные шкалы: форма вагона; вид крыши вагона и груз (количество и вид), в каждой из которых не менее 4-х градаций, что достаточно для получения наглядной кривой.

2. Система SigmaPlot предъявляет требование, чтобы по всем осям было равное количество координат, т.к. точка в многомерном пространстве задается координатами по всем осям. Однако в наших данных это требование не выполняется. Всего существует два варианта решить эту проблему: дополнить нулями недостающие координаты, ограничиться по всем осям тем количеством координат, которое в оси с минимальным их количеством. Мы выбираем второй вариант и оставляем по каждой из осей по 4 координаты, как в оси "Вид крыши вагона", в которой их минимальное количество.

3. Для большей наглядности перед построением графиков градации по каждой шкале рассортируем в порядке возрастания их значений для одного из классов (по каждой оси координат они могут быть оставлены в исходном порядке либо рассортированы в порядке возрастания или убывания).

Рассмотрим проекции этих пространственных кривых на координатные плоскости и аппроксимации этих проекций степенными полиномами. На основе данных таблицы 4 получим сочетания координат для точек проекций кривых, соответствующих поездам, следующим на восток и на запад, на координатные плоскости XY, XZ и YZ а затем построим график проекции YZ и его аппроксимацию полиномом 3-й степени.

Для примера выбрана именно данная проекция пространственной кривой класса "Поезда, следующие на восток", т.к. при выбранном способе сортировки координат по возрастанию значений она оказалась монотонно-возрастающей по обеим координатам, что является необходимым и достаточным условием для возможности аппроксимации кривой именно степенным полином.

Задача: описать системное семантическое пространство для отображения систем в форме эйдосов (эйдос-пространство).

Прежде всего, отметим, что нас не устраивает в классическом семантическом пространстве, рассмотренном при обсуждении возможных подходов к решению предыдущей задачи.

Напомним, что в этом пространстве в качестве осей координат рассматривались описательные шкалы, в качестве координат на этих осях - градации описательных шкал (интервальные значения, признаки), а в качестве значений по каждой координате - суммарное количество встреч данного признака у объектов этого класса. При этом классическое семантическое пространство, вообще говоря (т.е. в общем случае), является многомерным неортонормированным пространством, т.к. углы между осями координат не являются прямыми, а единицы измерения по различным осям различны. Более того, это пространство может быть искривлено, скручено и т.п.

В качестве меры расстояния в этом пространстве обычно используют евклидову метрику (многомерный аналог теоремы Пифагора), совершенно забывая при этом, что для корректного применения этой метрики необходимо, чтобы пространство было ортонормированным, и по всем осям использовалась бы одна и та же единица измерения, либо они все были безразмерными. Эти условия являются совершенно необходимыми и обязательными. Если для неортонормированного пространства существует обобщение теоремы Пифагора, и оно просто по неизвестным причинам не используется (правда более-менее простой аналитический вид это выражение имеет только для плоскости и трехмерного пространства), то вопрос о единицах измерения по осям просто игнорируется.

Об этом вопросе упоминается в работе отечественных классиков системного анализа Ф.И. Перегудова и Ф.П. Тарасенко [29] (при рассмотрении многокритериального метода приятия решений и формировании интегрального критерия из частных критериев). Между тем, широко известно, что с размерностями в математических выражениях, в которые входят различные по смыслу величины, измеряемые в различных единицах измерения, нужно обращаться очень аккуратно. Даже на уроке физики в средней школе обязательно проверяют размерности получаемых в результате решения задач величин, и если они не соответствуют смыслу этих величин и принятым для них размерностям, то это является явным признаком ошибки в решении. Однако в статистических системах, системах анализа данных и системах искусственного интеллекта (кроме системы "Эйдос"), почему-то совершенно не задумываясь, спокойно совершают операции сложения, вычитания и другие более сложные математические операции с величинами, имеющими качественно различающийся смысл и, соответственно, измеряемыми в совершенно различных единицах измерения.

Удивительно, но такой подход на практике традиционен и в нем нет ничего необычного. Например, в известной статистической системе SPSS в разделе по изучению кластерного анализа приведены обучающие примеры, в которых между собой сравниваются различные модели автомобилей. При этом признаками для сравнения этих моделей являются: количество ведущих мостов, количество цилиндров, мощность двигателя, расход топлива и т.п. параметры, измеряемые количественно, естественно, в различных единицах измерения. Затем с использованием евклидовой меры сходства (корректность использования которой также еще нужно обосновать) вычисляется параметр сходства между этими моделями, строится матрица сходства, на основе которой и проводится кластерный анализ. Ясно, что это некорректно, т.к., например, 4 ведущих колеса или 4 цилиндра будут иметь одинаковый вес при определении сходства моделей, а мощность 80 л.с. будет иметь значение в 10 раз больше, чем расход топлива 8 литров на 100 километров. В исходной матрице данных в системе SPSS просто используются безразмерные количественные величины, т.е. числа, и даже не предусмотрено места для ввода единиц измерения. Но эти же величины в действительности не являются безразмерными, а лишь используются как безразмерные! Это примерно, как сложить 4 крокодила с 8 бегемотами и разделить затем на 6 секунд, за которые какой-то автомобиль разгоняется до 100 км/час, и получить в результате 2. Конечно, числа 4 и 5 формально сложатся и разделятся на 6, в результате получится 2, но чего именно 2, и какой смысл в выполнении подобных математических операций? Даже если величины измеряются в сходных по смыслу единицах измерения, то все равно перед выполнением с ними арифметических операций нужно привести их к одной общей единице измерения, например, если сложить 5 метров и 5 сантиметров, то будет не 10, а 5,05 метра или 505 сантиметров.

Конечно, это совершенно не означает, что режим кластерного анализа системы SPSS невозможно использовать корректно. Для этого достаточно в матрицу исходных данных кластерного анализа ввести либо безразмерные (например, стандартизированные) величины, либо величины, приведенные к одной размерности, например, можно вычислить, как влияет тот или иной размерный параметр модели автомобиля на его цену, и вводить не сам этот параметр, а его влияние на цену автомобиля (например, в какой-либо валюте в индексированных ценах). Аналогично можно изучать влияние различных факторов на продолжительность жизни, вводя для исследования не сами значения этих факторов, а их влияние на эту продолжительность (например, в годах). При этом сами параметры или факторы могут измеряться в самых различных единицах измерения, например, количество сигарет, выкуренных за день, количество метров, пройденных пешком, количество минут, потраченных на утреннюю зарядку и т.п., но все это, в каких бы единицах измерения оно не измерялось, прибавляет или отнимает какие-то минуты нашей жизни.

Таким образом, мы считаем необходимым использовать для моделирования реальности не классическое семантическое пространство, а другое пространство (назовем его системным семантическим пространством или кратко эйдос-пространством), которое характеризуется следующими свойствами:

1. В качестве осей координат используются конструкты, т.е. понятия, имеющие смысловые полюса и спектр промежуточных смысловых значений с количественной или порядковой шкалой смыслового сходства и различия между ними. По всем осям координат используется одна и та же единица измерения.

2. Величины или значения координат выражаются количественными величинами, имеющими один и тот же смысл не только для одной оси, но и для всех осей координат, т.е. всего эйдос-пространства.

3. Значения координат несут информацию не только о положении точки в этом пространстве, но и о степени принадлежности этой точки к многомерному объекту, соответствующему обобщенному образу класса (будем называть этот образ "эйдос" (от греч. е?дпт - вид, образ) - идея, понятие, образ). Координаты образов классов в эйдос-пространстве - информативности, рассчитываемые согласно системной теории информации [9, 10, 1-20, 26-28]. Более того, эти значения координат являются величинами, учитывающими системный эффект взаимодействия всех классов в эйдос-пространстве со всеми градациями описательных шкал (поэтому для математической модели системы "Эйдос" и был предложен термин "нелокальная нейронная сеть" [13]), в отличие от классических нейронных сетей с обратным распространением ошибки. Предлагается считать координаты точек в эйдос-пространстве компонентами i-мерных когнитивных чисел [16], по аналогии с действительными числами (1-мерными), комплексными числами (2-мерными), кватернионами (3-мерными).

4. Интегральный критерий сходства образа конкретного объекта с классом, классов друг с другом, значений факторов друг с другом, т.е. метрика или "информационное расстояние" - свертка или скалярное произведение векторов классов или объекта и класса [1-20, 9, 10], величина, которую корректно использовать в случае неортонормированного пространства (в общем случае эйдос-пространство неортонормированно), так как: а) сами величины информативностей (см. п. 3) учитывают углы между описательными шкалами (если угол между двумя описательными шкалами равен 0, то информативности градаций этих шкал уменьшаются в два раза), б) свертка в координатной форме, по сути, является просто суммой информативностей тех признаков, которые есть у конкретного объекта, и математически никак не связана с предположением об ортонормированности или неортономированности эйдос-пространства.

5. Эт эйдос-пространство является, вообще говоря, многомерным неортонормированным пространством с неевклидовой метрикой.

Мы осознаем мир, используя эйдос-пространство, а детально исследуем модели объектов внутреннего и внешнего мира, сформированные в этом пространстве, изучая их проекции на координатные плоскости, а чаще на оси координат, т.е. конструкты. Так, что мы действительно осознаем не сам мир, а лишь проекции его объектов, подобные теням на стенах пещеры Платона, причем в действительности эти тени даже не от самих объектов, а лишь от их моделей в нашем сознании (т.к. мы осознаем не непосредственно сами объекты "какие они есть на самом деле, т.е. сами по себе" (еще вопрос, возможно ли это хотя бы в принципе), а лишь отражения этих объектов в нашем сознании).

Продолжим изучение примера, который мы рассматривали при обсуждении предыдущей задачи. В таблице 6 приведено количество информации, рассчитанное согласно системной теории информации [9, 10], которое содержится в градациях описательных шкал (признаках) о принадлежности конкретных объектов, обладающих этими признаками, к обобщенным классам: "Состав, следующий на восток", "Состав, следующий на запад".

Те информативности, которые соответствуют градациям описательных шкал, рассмотренных в предыдущей задаче (для обеспечения сопоставимости).

Рассмотрим проекции этих пространственных кривых на координатные плоскости и аппроксимации этих проекций степенными полиномами. На основе таблицы 7 получим сочетания координат для точек проекций кривых, соответствующих поездам, следующим на восток и на запад, на координатные плоскости XY, XZ и YZ а затем построим график проекции XY и его аппроксимацию полиномом 3-й степени.

Для примера выбраны именно проекции пространственной кривой (эйдоса) класса "Поезда, следующие на восток", т.к. при выбранном способе сортировки координат по возрастанию значений они оказались монотонно-возрастающими по обеим координатам, что является необходимым и достаточным условием для возможности аппроксимации кривой степенным полином. Отметим, что аппроксимации всех проекций эйдосов на координатные плоскости полиномами 3-й степени оказались с критерием достоверности R2=1 (т.е. с нулевой погрешностью).

Задача: описать принцип формирования эйдосов (включая зеркальные части).

Автоматизированный системно-когнитивный анализ (АСК-анализ) [9, 10] представляет собой метод, технологию и методику формирования эйдосов и включает следующие этапы:

1. Когнитивная структуризация, а затем и формализация предметной области.

2. Ввод данных мониторинга в базу прецедентов (обучающую выборку) за период, в течение которого имеется необходимая информация в электронной форме.

3. Синтез семантической информационной модели (СИМ).

4. Оптимизация СИМ.

5. Проверка адекватности СИМ (измерение внутренней и внешней, дифференциальной и интегральной валидности).

6. Анализ СИМ.

7. Решение задач идентификации состояний объекта управления, прогнозирования и поддержки принятия управленческих решений по управлению с применением СИМ.

На первых двух этапах АСК-анализа, детально рассмотренных в работах [9, 10], числовые величины сводятся к интервальным оценкам, как и информация об объектах нечисловой природы (фактах, событиях). Этот этап реализуется и в методах интервальной статистики.

На третьем этапе СК-анализа всем этим величинам (по единой методике, основанной на системном обобщении семантической теории информации А. Харкевича) сопоставляются количественные величины, с которыми в дальнейшем и производятся все операции моделирования.

Обобщенный образ класса (эйдос) представляет собой элемент определенного уровня иерархии системы, т.е. множество, в котором в качестве элементов-признаков выступают элементы предыдущего уровня иерархии системы.

Информационный портрет класса представляет собой список признаков этого класса, ранжированный в порядке убывания количества информации, содержащейся в этих признаках о принадлежности к данному классу. Этот информационный портрет может быть разделен на две части: позитивную: с положительными информативностями (эйдос), и негативную: с отрицательными информативностями (антиэйдос). Эйдос и антиэйдос представляют собой как бы зеркальные части информационного портрета.

Значения координат точки, входящей в эйдос, равны количеству информации в соответствующем признаке (градации описательной шкалы) о принадлежности конкретного обладающего этим признаком объекта к обобщенному образу класса (градации классификационной шкалы).

Если классические координаты точки в семантическом пространстве несут информацию только о положении точки в пространстве и все, то системные координаты точки в эйдос-пространстве, кроме этого, несут также и информацию о принадлежности объекта, в который входит данная точка, к эйдосу (обобщенному образу класса), т.е. к системе точек.

Подробнее задачу № 6 рассматривать в данной статье нецелесообразно, т.к. она неоднократно реализовалась в ряде приложений и исследований, проведенных по технологии АСК-анализа, о которых имеются многочисленные общедоступные публикации, в частности, размещенные по Internet-адресам.

Задача: показать, что базовая когнитивная концепция [9] формализуется многослойной системой эйдос-пространств.

При этом на разных уровнях иерархии системы познания элементами являются: признаки, а системами - образы конкретных объектов, описанные системами признаков по 2, 3 и т.д., а на других элементами выступают уже конкретные образы, а системами - обобщенные образы классов, которые, в свою очередь, являются элементами систем-кластеров, а они - элементами систем-конструктов, система конструктов образует парадигму. В 1996 году в работе , а затем в работе [13] автором была предложена идея создания подобных многоуровневых моделей в АСК-анализе. В последующем в ряде работ автора с соавторами были созданы и исследованы подобные многоуровневые модели, каждый из уровней которых формализуется эйдос-пространством определенной размерности.

Таким образом, можно сделать вывод о том, что базовая когнитивная концепция и реализующий ее АСК-анализ формализуются многослойной системой взаимосвязанных эйдос-пространств. Если на 2-м уровне иерархии оси координат представляют собой описательные шкалы, градациями которых являются признаки, а обобщенные образы классов (градации классификационных шкал) представляются пространственными кривыми в эйдос-пространстве, то на 3-м уровне иерархии градациями описательных шкал являются классы, а пространственные кривые - эйдосы отображают уже кластеры.

Задача: показать, что системная теория информации позволяет непосредственно на основе эмпирических данных определять вид функций принадлежности, т.е. решать одну из основных задач теории нечетких множеств.

В теории нечетких множеств, предложенной в 1965 году Лотфи А. Заде, понятие множества было обобщено, путем задания функции принадлежности элемента множеству, количественно задающей степень принадлежности элемента множеству (в классическом множестве элемент мог либо принадлежать, либо не принадлежать множеству). Было предложено несколько различных аналитических видов функций принадлежности и разработаны операции с нечеткими множествами, зависящие от вида этих априорно заданных функций.

Таким образом, в теории нечетких множеств математическое понятие множества было обогащено свойствами, и это несколько приблизило его к понятию "система" и позволило получить более общую теорию, чем классическая теория множеств.

Однако мы считаем, что теория нечетких множеств является лишь первым шагом и в этом направлении еще много работы. Например, ясно, что для реальных объектов, моделируемых множествами, фактический вид функции принадлежности может отличаться от ранее априорно определенных и затем аксиоматически постулированных и аналитически исследованных. Между тем именно фактический вид функции принадлежности характеризует специфику конкретного объекта исследования, и поэтому ее знание обуславливает адекватность моделирования этого объекта с помощью аппарата нечетких множеств. Поэтому возникает проблема определения вида функции принадлежности непосредственно на основе эмпирических данных и все значения и актуальность решения этой проблемы общим универсальным методом трудно переоценить. В настоящее время имеется ряд попыток найти подобный универсальный метод и разработать технологию и методику его применения на практике. Одной из таких попыток является интеграция теории нечетких множеств и нейронных сетей: так называемые нечеткие нейронные сети .

С применением системной теории информации (СТИ) также непосредственно на основе эмпирических данных определяется функция принадлежности элемента множеству, в частности:

- в информационном портрете определяется степень принадлежности признака классу;

- при идентификации объекта определяется степень его сходства с классами;

- при проведении кластерного анализа определяется степень сходства классов с кластерами.

В качестве примера приведена экранная форма системы "Эйдос", в которой показана степень принадлежности конкретных образов составов, описанных в обучающей выборке, к обобщенному образу класса: "Состав, следующий на запад". Таким образом, можно считать, что данный класс представляет собой нечеткое множество, включающее все составы, следующие на запад, но в разной степени. Состав-10 наиболее похож на обобщенный образ данного класса, т.е. является наиболее типичным для него, а состав-3 наименее типичным. Для составов 1, 2, 3, 4 и 5 степень принадлежности к классу "Состав, следующий на запад" отрицательна, т.е. они не относятся к этому классу в соответствии с созданной моделью.

Приведен информационный портрет обобщенного образа класса: "Состав, следующий на запад", включая позитивную и негативную части, т.е. эйдос и антиэйдос.

Фоном светло-желтого цвета в информационном портрете выделены положительные информативности, а светло-зеленого - отрицательные, соответствующие эйдосу и антиэйдосу или эйдосу и его зеркальной части.

Информативность в битах - это количество информации, которое мы получаем о принадлежности некоторого объекта к данному классу, если узнаем, что он обладает этим признаком. Как показано в базовой когнитивной концепции [9, 10], если мы анализируем только образы конкретных объектов и никак не обобщаем их, относя к каким-то классам и называя их обобщенными именами, то не можем определить, какие признаки этих объектов являются характерными для них, а какие случайными. Например, если маленький ребенок видит различные мячи впервые и не знает, что это все мячи, то такие признаки мячей, как круглый и пустой будут для него столь же важны, как цвет и рисунок на мяче. Однако при обобщении появляется возможность определить, какие признаки являются более характерными для того или иного обобщенного класса, какие менее, а какие - вообще случайными. Это и делается в АСК-анализе на основе системной теории информации: степень характерности признака для класса измеряется количеством информации, которое мы получаем из факта наблюдения этого признака о принадлежности к классу. Таким образом, характерные признаки в большей степени принадлежат классу, нехарактерные - менее, а случайные и принадлежащие другим классам, несходным с данным, вообще не принадлежат. Это и означает, что системная теория информации и АСК-анализ тесно связаны с теорией нечетких множеств и даже позволяют решать некоторые важные для этой теории задачи, такие, например, как определение вида функции принадлежности непосредственно на основе эмпирических данных и использование знания вида этой функции для решения задач идентификации, прогнозирования и поддержки принятия решений.

Процент от теоретически максимально возможной информативности - это процент, который составляет информативность в битах от теоретически максимально возможной информативности.

Теоретически-максимальная возможная информативность полностью определяется суммарным количеством градаций классификационных шкал, т.е. классов и равна количеству информации, которое мы получаем, когда достоверно узнаем, что некоторый объект принадлежит к определенному классу: это количество информации в битах равно двоичному логарифму от количества классов в семантической информационной модели (мера Хартли).

Суммарная информативность нарастающим итогом в процентах - это накопительная сумма от столбца: "Процент от теоретически максимально возможной информативности". Она показывает, насколько полно описан информационный потрет класса и есть ли в нем какая-либо избыточность описания. Если избыточность есть, т.е. суммарное количество информации в признаках, описывающих потрет, больше 100 %, то это означает, что существуют корреляции между признаками, т.е. пространство неортонормированное, если же описание неполное, то это означает, что для обеспечения полноты описания данного класса в модели необходимо увеличить размерность эйдос-пространства путем добавления в него новых, желательно, максимально независимых от уже имеющихся описательных шкал и градаций.

Во всех этих случаях определена, т.е. имеет смысл, не только положительная принадлежность, но и отрицательная. Например, отрицательная информативность признака несет информацию о непринадлежности конкретного объекта, обладающего этим признаком, к данному классу. Примеры определения конкретного вида функций принадлежности непосредственно на основе эмпирических данных и применения этих функций для идентификации и прогнозирования объектов в различных предметных областях можно обнаружить в работах автора по применению АСК-анализа.

Правда, во всех этих случаях функция принадлежности в системе "Эйдос" (являющейся инструментарием АСК-анализа) задана таблично, но это не является особым ограничением, т.к. таблично-заданные функции всегда можно аппроксимировать наиболее подходящей в каком-то смысле аналитической зависимостью, например, степенными полиномами, полиномами Чебышева или Лагранжа, рядами функций различного вида, Фурье, степенными, показательными, рядами спецфункций или функций общего вида, как это принято в АСК-анализе.

Задача: сформулировать перспективы: разработка операций с системами: объединение (сложение), пересечение (умножение), вычитание. Привести предварительные соображения по сложению систем.

В качестве перспективы мы рассматриваем разработку математического формализма, обеспечивающего операции с системами: объединение (сложение), пересечение (умножение), вычитание.

В предварительном плане мы приведем здесь некоторые соображения по операции сложения систем. В отличие от сложения множеств, при сложении систем у системы-суммы появляются новые эмерджентные свойства, которых не было у систем-слагаемых. Именно эту особенность сложения систем отражает системная теория информации [19, 26].

Элементы-подмножества системы отличаются не только количеством базисных элементов, но и тем, какие именно конкретно это базисные элементы, т.е. элементы, состоящие из одинакового количества базисных элементов, различаются, если различается, по крайней мере, один из этих базисных элементов.

Элементы-подсистемы, состоящие из одних и тех же базисных элементов (0-тождественные элементы), тождественны, если тождественна их структура, и отличаются друг от друга, если отличается их структура.

Приведем примеры.

Лингвистические системы, в том числе естественный язык (вербализация), являются одним из наиболее мощных, точных и удачных из всех выработанных человечеством средств моделирования реальности и отражения ее в сознании. Язык имеет многие системные свойства реальности, благодаря чему он и является достаточно адекватным для физического сознания средством ее отражения.

Поэтому в 1-м примере рассмотрим два предложения, естественно, состоящие из слов, написанных с помощью букв. Каждое предложение будем рассматривать как систему, состоящую на базисном уровне из букв, а на 1-м уровне иерархии - из слов. На 0-м уровне у них будет пересечение, состоящее из общих букв, а 1-м уровне - пересечение, состоящее из общих слов. Естественно, результаты пересечения систем на 1-м уровне будут различаться, если считать тождественными только те слова, которые полностью тождественны по всем буквам, или слова, являющиеся словоформами от одного слова.

Жирным шрифтом выделены буквы, общие в обоих предложениях. Видно, что 13 букв из 17, которые используются в этих предложениях, общие для обоих предложений, тогда как из 9 слов общее (тождественно) только одно. Таким образом, пересечение этих предложений как систем на базисном уровне составляет: 13/17100=76,47 %, а на 1-м иерархическом уровне - 1/9100=11,11 %.

Рассмотрим более сложный 2-й пример со стихами и былинами. При этом, так же как и в 1-м примере, будем считать каждое предложение системой, состоящей на базисном уровне из букв, а на 1-м уровне иерархии - из слов и рифм. Однако в отличие от 1-го примера, будем считать тождественными словоформы одного слова, кроме того, будем учитывать рифму, которую также отнесем к 1-му уровню иерархии.

Выделим одинаковым цветом тождественные слова и рифмы:

У лукоморья дуб зеленый,

Златая цепь на дубе том:

И днем, и ночью кот ученый

Все ходит по цепи кругом

(А.С. Пушкин "Руслан и Людмила")

Использован следующий технический прием: чтобы программа выделила рифмы, как структурные элементы 1-го уровня иерархии, они отделены знаком тире, используемым в качестве разделителя.

Рассмотрим былинный текст:

У ласкова у князя у Владимира

Было пированице, почестен пир,

Для многих князей, для бояр,

Для русских могучих богатырей;

Красное солнышко к вечеру -

Почестный пир идет на веселие,

Все на пиру пьяны - веселы,

Все на пиру порасхвастались:

Богатый хвастает золотой казной,

Глупый хвастает молодой женой,

Умный хвастает старой матерью,

Сильный хвастает своей силою -

Силою, ухваткою богатырскою;

За тем за столом за дубовым

Сидит один богатырь -

Ничем-то он молодец не хвастает

(Русская былина "Сухман".

Владимиро-Суздальский период. Cер. XII - конец XIII века)

Тождественные или сходные слова, производные от одного слова (словоформы), рифмы и повторы, особенно широко использовавшиеся в русских былинах, повышают степень пересечения предложений текста на различных иерархических уровнях его организации и, тем самым, помогают организовать между ними смысловую связь, повышают количество связей в лингвистической системе, а значит - ее уровень системности и легкость восприятия, а также заряд нетождественности в тексте, т.е. его невербальную смысловую нагрузку. Таким образом, можно сделать вывод о том, что рифмы и повторы словоформ повышают уровень системности теста, вследствие чего стихи и былины можно считать более высокоорганизованной формой текста, чем проза.

Эти результаты получены с помощью программы, исходный текст которой приведен ниже, разработанной автором при подготовке данной статьи специально с целью исследования пересечений лингвистических систем на 0-м и 1-м уровнях иерархии языка программирования (xBase++ или CLIPPER 5.01+TOOLS II).

G_buf=SAVESCREEN(0,0,24,79)

FOR j=0 TO 24

@j,0 SAY REPLICATE("-",80) COLOR "n/n"

NEXT

Если БД исходных предложений нет, то создать ее и выйти

IF .NOT. FILE("LingvSys.dbf")

CLOSE ALL

CREATE Struc

APPEND BLANK

REPLACE Field_name WITH "Kod",;

Field_type WITH "C",;

Field_len WITH 5,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "Predl",;

Field_type WITH "C",;

Field_len WITH 65,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "ListChar",;

Field_type WITH "C",;

Field_len WITH 65,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "ListWord",;

Field_type WITH "C",;

Field_len WITH 65,;

Field_dec WITH 0

CREATE LingvSys FROM Struc

Mess = "Необходимо ввести предложения в БД *LingvSys* и запустить программу !!!"

@20, 40-LEN(Mess)/2 SAY Mess COLOR "w+/n"

INKEY(0)

INKEY(0)

RESTSCREEN(0,0,24,79,G_buf)

QUIT

ENDIF

Составить отсортированный список уникальных символов, входящих в предложения

Определить максимальную длину предложения и листа уникальных символов

CLOSE ALL

USE LingvSys EXCLUSIVE NEW // Открыть БД с предложениями

N_Predl = RECCOUNT() // Кол-во предложений в БД

Max_Pred = -999

Max_List = -999

DBGOTOP()

DO WHILE .NOT. EOF()

REPLACE ListChar WITH CHARSORT(CHARLIST(LOWER(Predl))) // Сформировать отсортированный список уникальных букв предложения

Max_Pred = MAX(Max_Pred, LEN(ALLTRIM(Predl)))

Max_List = MAX(Max_List, LEN(ALLTRIM(ListChar)))

DBSKIP(1)

ENDDO

Создать БД совпадения символов в предложениях

CLOSE ALL

CREATE Struc

APPEND BLANK

REPLACE Field_name WITH "Kod",;

Field_type WITH "C",;

Field_len WITH 5,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "Predl",;

Field_type WITH "C",;

Field_len WITH Max_Pred,;

Field_dec WITH 0

FOR i = 1 TO N_Predl

APPEND BLANK

Fn = "P"+STRTRAN(STR(i,2)," ","0")

REPLACE Field_name WITH Fn,;

Field_type WITH "C",;

Field_len WITH Max_List,;

Field_dec WITH 0

NEXT

CREATE SovList0 FROM Struc

Создать БД % совпадения символов в предложениях

CLOSE ALL

CREATE Struc

APPEND BLANK

REPLACE Field_name WITH "Kod",;

Field_type WITH "C",;

Field_len WITH 5,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "Predl",;

Field_type WITH "C",;

Field_len WITH Max_Pred,;

Field_dec WITH 0

FOR i = 1 TO N_Predl

APPEND BLANK

Fn = "P"+STRTRAN(STR(i,2)," ","0")

REPLACE Field_name WITH Fn,;

Field_type WITH "N",;

Field_len WITH 7,;

Field_dec WITH 3

NEXT

CREATE SovPerc0 FROM Struc

Заполнить БД совпадения символов в предложениях и БД % совпадений пустыми записями

CLOSE ALL

USE SovPerc0 EXCLUSIVE NEW // Открыть БД совпадения предложений в %

USE SovList0 EXCLUSIVE NEW // Открыть БД совпадения символов в предложениях

USE LingvSys EXCLUSIVE NEW // Открыть БД с предложениями

FOR i = 1 TO N_Predl

SELECT LingvSys

DBGOTO(i)

M_Predl = Predl

SELECT SovList0

APPEND BLANK

Fn = "P"+STRTRAN(STR(i,2)," ","0")

REPLACE Kod WITH Fn

REPLACE Predl WITH M_Predl

SELECT SovPerc0

APPEND BLANK

REPLACE Kod WITH Fn

REPLACE Predl WITH M_Predl

NEXT

Построение БД пересечений предложений на уровне букв

SELECT LingvSys

FOR i=1 TO N_Predl // Цикл по предложениям

DBGOTO(i) // Переход на запись с 1-м предложением

Ar_List1 = ListChar // Присвоить переменной значение 1-го предложения

FOR j=1 TO N_Predl // Цикл по предложениям

DBGOTO(j) // Переход на запись со 2-м предложением

Ar_List2 = ListChar // Присвоить переменной значение 2-го предложения

M12 = CHARONE(CHARSORT(CHARONLY(Ar_List1,Ar_List2))) // Получить символы, общие для обоих предложений (убрав повторы) и отсортировать их

IF LEN(M12) > 0 // Если были общие символы

SELECT SovList0

DBGOTO(i);FIELDPUT(2+j, M12) // Записать пересечение

DBGOTO(j);FIELDPUT(2+i, M12)

SELECT Lingvsys // Сделать текущей БД исходных предложений

ENDIF

NEXT

NEXT

Расчет % сходства предложений на уровне букв: (% совпадающих букв от суммарного количества уникальных букв обоих предложений)

SELECT SovList0

FOR i=1 TO N_Predl // Цикл по строкам предложениям

DBGOTO(i)

Ar_List1 = FIELDGET(2+i) // Присвоить переменной значение листа символов 1-го предложения

FOR j=i TO N_Predl // Цикл по столбцам предложениям

Ar_List2 = FIELDGET(2+j) // Присвоить переменной значение листа символов 2-го предложения

Ar_m12 := {} // Массив совпадающих символов обоих предложений

Ar_sum := {} // Массив всех уникальных символов обоих предложений

FOR k=1 TO LEN(Ar_List1)

L = SUBSTR(Ar_List1, k, 1) // k-й символ 1-го предложения

IF AT(L, Ar_List2) > 0

IF ASCAN(Ar_m12, L) = 0

AADD(Ar_m12, L)

ENDIF

ENDIF

IF ASCAN(Ar_sum, L) = 0

AADD(Ar_sum, L)

ENDIF

NEXT

FOR k=1 TO LEN(Ar_List2)

L = SUBSTR(Ar_List2, k, 1) // k-й символ 2-го предложения

IF ASCAN(Ar_sum, L) = 0

AADD(Ar_sum, L)

ENDIF

NEXT

IF LEN(Ar_sum) > 0

SELECT SovPerc0

DBGOTO(i);FIELDPUT(2+j, LEN(Ar_m12)/LEN(Ar_sum)*100)

DBGOTO(j);FIELDPUT(2+i, LEN(Ar_m12)/LEN(Ar_sum)*100)

SELECT SovList0

ENDIF

NEXT

NEXT

Составить отсортированный список уникальных слов, входящих в предложения

Определить максимальную длину предложения и листа уникальных слов

CLOSE ALL

USE LingvSys EXCLUSIVE NEW // Открыть БД с предложениями

N_Predl = RECCOUNT() // Кол-во предложений в БД

Max_Pred = -999

Max_List = -999

DBGOTOP()

DO WHILE .NOT. EOF()

Сформировать отсортированный список уникальных слов предложения

Ar_word := {}

M_Predl = Predl

FOR w=1 TO NUMTOKEN(M_Predl)

M_Word = ALLTRIM(LOWER(TOKEN(M_Predl, w)))

IF LEN(M_Word) > 1 // Исключение предлогов

IF ASCAN(Ar_word, M_Word) = 0 // Исключение повторов слов

AADD(Ar_word, M_Word) // Добавление слова в массив

ENDIF

ENDIF

NEXT

ASORT(Ar_word)

M_ListWord = ""

FOR w=1 TO LEN(Ar_word)

M_ListWord = M_ListWord + Ar_word[w] + " "

NEXT

REPLACE ListWord WITH ALLTRIM(M_ListWord)

Max_Pred = MAX(Max_Pred, LEN(ALLTRIM(M_Predl)))

Max_List = MAX(Max_List, LEN(ALLTRIM(M_ListWord)))

DBSKIP(1)

ENDDO

Создать БД совпадения слов в предложениях

CLOSE ALL

CREATE Struc

APPEND BLANK

REPLACE Field_name WITH "Kod",;

Field_type WITH "C",;

Field_len WITH 5,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "Predl",;

Field_type WITH "C",;

Field_len WITH Max_Pred,;

Field_dec WITH 0

FOR i = 1 TO N_Predl

APPEND BLANK

Fn = "P"+STRTRAN(STR(i,2)," ","0")

REPLACE Field_name WITH Fn,;

Field_type WITH "C",;

Field_len WITH Max_List,;

Field_dec WITH 0

NEXT

CREATE SovList1 FROM Struc

Создать БД % совпадения слов в предложениях

CLOSE ALL

CREATE Struc

APPEND BLANK

REPLACE Field_name WITH "Kod",;

Field_type WITH "C",;

Field_len WITH 5,;

Field_dec WITH 0

APPEND BLANK

REPLACE Field_name WITH "Predl",;

Field_type WITH "C",;

Field_len WITH Max_Pred,;

Field_dec WITH 0

FOR i = 1 TO N_Predl

APPEND BLANK

Fn = "P"+STRTRAN(STR(i,2)," ","0")

REPLACE Field_name WITH Fn,;

Field_type WITH "N",;

Field_len WITH 7,;

Field_dec WITH 3

NEXT

CREATE SovPerc1 FROM Struc

ERASE("Struc.dbf")

Заполнить БД совпадения слов в предложениях и БД % совпадений пустыми записями

CLOSE ALL

USE SovPerc1 EXCLUSIVE NEW // Открыть БД совпадения предложений в %

USE SovList1 EXCLUSIVE NEW // Открыть БД совпадения сслов в предложениях

USE LingvSys EXCLUSIVE NEW // Открыть БД с предложениями

FOR i = 1 TO N_Predl

SELECT LingvSys

DBGOTO(i)

M_Predl = Predl

SELECT SovList1

APPEND BLANK

Fn = "P"+STRTRAN(STR(i,2)," ","0")

REPLACE Kod WITH Fn

REPLACE Predl WITH M_Predl

SELECT SovPerc1

APPEND BLANK

REPLACE Kod WITH Fn

REPLACE Predl WITH M_Predl

NEXT

Построение БД пересечений предложений на уровне слов

FOR i=1 TO N_Predl // Цикл по предложениям

SELECT LingvSys

DBGOTO(i) // Переход на запись с 1-м предложением

Занести в массив значения слов 1-го предложения

Ar_List1 := {}

M_ListWord = LOWER(ListWord)

FOR w=1 TO NUMTOKEN(M_ListWord)

M_Word = ALLTRIM(TOKEN(M_ListWord, w))

IF ASCAN(Ar_List1, M_Word) = 0 // Исключение повторов слов

AADD(Ar_List1, M_Word) // Добваление слова в массив

ENDIF

NEXT

FOR j=1 TO N_Predl // Цикл по предложениям

DBGOTO(j) // Переход на запись со 2-м предложением

Занести в массив значения слов 2-го предложения

Ar_List2 := {}

M_ListWord = LOWER(ListWord)

FOR w=1 TO NUMTOKEN(M_ListWord)

M_Word = TOKEN(M_ListWord, w)

IF ASCAN(Ar_List2, M_Word) = 0 // Исключение повторов слов

AADD(Ar_List2, M_Word) // Добваление слова в массив

ENDIF

NEXT

Получить слова и словоформы, ОБЩИЕ для обоих предложении (убрав повторы) и отсортировать их определить словоформы с использованием расстояния Левенштейна

Krs = 3 // Критерий сходства словоформ

Ar_m12 := {} // Массив общих словоформ

FOR w1=1 TO LEN(Ar_List1)

FOR w2=1 TO LEN(Ar_List2)

Сравнение сходства двух слов или словоформ с использованием расстояния Левенштейна

IF STRDIFF(Ar_List1[w1], Ar_List2[w2]) <= Krs

Flag_ins = .F.

Исключение тождественных повторов

IF ASCAN(Ar_m12, Ar_List1[w1]) = 0

Flag_ins = .T.

ENDIF

IF Flag_ins = .F.

Исключение повторов словоформ т.е. сходных слов в массиве еще нет

LEN_Ar_m12 = LEN(Ar_m12)

n = 0

FOR k=1 TO LEN_Ar_m12

IF STRDIFF(Ar_m12[k], Ar_List1[w1]) > Krs

++n

ENDIF

NEXT

IF n = LEN_Ar_m12 // Все имеющиеся в массиве слова не похожи

Flag_ins = .T.

ENDIF

ENDIF

IF Flag_ins

AADD(Ar_m12, Ar_List1[w1]) // Добавление слова в массив

ENDIF

ENDIF

NEXT

NEXT

Более развитие подходы, основанные на АСК-анализе, в которых символы имеют различный вес для идентификации слов (в различной степени характерны для слов или принадлежат словам), а слова - различный вес для идентификации текстов (в различной степени характерны для текстов или принадлежат текстам), и эти веса вычисляются на основе примеров (и эти функции принадлежности вычисляются непосредственно на основе эмпирических данных), были апробированы автором при решении задач идентификации слов по входящим в них буквам [27] и атрибуции анонимных и псевдонимных текстов [28].

Итак, сделаем некоторые обобщения.

Две системы тождественны, если тождественны все их элементы на всех уровнях иерархии.

Если есть две системы, то в них могут входить различные 0-тождественные элементы-подсистемы. Это означает, что на 0-м уровне иерархии эти системы могут иметь пересечение в смысле теории множеств, а на последующих уровнях иерархии его может и не быть.

Определение 10: пересечением двух систем является система, состоящая из элементов, являющихся пересечением на каждом из имеющихся иерархических уровней этих систем.

Ранее автором была обоснована программная идея системного обобщения математики и сделан первый шаг по ее реализации: предложен вариант системной теории информации (СТИ). В данной статье осуществлена попытка - сделать второй шаг в том же направлении: рассматривается один из возможных подходов к системному обобщению математического понятия множества, а именно - подход, основанный на системной теории информации. Предполагается, что этот подход может стать основой для системного обобщения теории множеств и создания математической теории систем.

По ходу обсуждения сформулированных задач и подходов к их решению было выяснено, что в современной науке уже созданы научные теории (более того, они общепризнанны), которые хорошо вписываются в предложенную программную идею системного обобщения математики как элементы мозаики в общую картину, контуры которой мы и пытались нащупать. В дальнейшем при реализации предложенной программной идеи системного обобщения математики эта мозаика будет дополняться новыми элементами и, в конце концов, мы увидим всю картину в целом.

Так что же это за теории?

Прежде всего, это общая теория относительности (ОТО) Альберта Эйнштейна, основанная на общей идее о том, что физические явления можно описывать свойствами пространства - времени, например, гравитацию можно рассматривать как искривление пространства. В последующем эта идея получила развитие в работах по геометродинамике Дж. Уиллера, однако, описать другие физические явления с помощью геометрии оказалось на данном этапе затруднительным, что, по мнению автора, обусловлено, в том числе, недостаточной развитостью самой геометрии, в частности бедностью набора свойств геометрических объектов. Будем надеяться, что разработка системного обобщения геометрии позволит кардинально преодолеть эту проблему и описать свойства физических (да и других) объектов и явлений как эмерджентные свойства геометрических систем, лежащих в их основе и этими свойствами не обладающих. Если эту идею довести до логического конца, то будет стерта непреодолимая граница между математикой и физикой, математикой и другими науками. С учетом того, что системная геометрия и системная теория информации оказываются тесно взаимосвязанными, можно высказать следующую гипотезу, которая кажется вполне обоснованной: любые процессы и явления внутреннего и внешнего мира независимо от их природы можно рассматривать как информационные процессы, в которых объекты информационно взаимодействуют друг с другом с помощью каналов связи с определенными характеристиками, и при этом, соответственно, выделяется или поглощается энергия, изменяется уровень организации, уровень системности взаимодействующих объектов, изменяется их структура и функции (свойства). Для целенаправленного изменения структуры и функций объектов и явлений любой природы, в т.ч. квантовых, можно использовать методы и средства теории автоматизированного управления, применяя при этом для воздействия на объекты с целью управления ими информационные, по своей природе, управляющие факторы (отметим, что эта идея в развитой форме была высказана и реализована еще в 1984 году ). Таким образом, теория информации, ее идеи и методы могут проникнуть во все области науки и практики, т.к. информация - это предельно общая категория, даже более общая, чем категории "бытие и небытие", "материя и сознание", так как что бы мы не говорили об этих или других категориях, мы, прежде всего, обмениваемся информацией об их содержании и строим их информационные модели.

Это и фрактальная геометрия Бенуа Мандельброта, в которой, пожалуй, впервые в геометрии со времен Евклида коренным образом изменено представление о геометрических объектах в бесконечно-малом, обобщено представление о размерности пространства, стали систематически рассматриваться эмерджентные свойства геометрических систем.

Это и теория нечетких множеств Лотфи Заде, в которой может быть еще не вполне осознанно и целенаправленно, но были обогащены свойства математических множеств, в результате чего, по сути, нечетким множествам были приписаны отдельные свойства систем.

Все это вселяет надежду, что программная идея системного обобщения математики является вполне оправданной и обоснованной, и у нее есть перспективы применения и развития, т.е. действительно может быть получено системное обобщение любого математического понятия, основанного на понятии множества, любой области математики, основанной на теории множеств, путем тотальной замены понятия "множество" на более общее понятие "система" и прослеживания всех последствий этого. То, что эта надежда не беспочвенна, подтверждается не только существованием уже перечисленных выше общепринятых теорий, но и появлением целого ряда новаторских работ, подобных работам [30, 31, 32], демонстрирующим качественно новый уровень понимания проблем, связанных с системами и информацией.

Замечание по вопросу о названии "Системного обобщения теории множеств", возможность которого мы обсуждали в данной статье. Для этого обобщения были бы очень удачны термины: "Математическая теория систем" или "Информационная теория систем", однако эти термины уже есть в арсенале науки [24, 25], и при этом в них вкладывается иное смысловое содержание. Поэтому, видимо, придется либо несколько переосмыслить это содержание (что кажется более рациональным, т.к. в науке постоянно происходит процесс переосмысления ее содержания), либо научное направление, к которому относится данная статья, так и называть: "Системное обобщение теории множеств".

...

Подобные документы

  • Теория частичных действий как естественное продолжение теории полных действий. История создания и перспективы развития теории упорядоченных множеств. Частично упорядоченные множества. Вполне упорядоченные множества. Частичные группоиды и их свойства.

    реферат [185,5 K], добавлен 24.12.2007

  • Определение вероятности наступления определенного события по законам теории вероятности. Вычисление математического ожидания, дисперсии и среднего квадратичного отклонения. Нахождение выборочного уравнения регрессии по данным корреляционной таблицы.

    контрольная работа [212,0 K], добавлен 01.05.2010

  • Основные понятия комбинаторики. Определение теории вероятности. Понятие математического ожидания и дисперсии. Основные элементы математической статистики. Условная вероятность как вероятность одного события при условии, что другое событие уже произошло.

    реферат [144,6 K], добавлен 25.11.2013

  • Основные понятия теории марковских цепей, их использование в теории массового обслуживания для расчета распределения вероятностей числа занятых приборов в системе. Методика решения задачи о наилучшем выборе. Понятие возвратных и невозвратных состояний.

    курсовая работа [107,2 K], добавлен 06.11.2011

  • Сущность и предмет теории вероятностей, отражающей закономерности, присущие случайным явлениям массового характера. Изучение ею закономерностей массовых однородных случайных явлений. Описание наиболее популярных в теории вероятностей экспериментов.

    презентация [474,2 K], добавлен 17.08.2015

  • Математическая теория нечетких множеств и нечеткая логика как обобщения классической теории множеств и классической формальной логики. Сферы и особенности применения нечетких экспертных систем. Анализ математического аппарата, способы задания функций.

    презентация [1,0 M], добавлен 17.04.2013

  • Основополагающие понятия теории графов и теории групп. Определение эквивалентности, порождаемой группой подстановок, и доказательство леммы Бернсайда о числе классов такой эквивалентности. Сущность перечня конфигурации, доказательство теоремы Пойа.

    курсовая работа [682,9 K], добавлен 20.05.2013

  • Граф как множество вершин (узлов), соединённых рёбрами, способы и сфера их применения. Специфика теории графов как раздела дискретной математики. Основные способы преобразования графов, их особенности и использование для решения математических задач.

    курсовая работа [1,8 M], добавлен 18.01.2013

  • Определение вероятности определенного события. Вычисление математического ожидания, дисперсии, среднеквадратического отклонения дискретной случайной величины Х по известному закону ее распределения, заданному таблично. Расчет корреляционных признаков.

    контрольная работа [725,5 K], добавлен 12.02.2010

  • Алгебра логики, булева алгебра. Алгебра Жегалкина, педикаты и логические операции над ними. Термины и понятия формальных теорий, теорема о дедукции, автоматическое доказательство теорем. Элементы теории алгоритмов, алгоритмически неразрешимые задачи.

    курс лекций [652,4 K], добавлен 29.11.2009

  • Основные определения математической логики, булевы и эквивалентные функции. Общие понятия булевой алгебры. Алгебра Жегалкина: высказывания и предикаты. Определение формальной теории. Элементы теории алгоритмов, рекурсивные функции, машина Тьюринга.

    курс лекций [651,0 K], добавлен 08.08.2011

  • Основные методы формализованного описания и анализа случайных явлений, обработки и анализа результатов физических и численных экспериментов теории вероятности. Основные понятия и аксиомы теории вероятности. Базовые понятия математической статистики.

    курс лекций [1,1 M], добавлен 08.04.2011

  • Принципы решения задач по основным разделам теории вероятностей: случайные события и их допустимость, непроизвольные величины, распределения и числовые характеристики градировки, основные предельные теоремы для сумм независимых вероятностных величин.

    контрольная работа [129,1 K], добавлен 03.12.2010

  • Возникновение и развитие теории групп. Проблема интегрирования дифференциальных уравнений. Алгебраические конструкции в теории автоматов. Появление понятия перестановок. Группы и классификация голограмм. Применение теории групп в квантовой механике.

    реферат [457,3 K], добавлен 08.02.2013

  • Свойства действительных чисел, их роль в развитии математики. Анализ построения множества действительных чисел в историческом аспекте. Подходы к построению теории действительных чисел по Кантору, Вейерштрассу, Дедекинду. Их изучение в школьном курсе.

    презентация [2,2 M], добавлен 09.10.2011

  • Основные понятия математического моделирования, характеристика этапов создания моделей задач планирования производства и транспортных задач; аналитический и программный подходы к их решению. Симплекс-метод решения задач линейного программирования.

    курсовая работа [2,2 M], добавлен 11.12.2011

  • Определение случайного процесса и его характеристики. Основные понятия теории массового обслуживания. Понятие марковского случайного процесса. Потоки событий. Уравнения Колмогорова. Предельные вероятности состояний. Процессы гибели и размножения.

    реферат [402,0 K], добавлен 08.01.2013

  • Исследования Дж. Кардано и Н. Тарталья в области решения первичных задач теории вероятностей. Вклад Паскаля и Ферма в развитие теории вероятностей. Работа Х. Гюйгенса. Первые исследования по демографии. Формирование понятия геометрической вероятности.

    курсовая работа [115,9 K], добавлен 24.11.2010

  • Проблема несоизмеримых, первый кризис в основании математики, его следствия и попытки преодоления. Зарождение и развитие понятия числа. Становление теории предела, создание теории действительного числа. Великие метематики: Вейерштрасс, Кантор, Дедекинд.

    реферат [65,2 K], добавлен 26.11.2009

  • Понятие множества и его элементов. Обозначение принадлежности элемента множеству. Конечные и бесконечные множества. Строгое и нестрогое включение. Способы задания множеств. Равенство множеств и двухсторонее включение. Диаграммы Венна для трех множеств.

    презентация [564,8 K], добавлен 23.12.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.