Когнитивные функции как обобщение классического понятия функциональной зависимости на основе теории информации в аск-анализе и системной нечеткой интервальной математике
Классическое понятие функциональной зависимости в математике, ограничения применимости понятия для адекватного моделирования реальности. Интеллектуальная система "Эйдос". Методы формирования редуцированных когнитивных функций и наименьших квадратов.
Рубрика | Математика |
Вид | монография |
Язык | русский |
Дата добавления | 13.05.2017 |
Размер файла | 6,7 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
УДК 303.732.4
когнитивные функции как обобщение классического понятия функциональной зависимости на основе теории информации в аск-анализе и системной нечеткой интервальной математике
Луценко Евгений Вениаминович
д.э.н., к.т.н., профессор
Кубанский государственный аграрный университет, Россия, 350044, Краснодар, Калинина, 13, prof.lutsenko@gmail.com
Орлов Александр Иванович
д.э.н., д.т.н., к.ф.-м.н., профессор
Московский государственный технический университет им. Н.Э. Баумана, Россия, 105005, Москва, 2-я Бауманская ул., 5, prof-orlov@mail.ru
Кратко рассматриваются классическое понятие функциональной зависимости в математике, определяются ограничения применимости этого понятия для адекватного моделирования реальности и формулируется проблема, состоящая в поиске такого обобщения понятия функции, которое было бы более пригодно для адекватного отражения причинно-следственных связей в реальной области. Далее рассматривается теоретическое и практическое решения поставленной проблемы, состоящие в том, что а) предлагается универсальный не зависящий от предметной области способ вычисления количества информации в значении аргумента о значении функции, т.е. когнитивные функции; б) предлагается программный инструментарий: интеллектуальная система «Эйдос», позволяющая на практике осуществлять эти расчеты, т.е. строить когнитивные функции на основе фрагментированных зашумленных эмпирических данных большой размерности. Предлагаются понятия нередуцированных, частично и полностью редуцированных прямых и обратных, позитивных и негативных когнитивных функций и метод формирования редуцированных когнитивных функций, являющийся обобщением известного взвешенного метода наименьших квадратов на основе учета в качестве весов наблюдений количества информации в значениях аргумента о значениях функции
Ключевые слова: ТЕОРИЯ НЕЧЕТКОСТИ, ИНТЕРВАЛЬНАЯ МАТЕМАТИКА, АВТОМАТИЗИРОВАННЫЙ СИСТЕМНО-КОГНИТИВНЫЙ АНАЛИЗ, ИНТЕЛЛЕКТУАЛЬНАЯ СИСТЕМА «ЭЙДОС», КОГНИТИВНЫЕ ФУНКЦИИ
редуцированный когнитивный моделирование математика
UDC 303.732.4
COGNITIVE FUNCTIONS AS A GENERALIZATION OF THE CLASSICAL CONCEPT OF FUNCTIONAL DEPENDENCE ON THE BASIS OF INFORMATION THEORY IN ASC-ANALYSIS AND SYSTEM FUZZY INTERVAL MATHEMATICS
Lutsenko Evgeny Veniaminovich
Dr.Sci.Econ., Cand.Tech.Sci., professor
Kuban State Agrarian University, Krasnodar, Russia
Orlov Alexander Ivanovich
Dr.Sci.Econ., Dr.Sci.Tech., Cand.Phys-Math.Sci., professor
Bauman Moscow State Technical University, Moscow, Russia
This article briefly reviews the classical concept of functional dependence in mathematics, determines the limitations of this concept for adequate modeling of reality and formulates the problem, consisting in search of such generalization of the concept of functions, which is more suitable for the adequate reflection of causal relationships in the real domain. Also, it discusses theoretical and practical solving the problem, consisting in: (a) we suggest the universal method of calculating the amount of information in the value of argument about the meaning of the function, i.e. cognitive functions which is independent from the subject area; b) we offer software tools: Eidos intelligent system, allowing in practice to carry out these calculations, i.e. to build cognitive functions based on a fragmented noisy empirical data of high dimension. We also offer the concepts of nonreducing, partially and completely reduced direct and inverse, positive and negative cognitive functions and the method of formation of reduced cognitive function, which is a generalization of known weighted least-squares method on the basis of observation the amount of information in the values of the argument about the values of the functions accounting
Keywords: THEORY OF VAGUENESS, INTERVAL MATHEMATICS, AUTOMATED SYSTEM-COGNITIVE ANALYSIS, EIDOS INTELLECTUAL SYSTEM, COGNITIVE FUNCTIONS
СОДЕРЖАНИЕ
- 1. Классическое понятие функции в математике
- 2. Ограничения классического понятия функции и формулировка проблемы
- 2.1 Числа и множества - основа современной математики
- 2.2 Математические, прагматические и компьютерные числа
- 2.3 От обычных множеств - к нечетким
- 2.4 Теория нечетких множеств и «нечеткое удвоение» математики
- 2.5 О сведении теории нечетких множеств к теории случайных множеств
- 2.6 Интервальные числа как частный случай нечетких множеств
- 2.7 Развитие интервальной математики. «Интервальное удвоение» математики
- 2.8 Система как обобщение множества. Системное обобщение математики и задачи, возникающие при этом
- 2.9 Формулировка проблемы
- 3. Теоретическое решение проблемы в АСК-анализе
- 3.1 Развитие идеи системного обобщения математики в области теории информации. Системная (эмерджентная) теория информации (СТИ)
- 3.2 Системное обобщение понятия функции и функциональной зависимости. Когнитивные функции. Матрицы знаний как нечеткое с расчетной степенью истинности отображение системы аргументов на систему значений функции
- 3.3 Примеры известных функций, которые могут рассматриваться как аналоги когнитивных функций
- 3.3.1 Оцифрованные сигналы: аудио, графика, видео
- 3.3.2 Таблично заданные функции, например таблицы Брадиса
- 3.3.3 Доверительные интервалы как аналог количества информации в аргументе о значении функции и прогнозирование достоверности прогнозирования
- 3.3.4 Что представляют собой классические функции с точки зрения теории и практики когнитивных функций?
- 4. Практическое решение проблемы в программном инструментарии АСК-анализа - интеллектуальной системе «Эйдос»
- 4.1 Интеллектуальная система Эйдос-Х++ как инструментарий АСК-анализа, реализующий идеи системного нечеткого интервального обобщения математики
- 4.2 Развернутый численный пример построения когнитивных функций на основе зашумленных данных в системе «Эйдос»
- 5. Повышение степени формализации взвешенного метода наименьших квадратов путем выбора в качестве весов наблюдений количества информации в них о значениях функции и автоматизации их расчета путем применения АСК-анализа
- Вариант 1-й: применение когнитивных функций в взвешенном МНК
- Вариант 2-й: средневзвешенные значения функции в взвешенном МНК
- Выводы
- Литература
1. Классическое понятие функции в математике
Кратко рассмотрим классическое понятие функциональной зависимости или функции в математике.
Под функциональной зависимостью (функцией) понимается закон или правило, по которому осуществляется отображение множества числовых значений аргумента (область определения) на множество числовых значений функции (область значений). В более общем определении область определения и область значений могут быть произвольными множествами, не обязательно числовыми.
В математике для классических функций обычно вводится большое количество различных ограничений, накладывающих соответствующие ограничения на возможности их практического применения, но позволяющих использовать и развивать математические конструкции, основанные на описанном выше понятии функции в математике. К этим ограничениям, прежде всего, относятся то, что множества значений аргумента и значений функции являются числовыми, чаще всего континуальными (интервал, луч прямая), и между ними существует взаимно-однозначное соответствие, т.е. функция является биективной. Обычно предполагается также, что эти множества или не обладают никакой структурой, или имеют алгебраическую структуру группы, кольца, поля или аналогичную.
Вместе с тем при определении и использовании функций необходимо различать математические, прагматические и компьютерные числа, учитывать, что множества могут быть нечеткими или случайными, элементами множеств могут быть не только числа, но и лингвистические переменные, а также результаты измерений в различных шкалах, в частности, в порядковых, кроме того множества могут образовывать системы. Всем этим обусловлены существенные ограничения, которые накладываются на возможности применения классического математического понятия функции для моделирования социально-экономических объектов. Как следствие, возникает необходимость разработки математического аппарата, снимающего эти ограничения. Кратко рассмотрим совокупность поставленных вопросов вопросы ниже.
2. Ограничения классического понятия функции и формулировка проблемы
2.1 Числа и множества - основа современной математики
Математика - язык науки [1, с.18]. С появлением новых объектов обсуждения, изучения и практического применения этот язык развивается. «Между математикой и практикой всегда существует двусторонняя связь; математика предлагает практике понятия и методы исследования, которыми она уже располагает, а практика постоянно сообщает математике, что ей необходимо» [1, c.53].
В настоящей статье мы рассматриваем необходимость расширения математического понятия функциональной зависимости (функции) с целью учета присущих реальности нечеткости, интервальности, системности, а также основы соответствующего предлагаемого нами нового перспективного направления теоретической и вычислительной математики - системной нечеткой интервальной математики (СНИМ) [2]. Анализируя, следуя А.Н. Колмогорову [3], математику в ее историческом развитии, констатируем, что ее основой являются действительные числа и множества. Как подчеркнуто выше, функции обычно определяются с помощью множеств (области определения, области значений и подмножества декартова произведения этих областей, задающего отображение области определения на область значений. Число же является основным понятием математики с древнейших времен, и стержнем развития математики вплоть до XIX в. является развитие понятия числа. Еще один символ математики - фигуры и тела. И посвящена элементарная геометрия. Однако развитие этой области математики прекратилось в начале ХХ в. Сейчас элементарная геометрия - предмет изучения в средней школе, новые научные результаты в ней не появляются. Ее наследники - современные геометрические дисциплины, такие, как проективная геометрия, дифференциальная геометрия, общая топология, алгебраическая топология и др. - далеки от реального мира. Их чисто теоретические результаты практически не используются при решении прикладных задач.
Поэтому сосредоточимся на рассмотрении только двух понятий - числа и множества.
2.2 Математические, прагматические и компьютерные числа
Обсудим базовое для математики понятие числа. Будем считать, что читателю знакомы те математические числа, о которых рассказывают в средней и высшей школе; натуральные числа, дроби, действительные (вещественные) числа. Комплексные числа и кватернионы не потребуют специального обсуждения.
На практике мы используем числа в десятичной записи, иногда дроби. Так, результаты измерений обычно задаются небольшим количеством значащих цифр (от 1 до 5). Т.е. пользуемся множеством чисел из конечного числа элементов. Даже если обобщить арифметическую практику, принять, что могут использоваться любые дроби (записываемые конечным количеством цифр), то множество возможных числе оказывается счетным. А множество действительных чисел имеет мощность континуума. Это означает, что почти все действительные числа «существуют» только в теории, не встречаются при вычислениях. Хорошо известны примеры таких чисел - длина диагонали квадрата с единичной стороной, площадь круга радиуса 1, основание натуральных логарифмов. Их обозначают специальными значками, а при вычислениях вынуждены использовать лишь приближенные значения.
Среди реально используемых чисел выделим два класса - прагматические и компьютерные. Прагматические числа - это результаты измерений, прямых иди косвенных (рассчитанных по результатам прямых измерений), с помощью средств измерений или экспертных. Инженеры хорошо знают, что результат измерения всегда имеет погрешность, и указывают оценку погрешности (например, вносят ее в технический паспорт средства измерения). Экономисты также понимают принципиальную неточность своих расчетов, однако погрешность указывают не всегда, хотя ясно, что при рассмотрении экономической величины порядка нескольких миллиардов рублей нет смысла принимать во внимание копейки (а также и сотни тысяч рублей).
Компьютерные числа - результаты компьютерных расчетов. Они могут быть получены не при анализе прагматических числе, а при расчетах на условных примерах. Принципиальным является понятие машинного нуля. Все математические числа, меньшие (по абсолютной величине) некоторой границы, компьютер приравнивает 0. В результате компьютерные расчеты могут давать результаты, принципиально отличающиеся от математических. Рассмотрим, например, суммирование ряда, члены которого - величины, обратные натуральным числам. Как известно, ряд не сходится (если угодно, сумма ряда равна бесконечности). Однако все члены ряда, начиная с некоторого, будут равны машинному 0, а потому компьютер выдаст в качестве суммы ряда некоторое число (а отнюдь не бесконечность).
Констатируем, что реально используемые числа зачастую не являются математическими. Из сказанного вытекает необходимость модернизации основ математики. Нужен математический аппарат, позволяющий оперировать с прагматическими и компьютерными числами. Принципиальное различие математических, прагматических и компьютерных чисел подробно обсуждает Е.М. Левич [4].
2.3 От обычных множеств - к нечетким
В теории множеств переход от принадлежности элемента множеству к непринадлежности происходит скачком, что не всегда соответствует представлениям о свойствах реальных совокупностей. Обычно имеет место плавный переход от «принадлежности» к «непринадлежности». Следовательно, теорию множеств также необходимо модернизировать. Основное направление при этом - использование множеств с размытыми границами.
Как уже говорилось выше, в основании современной математики лежит понятие множества. Чтобы задать то или иное конкретное множество предметов (объектов, элементов), надо относительно каждого предмета уметь ответить на вопрос: «Принадлежит данный предмет данному множеству или не принадлежит?» Но мы уже видели, что границы понятий, как правило, размыты, так что четкий ответ на подобный вопрос возможен далеко не всегда. Значит, для описания нечеткости надо взять за основу понятие множества, несколько отличающееся от привычного, более широкое, чем оно.
2.4 Теория нечетких множеств и «нечеткое удвоение» математики
Чтобы определить нечеткое множество, надо сначала задать совокупность всех тех элементов, для которых имеет смысл говорить о мере их принадлежности рассматриваемому нечеткому множеству. Эта совокупность называется универсальным множеством. Например, для числа зерен, образующих «кучу» - это множество натуральных чисел, для описания цветов - отрезок шкалы электромагнитных волн, соответствующий видимому свету.
Нечеткое множество описывается (как пишет основатель теории нечетких множеств Л.А. Заде [5], характеризуется) функцией принадлежности (в обычном математическом смысле), которая каждому элементу универсального множества ставит в соответствие число от 0 до 1, показывающее степень (меру, величину) принадлежности этого элемента нечеткому множеству.
Представляется естественным рассматривать нечеткую (размытую) функцию принадлежности. Ее надо описывать функцией принадлежности второго порядка. И далее - вводить функцию принадлежности третьего порядка, и т.д. Итак, основной парадокс теории нечеткости состоит в том, что привлекательный тезис «все в мире нечетко» невозможно последовательно раскрыть в рамках математических моделей. Конечно, описанный парадокс не мешает успешно использовать расплывчатую математику в конкретных приложениях. Из него вытекает лишь необходимость указывать и обсуждать границы ее применимости.
«Нечеткое удвоение» математики состоит в том, что, заменяя в некоторой математической конструкции обычные множества на нечеткие, мы получаем нечеткий аналог этой конструкции. Например, можно рассматривать нечеткие функции, интегралы, классификации и т.д., изучать их теоретически и применять для решения практических задач.
2.5 О сведении теории нечетких множеств к теории случайных множеств
С самого начала появления современной теории нечеткости в 1960-е годы началось обсуждение ее взаимоотношений с теорией вероятностей. Дело в том, что функция принадлежности нечеткого множества напоминает плотность распределения вероятностей. Отличие только в том, что сумма вероятностей по всем возможным значениям случайной величины (или интеграл, если множество возможных значений несчетно) всегда равна 1, а сумма S значений функции принадлежности (в непрерывном случае -- интеграл от функции принадлежности) может быть любым неотрицательным числом. Возникает искушение пронормировать функцию принадлежности, т.е. разделить все ее значения на S (при S 0), чтобы свести ее к распределению вероятностей (или к плотности вероятности). Однако специалисты по нечеткости справедливо возражают против такого «примитивного» сведения, поскольку оно проводится отдельно для каждой размытости (нечеткого множества), и определения обычных операций над нечеткими множествами согласовать с ним нельзя. Последнее утверждение означает следующее. Пусть указанным образом преобразованы функции принадлежности нечетких множеств А и В. Как при этом преобразуются функции принадлежности результатов операций над множествами АВ, АВ, А + В, АВ? Установить это невозможно в принципе. Последнее утверждение становится совершенно ясным после рассмотрения нескольких примеров пар нечетких множеств с одними и теми же суммами значений функций принадлежности, но различными результатами теоретико-множественных операций над ними. Причем и суммы значений соответствующих функций принадлежности для этих результатов теоретико-множественных операций, например, для пересечений множеств, также различны.
Можно понять желание энтузиастов теории нечеткости подчеркнуть принципиальную новизну своего научного аппарата. Однако установлено, что теория нечетких множеств сводится к теории случайных множеств.
Еще в 1975 г. доказано [6], что нечеткие множества естественно рассматривать как «проекции» случайных множеств. Для случайного множества А рассмотрим функцию, значение которой равно вероятности того, что аргумент этой функции входит в случайное множество. Эта функция является функцией принадлежности некоторого нечеткого множества B. Проекцией случайного множества А называется нечеткое множество B, построенное указанным способом.
Каждому случайному множеству А можно поставить в соответствие нечеткое множество В. Оказывается, верно и обратное. Для любого нечеткого подмножества В конечного множества Y существует случайное подмножество А множества Y такое, что В является проекцией A. Указанная связь между теориями нечетких и случайных множеств - лишь начало длинной цепи теорем, связывающих эти две теории.
Изучение связи между нечеткими и случайными множествами началось с использования случайных множеств с целью развития и обобщения аппарата нечетких множеств Л. Заде. Дело в том, что математический аппарат нечетких множеств не позволяет в должной мере учитывать различные варианты зависимости между понятиями (объектами), моделируемыми с его помощью, т.е. не является достаточно гибким. Так, для описания «общей части» двух нечетких множеств есть лишь две операции -- произведение и пересечение. Если применяется первая из них, то фактически предполагается, что множества ведут себя как проекции независимых случайных множеств. Операция пересечения также накладывает вполне определенные ограничения на вид зависимости между множествами, причем в этом случае найдены даже необходимые и достаточные условия. Желательно иметь более широкие возможности для моделирования зависимости между множествами (понятиями, объектами). Использование математического аппарата случайных множеств предоставляет такие возможности, как показано в первой книге отечественного автора по теории нечетких множеств [7].
Цель сведения теории нечетких множеств к теории случайных множеств в том, чтобы за любой конструкцией из нечетких множеств увидеть конструкцию из случайных множеств, определяющую свойства первой, аналогично тому, как за плотностью распределения вероятностей мы видим случайную величину. Результаты (теоремы и доказательства) по сведению алгебры нечетких множеств к алгебре случайных множеств приведены в [8].
2.6 Интервальные числа как частный случай нечетких множеств
Интервальное число - это нечеткое множество с функцией принадлежности, равной 1 на отрезке [a, b] и равной 0 вне этого отрезка. Проще говоря, интервальное число - это (замкнутый) интервал [a, b]. Интервальное число - самый простой частный случай нечеткого множества. Хотя для интервальных чисел не выполняется одно из важных свойств нечетких множеств - непрерывность перехода от «непринадлежности к множеству» к «принадлежности», это математическое понятие позволяет успешно моделировать разброс результатов косвенных измерений и погрешности других расчетов в прикладных научных исследованиях.
Интервальные числа часто используются для описания результатов измерений, поскольку измерение всегда проводится с некоторой неопределенностью. Прогноз погоды, как и другие прогнозы, дается в виде интервала, например: «Температура завтра днем будет 15 - 17 градусов Цельсия».
2.7 Развитие интервальной математики. «Интервальное удвоение» математики
Первая монография по интервальной математике была опубликована Р.Е. Муром в 1966 г. (практически одновременно с первой статьей Л.А. Заде по нечетким множествам), а на русском языке - Ю.И. Шокиным в 1981 г. В дальнейшем интервальная математика активно развивалась, но не так быстро, как теория нечетких множеств. Исключением является статистика интервальных данных, в которой получено много интересных результатов (они рассмотрены в [9]), в то время как статистика нечетких данных до сих пор гораздо менее развита и представляет собой в основном результат применения общих подходов статистики объектов нечисловой природы, являющихся элементами пространств произвольного вида.
«Интервальное удвоение» математики состоит в том, что всюду, где используются действительные числа, их можно заменить интервалами (интервальными числами). Например, можно решать системы линейных алгебраических уравнений с интервальными коэффициентами или системы линейных дифференциальных уравнений с интервальными коэффициентами и интервальными граничными условиями. В статистике интервальных данных элементы выборки - не числа, а интервалы. В этом разделе прикладной статистики разработаны принципиально новые (по сравнению с классической математической статистикой) подходы, основанные на понятиях нотны и рационального объемы выборки [10 - 12].
Констатируем необходимость расширения математического аппарата с целью учета присущих реальности нечеткости и интервальности. Такая необходимость отмечалась в ряде публикаций [35-37], но пока еще не стала общепризнанной. На описании неопределенностей с помощью вероятностных моделей не останавливаемся, поскольку такому подходу посвящено множество работ.
2.8 Система как обобщение множества. Системное обобщение математики и задачи, возникающие при этом
В науке принято два основных принципа определения понятий:
- через подведение определяемого понятия под более общее понятие и выделение из него определяемого понятия путем указания одного или нескольких его специфических признаков (например, млекопитающие - это животные, выкармливающие своих детенышей молоком);
- процедурное определение, которое определяет понятие путем указания пути к нему или способа его достижения (магнитный северный полюс - это точка, в которую попадешь, если все время двигаться на север, определяя направление движения с помощью магнитного компаса).
Как это ни парадоксально, но понятия системы и множества могут быть определены друг через друга, т.е. трудно сказать, какое из этих понятие является более общим.
Определение системы через множество.
Система есть множество элементов, взаимосвязанных друг с другом, что дает системе новые качества, которых не было у элементов. Эти новые системные свойства еще называются эмерджентными (т.е. «возникающими»), т.к. не очень просто понять, откуда они берутся. Чем больше сила взаимодействия элементов, тем сильнее свойства системы отличаются от свойств множества и тем выше уровень системности и синергетический эффект. Получается, что система - это множество элементов, но не всякое множество, а только такое, в котором элементы взаимосвязаны (это и есть специфический признак, выделяющий системы среди множеств), т.е. множество - это более общее понятие.
Определение множества через систему.
Но можно рассуждать и иначе, считая более общим понятием систему, т.е. мы ведь можем определить понятие множества через понятие системы. Множество - это система, в которой сила взаимодействия между элементами равна нулю (это и есть отличительный признак, выделяющий множества среди систем). Тогда более общим понятием является система, а множества - это просто системы с нулевым уровнем системности.
Вторая точка зрения объективно является предпочтительной, т.к. совершенно очевидно, что понятие множества является предельной абстракцией от понятия системы и реально в мире существуют только системы, а множеств в чистом виде не существует, как не существует математической точки. Точнее сказать, что множества, конечно, существуют, но всегда исключительно и только в составе систем как их базовый уровень иерархии, на котором они основаны.
Из этого вытекает очень важный вывод: все понятия и теории, основанные на понятии множества, допускают обобщение путем замены понятия множества на понятие системы и тщательного прослеживания всех последствий этой замены. При этом более общие теории будут удовлетворять принципу соответствия, обязательному для всех более общих теорий, т.е. в асимптотическом случае, когда сила взаимосвязи элементов систем стремится к нулю, системы будут все меньше отличаться от множеств и системное обобщение теории перейдет к классическому варианту, основанному на понятии множества. В предельном случае, когда сила взаимосвязи точно равна нулю, системная теория будет давать точно такие же результаты, как основанная на понятии множества.
Этот вывод верен для всех теорий, но в данной статье для авторов наиболее интересным и важным является то, что очень многие, если не практически все понятия современной математики основаны на понятии множества, в частности на математической теории множеств. В частности, к таким понятиям относятся понятия:
- математической операции: преобразования одного или нескольких исходных множеств в одно или несколько результирующих;
- функциональной зависимости: отображение множества значений аргумента на множество значений функции для однозначной функции одного аргумента или отображение множеств значений аргументов на множества значений функций для многозначной функции многих аргументов;
- «количество информации»: функция от свойств множества.
В статье [13] впервые сформулирована и обоснована программная идея системного обобщения математики, суть которой состоит в тотальной замене понятия "множество" на более общее понятие "система" и прослеживании всех последствий этого. При этом обеспечивается соблюдение принципа соответствия, обязательного для более общей теории, т.к. при понижении уровня системности система по своим свойствам становится все ближе к множеству и система с нулевым уровнем системности и есть множество. Приводится развернутый пример реализации этой программной идеи в области теории информации, в качестве которого выступает предложенная в 2002 году системная теория информации [17], являющаяся системным обобщением теории информации Найквиста - Больцмана - Хартли - Шеннона и семантической теории информации Харкевича. Основа этой теории состоит в обобщении комбинаторного понятия информации Хартли I = Log2N на основе идеи о том, что количество информации определяется не мощностью множества N, а мощностью системы, под которой предлагается понимать суммарное количество подсистем различного уровня иерархии в системе, начиная с базовых элементов исходного множества и заканчивая системой в целом. При этом в 2002 году, когда было предложено системное обобщение формулы Хартли, число подсистем в системе, т.е. мощность системы Ns, предлагалось рассчитывать по формуле:
.
Соответственно, системное обобщение формулы Хартли для количества информации в системе из n элементов предлагалось в виде:
В статье [38] дано системное обобщение формулы Хартли для количества информации для квантовых систем, подчиняющиеся статистике как Ферми-Дирака, так и Бозе-Эйнштейна, и стало ясно, что предложенные в 2002 году в работе [17] вышеприведенные выражения имеют силу только для систем, подчиняющихся статистике Ферми-Дирака.
В статье [14] кратко описывается семантическая информационная модель системно-когнитивного анализа (СК-анализ), вводится универсальная информационная мера силы и направления влияния значений факторов (независимая от их природы и единиц измерения) на поведение объекта управления (основанная на лемме Неймана - Пирсона), а также неметрический интегральный критерий сходства между образами конкретных объектов и обобщенными образами классов, образами классов и образами значений факторов. Идентификация и прогнозирование рассматривается как разложение образа конкретного объекта в ряд по обобщенным образам классов (объектный анализ), что предлагается рассматривать как возможный вариант решения на практике 13-й проблемы Гильберта.
В статьях [15, 16] обоснована идея системного обобщения математики и сделан первый шаг по ее реализации: предложен вариант системной теории информации [17, 21]. В данной статье осуществлена попытка сделать второй шаг в этом же направлении: на концептуальном уровне рассматривается один из возможных подходов к системному обобщению математического понятия множества, а именно - подход, основанный на системной теории информации. Предполагается, что этот подход может стать основой для системного обобщения теории множеств и создания математической теории систем. Сформулированы задачи, возникающие на пути достижения этой цели (разработки системного обобщения математики) и предложены или намечены пути их решения:
Задача 1: найти способ представления системы как совокупности взаимосвязанных множеств.
Задача 2: сформулировать, чем отличаются друг от друга различные системы, состоящие из одних и тех же базисных элементов.
Задача 3: обосновать принципы геометрической интерпретации понятий: "элемент системы" и "система".
Задача 4: предложить способы аналитического описания (задания) подсистем как элементов системы.
Задача 5: описать системное семантическое пространство для отображения систем в форме эйдосов (эйдос-пространство).
Задача 6: описать принцип формирования эйдосов (включая зеркальные части).
Задача 7: показать, что базовая когнитивная концепция [17] формализуется многослойной системой эйдос-пространств (термин автора) различных размерностей.
Задача 8: показать, что системная теория информации позволяет непосредственно на основе эмпирических данных определять вид функций принадлежности, т.е. решать одну из основных задач теории нечетких множеств.
Задача 9: сформулировать перспективы: разработка операций с системами: объединение (сложение), пересечение (умножение), вычитание. Привести предварительные соображения по сложению систем.
В данной статье эти варианты решения не приводятся из-за ограниченности ее объема. Обсуждению вопросов, связанных с постановкой и решением этих задач, посвящены статьи [13-16].
2.9 Формулировка проблемы
Постоянно работая в области математического моделирования социально-экономических объектов и явлений и учитывая наличие всех вышеперечисленных ограничений авторы пришли к выводу, что классическое математическое понятие функциональной зависимости недостаточно для адекватного отражения силы и величины причинно-следственной (или иной) связи между факторами, действующим на экономический (или иной) объект, и поведением этого объекта. Одно и тоже значение фактора влияет на переход экономического объекта в различные состояния, но в различной степени или даже с различным знаком, и переход объекта в каждое из состояний обусловлен действием большого количества различных факторов, вообще говоря, взаимодействующих между собой. Это значит, что одному значению аргумента соответствует не одно, а много различных значений функции, а каждому значению функции соответствует много различных значений аргумента, причем это соответствие может быть различным по величание и знаку. Очевидно, что простое представление о биективной функции не пригодно для формального математического моделирования подобных зависимостей. Обобщение классического понятия функции может осуществлено различными способами, - на основе теории нечеткости, интервальной математики, системного анализа.
3. Теоретическое решение проблемы в АСК-анализе
3.1 Развитие идеи системного обобщения математики в области теории информации. Системная (эмерджентная) теория информации (СТИ)
Данный раздел представляет собой краткое частичное изложение статьи [21].
Итак, классическая формула Хартли имеет вид [51]:
( 1 )
Будем искать ее системное обобщение в виде:
( 2 )
где:
W - количество элементов в множестве.
- коэффициент эмерджентности, названный автором в честь Хартли коэффициентом эмерджентности Хартли.
Примем, что системное обобщение формулы Хартли имеет вид:
( 3 )
где:
- количество подсистем из m элементов;
m - сложность подсистем;
M - максимальная сложность подсистем (максимальное число элементов подсистемы).
Так как , то при M=1 система переходит в множество и выражение (3) приобретает вид (1), т.е. для него выполняется принцип соответствия, являющийся обязательным для более общей теории.
Учитывая, что при M=W:
( 4 )
в этом случае получаем:
( 5 )
Выражение (5) дает оценку максимального количества информации в элементе системы. Из выражения (5) видно, что при увеличении числа элементов W количество информации I быстро стремится к W (6) и уже при W>4 погрешность выражения (5) не превышает 1%:
( 6 )
Приравняв правые части выражений (2) и (3):
( 7 )
получим выражение для коэффициента эмерджентности Хартли:
( 8 )
Смысл этого коэффициента раскрыт в работах [2, 4, 5, 9, 12, 13, 14]. Здесь отметим лишь, что при M1, когда система асимптотически переходит в множество, имеем 1 и (2) (1), как и должно быть согласно принципу соответствия.
С учетом (8) выражение (2) примет вид:
( 9 )
или при M=W и больших W, учитывая (4) и (5):
( 10 )
Выражение (9) и представляет собой искомое системное обобщение классической формулы Хартли, а выражение (10) - его достаточно хорошее приближение при большом количестве элементов в системе W.
Классическая формула А. Харкевича имеет вид:
( 11 )
где: - Pij - условная вероятность перехода объекта в j-е состояние при условии действия на него i-го значения фактора;
- - безусловная вероятность перехода объекта в j-е состояние (вероятность самопроизвольного перехода или вероятность перехода, посчитанная по всей выборке, т.е. при действии любого значения фактора).
Придадим выражению (11) следующий эквивалентный вид (12), который и будем использовать ниже. Вопрос об эквивалентности выражений (11) и (12) рассмотрим позднее.
( 12 )
где: - индекс i обозначает признак (значение фактора): 1 i M;
- индекс j обозначает состояние объекта или класс: 1 j W;
- Pij - условная вероятность наблюдения i-го значения фактора у объектов в j-го класса;
- - безусловная вероятность наблюдения i-го значения фактора по всей выборке.
Из (12) видно, что формула Харкевича для семантической меры информации по сути является логарифмом от формулы Байеса для апостериорной вероятности (отношение условной вероятности к безусловной).
Известно, что классическая формула Шеннона для количества информации для неравновероятных событий преобразуется в формулу Хартли при условии, что события равновероятны, т.е. удовлетворяет фундаментальному принципу соответствия. Поэтому теория информации Шеннона справедливо считается обобщением теории Хартли для неравновероятных событий. Однако, выражения (11) и (12) при подстановке в них реальных численных значений вероятностей Pij, и не дает количества информации в битах, т.е. для этого выражения не выполняется принцип соответствия, обязательный для более общих теорий. Возможно, в этом состоит причина довольно сдержанного, а иногда и скептического отношения специалистов по теории информации Шеннона к семантической теории информации Харкевича.
Причину этого мы видим в том, что в выражениях (11) и (12) отсутствуют глобальные параметры конкретной модели W и M, т.е. в том, что А. Харкевич в своем выражении для количества информации не ввел зависимости от мощности пространства будущих состояний объекта W и количества значений факторов M, обуславливающих переход объекта в эти состояния.
Поставим задачу получить такое обобщение формулы Харкевича, которое бы удовлетворяло тому же самому принципу соответствия, что и формула Шеннона, т.е. преобразовывалось в формулу Хартли в предельном детерминистском равновероятном случае, когда каждому классу (состоянию объекта) соответствует один признак (значение фактора), и каждому признаку - один класс, и эти классы (а, значит и признаки), равновероятны, и при этом каждый фактор однозначно, т.е. детерминистским образом определяет переход объекта в определенное состояние, соответствующее классу.
В детерминском случае вероятность предел, к которому стремится частость при неограниченном увеличении числа наблюдений Pij наблюдения объекта j-го класса при обнаружении у него i-го признака:
.
Будем искать это обобщение (12) в виде:
( 13 )
Найдем такое выражение для коэффициента , названного нами в честь А. Харкевича "коэффициентом эмерджентности Харкевича", которое обеспечивает выполнение для выражения (13) принципа соответствия с классической формулой Хартли (1) и ее системным обобщением (2) и (3) в равновероятном детерминистском случае.
Для этого нам потребуется выразить вероятности Pij, Pj и Pi через частоты наблюдения признаков по классам (см. табл. 1). В табл. 1 рамкой обведена область значений, переменные определены ранее.
Таблица 1 - МАТРИЦА АБСОЛЮТНЫХ ЧАСТОТ
Классы |
Сумма |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
|||||||
... |
||||||||
i |
||||||||
... |
||||||||
M |
||||||||
Суммарное количество признаков |
Алгоритм формирования матрицы абсолютных частот.
Объекты обучающей выборки описываются векторами (массивами) имеющихся у них признаков:
Первоначально в матрице абсолютных частот все значения равны нулю. Затем организуется цикл по объектам обучающей выборки. Если предъявленного объекта, относящегося к j-му классу, есть i-й признак, то:
Здесь можно провести очень интересную и важную аналогию между способом формирования матрицы абсолютных частот и работой многоканальной системы выделения полезного сигнала из шума. Представим себе, что все объекты, предъявляемые для формирования обобщенного образа некоторого класса, в действительности являются различными реализациями одного объекта - "Эйдоса" (в смысле Платона), по-разному зашумленного различными случайными обстоятельствами. И наша задача состоит в том, чтобы подавить этот шум и выделить из него то общее и существенное, что отличает объекты данного класса от объектов других классов. Учитывая, что шум чаще всего является "белым" и имеет свойство при суммировании с самим собой стремиться к нулю, а сигнал при этом, наоборот, возрастает пропорционально количеству слагаемых, то увеличение объема обучающей выборки приводит ко все лучшему отношению сигнал/шум в матрице абсолютных частот, т.е. к выделению полезной информации из шума. Примерно так мы начинаем постепенно понимать смысл фразы, которую мы сразу не расслышали по телефону и несколько раз переспрашивали. При этом в повторах шум не позволяет понять то одну, то другую часть фразы, но в конце концов за счет использования памяти и интеллектуальной обработки информации мы понимаем ее всю. Так и объекты, описанные признаками, можно рассматривать как зашумленные фразы, несущие нам информацию об обобщенных образах классов - "Эйдосах" [12, 13, 14, 15], к которым они относятся. И эту информацию мы выделяем из шума при синтезе модели.
Для выражения (11):
( 14 )
Для выражений (12) и (13):
( 15 )
Для выражений (11), (12) и (13):
( 16 )
В (16) использованы обозначения:
Nij - суммарное количество наблюдений в исследуемой выборке факта: "действовало i-е значение фактора и объект перешел в j-е состояние";
- суммарное по всей выборке количество встреч различных факторов у объектов, перешедших в j-е состояние;
- суммарное количество встреч i-го фактора у всех объектов исследуемой выборки;
- суммарное количество встреч различных значений факторов у всех объектов исследуемой выборки.
Формирование матрицы условных и безусловных процентных распределений.
На основе анализа матрицы частот (табл. 1) классы можно сравнивать по наблюдаемым частотам признаков только в том случае, если количество объектов по всем классам одинаково, как и суммарное количество признаков по классам. Если же они отличаются, то корректно сравнивать классы можно только по условным и безусловным относительным частотам (оценкам вероятностей) наблюдений признаков, посчитанных на основе матрицы частот (табл. 1) в соответствии с выражениями (14) и (15), в результате чего получается матрица условных и безусловных процентных распределений (табл. 2).
При расчете матрицы оценок условных и безусловных вероятностей Nj из табл. 1 могут браться либо из предпоследней, либо из последней строки. В 1-м случае Nj представляет собой "Суммарное количество признаков у всех объектов, использованных для формирования обобщенного образа j-го класса", а во 2-м случае - это "Суммарное количество объектов обучающей выборки, использованных для формирования обобщенного образа j-го класса", соответственно получаем различные, хотя и очень сходные семантические информационные модели, которые мы называем СИМ-1 и СИМ-2. Оба этих вида моделей поддерживаются системой "Эйдос".
Таблица 2 - МАТРИЦА УСЛОВНЫХ И БЕЗУСЛОВНЫХ
ПРОЦЕНТНЫХ РАСПРЕДЕЛЕНИЙ
Классы |
Безусловная вероятность признака |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
|||||||
... |
||||||||
i |
||||||||
... |
||||||||
M |
||||||||
Безусловная вероятность класса |
Эквивалентность выражений (11) и (12) устанавливается, если подставить в них выражения относительных частот как оценок вероятностей Pij, и через абсолютные частоты наблюдения признаков по классам из (14), (15) и (16). В обоих случаях из выражений (11) и (12) получается одно и то же выражение (17):
( 17 )
А из (13) - выражение (18), с которым мы и будем далее работать.
( 18 )
При взаимно-однозначном соответствии классов и признаков в равновероятном детерминистском случае имеем (таблица 3):
Таблица 3 - МАТРИЦА ЧАСТОТ В РАВНОВЕРОЯТНОМ ДЕТЕРМИНИСТСКОМ СЛУЧАЕ
Классы |
Сумма |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
1 |
1 |
|||||
... |
1 |
1 |
||||||
i |
1 |
1 |
||||||
... |
1 |
1 |
||||||
M |
1 |
1 |
||||||
Сумма |
1 |
1 |
1 |
1 |
1 |
В этом случае к каждому классу относится один объект, имеющий единственный признак. Откуда получаем для всех i и j равенства (19):
( 19 )
Таким образом, обобщенная формула А. Харкевича (18) с учетом (19) в этом случае приобретает вид:
( 20 )
откуда:
( 21 )
или, учитывая выражение для коэффициента эмерджентности Хартли (8):
( 22 )
Подставив коэффициент эмерджентности А.Харкевича (21) в выражение (18), получим:
или окончательно:
( 23 )
Отметим, что 1-я задача получения системного обобщения формул Хартли и Харкевича и 2-я задача получения такого обобщения формулы Харкевича, которая удовлетворяет принципу соответствия с формулой Хартли - это две разные задачи. 1-я задача является более общей и при ее решении, которое приведено выше, автоматически решается и 2-я задача, которая является, таким образом, частным случаем 1-й.
Однако, представляет самостоятельный интерес и частный случай, в результате которого получается формула Харкевича, удовлетворяющая в равновероятном детерминистском случае принципу соответствия с классической формулой Хартли (1), а не с ее системным обобщением (2) и (3). Ясно, что эта формула получается из (23) при =1.
( 24 )
Из выражений (21) и (22) видно, что в этом частном случае, т.е. когда система эквивалентна множеству (M=1), коэффициент эмерджентности А.Харкевича приобретает вид:
( 25 )
На практике для численных расчетов удобнее пользоваться не выражениями (23) или (24), а формулой (26), которая получается непосредственно из (18) после подстановки в него выражения (25):
( 26 )
Используя выражение (26) и данные таблицы 1 непосредственно прямым счетом получаем матрицу знаний (таблица 4):
Таблица 4 - МАТРИЦА ЗНАНИЙ (ИНФОРМАТИВНОСТЕЙ)
Классы |
Значимость фактора |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
|||||||
... |
||||||||
i |
||||||||
... |
||||||||
M |
||||||||
Степень редукции класса |
Здесь - это среднее количество знаний в i-м значении фактора:
Когда количество информации Iij > 0 - i-й фактор способствует переходу объекта управления в j-е состояние, когда Iij < 0 - препятствует этому переходу, когда же Iij = 0 - никак не влияет на это. В векторе i-го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе объекта управления в каждое из будущих состояний содержится в том факте, что данный фактор действует. В векторе j-го состояния класса (столбец матрицы информативностей) отображается, какое количество информации о переходе объекта управления в соответствующее состояние содержится в каждом из факторов.
Таким образом, матрица знаний (информативностей), приведенная в таблице 6, является обобщенной таблицей решений, в которой входы (факторы) и выходы (будущие состояния объекта управления) связаны друг с другом не с помощью классических (Аристотелевых) импликаций, принимающих только значения: "истина" и "ложь", а различными значениями истинности, выраженными в битах, и принимающими значения от положительного теоретически-максимально-возможного ("максимальная степень истинности"), до теоретически неограниченного отрицательного ("степень ложности"). Это позволяет автоматически формулировать прямые и опосредованные правдоподобные высказывания с расчетной степенью истинности.
Фактически предложенная модель позволяет осуществить синтез обобщенных таблиц решений для различных предметных областей непосредственно на основе эмпирических исходных данных и продуцировать прямые и обратные правдоподобные (нечеткие) логические рассуждения по неклассическим схемам с различными расчетными значениями истинности, являющимися обобщением классических импликаций.
Таким образом, данная модель позволяет рассчитать, какое количество информации содержится в любом факте о наступлении любого события в любой предметной области, причем для этого не требуется повторности этих фактов и событий. Если данные повторности осуществляются и при этом наблюдается некоторая вариабельность значений факторов, обуславливающих наступление тех или иных событий, то модель обеспечивает многопараметрическую типизацию, т.е. синтез обобщенных образов классов или категорий наступающих событий с количественной оценкой степени и знака влияния на их наступление различных значений факторов. Причем эти значения факторов могут быть как количественными, так и качественными и измеряться в любых единицах измерения, в любом случае в модели оценивается количество информации, которое в них содержится о наступлении событий, переходе объекта управления в определенные состояния или, просто, о его принадлежности к тем или иным классам.
Другие способы метризации приведены в работе [45] (таблица 5):
Таблица 5 - ЧАСТНЫЕ КРИТЕРИИ ЗНАНИЙ, ИСПОЛЬЗУЕМЫЕ
В НАСТОЯЩЕЕ ВРЕМЯ В СК-АНАЛИЗЕ И СИСТЕМЕ «ЭЙДОС-Х++»
Наименование модели знаний |
Выражение для частного критерия |
||
через относительные частоты |
через абсолютные частоты |
||
INF1, частный критерий: количество знаний по А.Харкевичу, 1-й вариант расчета относительных частот: - суммарное количество признаков по j-му классу. Относительная частота того, что если у объекта j-го класса обнаружен признак, то это i-й признак |
|||
INF2, частный критерий: количество знаний по А.Харкевичу, 2-й вариант расчета относительных частот: - суммарное количество объектов по j-му классу. Относительная частота того, что если предъявлен объект j-го класса, то у него будет обнаружен i-й признак. |
|||
INF3, частный критерий: Хи-квадрат: разности между фактическими и теоретически ожидаемыми абсолютными частотами |
--- |
||
INF4, частный критерий: ROI - Return On Investment, 1-й вариант расчета относительных частот: - суммарное количество признаков по j-му классу Применение предложено Л.О. Макаревич |
|||
INF5, частный критерий: ROI - Return On Investment, 2-й вариант расчета относительных частот: - суммарное количество объектов по j-му классу |
|||
INF6, частный критерий: разность условной и безусловной относительных частот, 1-й вариант расчета относительных частот: - суммарное количество признаков по j-му классу |
|||
INF7, частный критерий: разность условной и безусловной относительных частот, 2-й вариант расчета относительных частот: - суммарное количество объектов по j-му классу |
Обозначения:
i - значение прошлого параметра;
j - значение будущего параметра;
Nij - количество встреч j-го значения будущего параметра при i-м значении прошлого параметра;
M - суммарное число значений всех прошлых параметров;
W - суммарное число значений всех будущих параметров.
- количество встреч i-м значения прошлого параметра по всей выборке;
- количество встреч j-го значения будущего параметра по всей выборке;
- количество встреч j-го значения будущего параметра при i-м значении прошлого параметра по всей выборке.
Iij - частный критерий знаний: количество знаний в факте наблюдения i-го значения прошлого параметра о том, что объект перейдет в состояние, соответствующее j-му значению будущего параметра;
Ш - нормировочный коэффициент (Е.В.Луценко, 2002), преобразующий количество информации в формуле А.Харкевича в биты и обеспечивающий для нее соблюдение принципа соответствия с формулой Р.Хартли;
- безусловная относительная частота встречи i-го значения прошлого параметра в обучающей выборке;
Pij - условная относительная частота встречи i-го значения прошлого параметра при j-м значении будущего параметра.
Все эти способы метризации с применением 7 частных критериев знаний (таблица 10) реализованы в системно-когнитивном анализе и интеллектуальной системе «Эйдос» и обеспечивают сопоставление градациям всех видов шкал числовых значений, имеющих смысл количества информации в градации о принадлежности объекта к классу. Поэтому является корректным применение интегральных критериев, включающих операции умножения и суммирования, для обработки числовых значений, соответствующих градациям шкал. Это позволяет единообразно и сопоставимо обрабатывать эмпирические данные, полученные с помощью любых типов шкал, применяя при этом все математические операции [45].
...Подобные документы
Разделенные разности и аппроксимация функций методом наименьших квадратов. Интерполяционные многочлены Лагранжа и Ньютона. Экспериментальные данные функциональной зависимости. Система уравнений для полинома. Графики аппроксимирующих многочленов.
реферат [139,0 K], добавлен 26.07.2009Анализ влияния радиуса кривошипа на величину максимальной температуры рабочего тела в цилиндре двигателя. Получение функциональной зависимости между данными величинами методом наименьших квадратов. Проверка работоспособности регрессионной модели.
контрольная работа [57,1 K], добавлен 23.09.2010Изучение нестандартных методов решения задач по математике, имеющих широкое распространение. Анализ метода функциональной, тригонометрической подстановки, методов, основанных на применении численных неравенств. Решение симметрических систем уравнений.
курсовая работа [638,6 K], добавлен 14.02.2010Основные задачи регрессионного анализа в математической статистике. Вычисление дисперсии параметров уравнения регрессии и дисперсии прогнозирования эндогенной переменной. Установление зависимости между переменными. Применение метода наименьших квадратов.
презентация [100,3 K], добавлен 16.12.2014Обобщения - метод научного познания в обучении математике. Методические особенности их использования в изучении теоретического материала. Обобщения при решении задач на уроках математики. Обобщение как эвристический прием решения нестандартных задач.
курсовая работа [3,7 M], добавлен 12.01.2011Эвристика и особенности применения эвристики в математике. Понятие доказательства в математике. Эвристика как метод научного познания. Эвристический подход к построению математических доказательств в рамках логического подхода, при доказательстве теорем.
курсовая работа [177,2 K], добавлен 30.01.2009Экзаменационные задачи по математике: расчет процентной концентрации раствора; решение уравнений и неравенств; задачи по геометрии, планиметрии и стереометрии; определение тригонометрических функций, вероятности события; нахождение экстремумов функции.
задача [493,9 K], добавлен 28.12.2011Вероятностное обоснование метода наименьших квадратов как наилучшей оценки. Прямая и обратная регрессии. Общая линейная модель. Многофакторные модели. Доверительные интервалы для оценок метода наименьших квадратов. Определение минимума невязки.
реферат [383,7 K], добавлен 19.08.2015Усвоение знаний, умений и навыков. Понятие и сущность знаний. Сущность умений и навыков. Проверка и учет знаний, умений и навыков учащихся по математике в начальных классах. Роль и функции проверки. Способы проверки и учета знаний, умений по математике.
курсовая работа [77,5 K], добавлен 09.10.2008Аппроксимация функции y = f(x) линейной функцией y = a1 + a2x. Логарифмирование заданных значений. Расчет коэффициентов корреляции и детерминированности. Построение графика зависимости и линии тренда. Числовые характеристики коэффициентов уравнения.
курсовая работа [954,7 K], добавлен 10.01.2015Описание методов решения системы линейного алгебраического уравнения: обратной матрицы, Якоби, Гаусса-Зейделя. Постановка и решение задачи интерполяции. Подбор полиномиальной зависимости методом наименьших квадратов. Особенности метода релаксации.
лабораторная работа [4,9 M], добавлен 06.12.2011Исследование точности прогнозирования случайного процесса с использованием метода наименьших квадратов. Анализ расхождения между трендом и прогнозом, последующая оценка близости распределения расхождений наблюдений и распределения сгенерированного шума.
курсовая работа [1,0 M], добавлен 29.01.2010Изучение аппроксимации таблично заданной функции методом наименьших квадратов при помощи вычислительной системы Mathcad. Исходные данные и функция, вычисляющая матрицу коэффициентов систему уравнений. Выполнение вычислений для разных порядков полинома.
лабораторная работа [166,4 K], добавлен 13.04.2016Аппроксимация и теория приближений, применение метода наименьших квадратов для оценки характера приближения. Квадратичное приближение таблично заданной функции по дискретной норме Гаусса. Интегральное приближение функции, которая задана аналитически.
реферат [82,0 K], добавлен 05.09.2010Оценка неизвестных величин по результатам измерений, содержащим случайные ошибки, при помощи метода наименьших квадратов. Аппроксимация многочленами, обзор существующих методов аппроксимации. Математическая постановка задачи аппроксимации функции.
курсовая работа [1,9 M], добавлен 12.02.2013Постановка задачи аппроксимации методом наименьших квадратов, выбор аппроксимирующей функции. Общая методика решения данной задачи. Рекомендации по выбору формы записи систем линейных алгебраических уравнений. Решение систем методом обратной матрицы.
курсовая работа [77,1 K], добавлен 02.06.2011Области применения латинских квадратов. Использование систем попарно ортогональных латинских квадратов при построении сеточных методов интегрирования в математике. Хроматические многочлены, подсчет решений судоку. Различные симметрии квадратов судоку.
реферат [147,3 K], добавлен 07.09.2009Отношения зависимости. Произвольные пространства зависимости. Транзитивные и конечномерные пространства зависимости. Существование базиса в транзитивном пространстве зависимости. Связь транзитивных отношений зависимости с операторами замыкания. Матроиды.
дипломная работа [263,2 K], добавлен 27.05.2008Исследование вопросов построения эмпирических формул методом наименьших квадратов средствами пакета Microsoft Excel и решение данной задачи в MathCAD. Сравнительная характеристика используемых средств, оценка их эффективности и перспективы применения.
курсовая работа [471,3 K], добавлен 07.03.2015Аппроксимация функций методом наименьших квадратов. Описание программного средства: спецификация переменных, процедур и функций, схемы алгоритмов. Реализация расчетов в системе Mathcad. Порядок составления графика в данной среде программирования.
курсовая работа [808,9 K], добавлен 09.05.2011