Введение в экспертные системы

Сущность экспертных систем как самостоятельного направления в искусственном интеллекте. Основные правила их проектирования. Средства разработки экспертных систем. Понятие сигмоидального нейрона и звезд Гроссберга. Структура многослойного персептрона.

Рубрика Программирование, компьютеры и кибернетика
Вид курс лекций
Язык русский
Дата добавления 21.05.2013
Размер файла 1,4 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

После уточнения параметров нечеткой системы функция, аппроксимирующая входные данные системы, определяется в виде:

, (8.46)

тогда как остальные кластеры не изменяются, т.е. при , и , для .

При повторении перечисленных этапов алгоритма до t=р с уточнением каждый раз значения М, пространство данных разделяется на М кластеров, при этом мощность каждого из них определяется как Li=Li(t), центр - как сi=сi (t), а значение приписанной ему накопленной функции d -как wi = wi(t).

Этот алгоритм называется самоорганизующимся, поскольку разделение пространства данных на кластеры происходит самостоятельно и без участия человека, в соответствии с заданным значением порога r. При малом значении r количество кластеров возрастает, в результате чего аппроксимация данных становится более точной, однако это достигается за счет более сложной функции и увеличения объема необходимых вычислений при одновременном ухудшении обобщающих свойств сети. Если значение r слишком велико, то вычислительная сложность уменьшается, однако возрастает погрешность аппроксимации. При подборе оптимальной величины порога r должен соблюдаться компромисс между точностью отображения и вычислительной сложностью. Как правило, оптимальное значение r подбирается методом проб и ошибок с использованием вычислительных экспериментов.

Следует обратить внимание, что алгоритм самоорганизации нечёткой сети позволяет одновременно определять как параметры сети, так и ее структуру (количество нейронов скрытого слоя). Его реализация подобна модели Ванга- Менделя, описываемой формулой (8.42), в которой можно выделить центры сi, соответствующие множеству векторов х, и коэффициенты wi, связанные с положением центров через последовательность заданных функций {d}. В связи с накопительным характером формирования параметров wi (формула (8.43)), в знаменателе выражения (8.46) суммирование производится с весами Li, отражающими количество уточнений параметров конкретных групп данных (размерность кластера).

8.13 Нечёткая сеть TSK

Структура нечёткой сети TSK основана на системе нечёткого вывода Такаги- Сугэно- Канга. При этом в качестве функции фуззификации для каждой переменной используется обобщённая функция Гаусса:

(8.47)

Для агрегации условия -го правила в системе вывода TSK используется операция алгебраического произведения:

. (8.48)

При правилах вывода агрегирование выходного результата сети производится по формуле (8.37), которую можно представить в виде:

, (8.49)

где

Присутствующие в этом выражении веса интерпретируются как значимость компонентов , определённых формулой (8.48). При этом формуле (8.49) можно сопоставить многослойную структуру сети, изображённую на рисунке 8.3. В такой сети выделяется пять слоёв:

Первый слой выполняет раздельную фуззификацию каждой переменной , определяя для каждого -го правили вывода значение коэффициента принадлежности в соответствии с применяемой функцией фуззификации. Это парметрический слой с параметрами , подлежащими адаптации в процессе обучения.

Второй слой выполняет агрегирование отдельных переменных , определяя результирующее значение коэффициента принадлежности для вектора в соответствии с формулой (8.48). Этот слой непараметрический.

Размещено на http://www.allbest.ru/

Рисунок 8.3 Структура нечёткой нейронной сети TSK

Третий слой представляет собой генератор функции TSK, рассчитывающий значения . В этом слое также происходит умножение сигналов на значения , сформированные в предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса для и , определяющие функцию следствия модели TSK.

Четвёртый слой составляют два нейрона- сумматора, один из которых рассчитывает взвешенную сумму сигналов , а второй определяет сумму весов . Это непараметрический слой.

Пятый слой состоит из одного выходного нейрона- это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой (8.49). Выходной сигнал определяется выражением, соответствующим зависимости (8.37),

. (8.50)

Это также непараметрический слой.

При уточнении функциональной зависимости (8.49) для сети TSK получаем:

. (8.51)

Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция является линейной относительно переменных .

При наличии входных переменных каждое правило формирует переменных линейной зависимости TSK. При правилах вывода это даёт линейных параметров сети. В свою очередь каждая функция принадлежности использует три параметра, подлежащих адаптации. Так как каждая переменная характеризуется собственной функцией принадлежности, то мы получим нелинейных параметров. В сумме это даёт линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети.

8.14 Гибридный алгоритм обучения нечеткой сети TSK

Гибридный алгоритм обучения может применяться как для сетей Ванга-Менделя, так и для сетей TSK. Сеть Ванга- Менделя может при этом трактоваться как сеть TSK, у которой все параметры , кроме , равны нулю.

В гибридном алгоритме подлежащие адаптации параметры разделяются на две группы: линейных параметров третьего слоя и параметров нелинейной функции принадлежности первого слоя. Уточнение параметров проводится в два этапа:

На первом этапе при фиксации определенных значений параметров функции принадлежности путем решения системы линейных уравнений рассчитываются линейные параметры (в первом цикле - это значения, полученные в результате инициализации). При известных значениях функции принадлежности зависимость (8.51) можно представить в линейной форме [3]

, (8.52)

(8.53)

для i=1, 2, ..., М. При р обучающих выборках (х(t), d(t)) (t= 1, 2, ..., р) и замене выходного сигнала сети ожидаемым значением d(t) получим систему из р линейных уравнений вида

, (8.54)

где обозначает уровень активации (вес) условия i-го правила при предъявлении t-го входного вектора x. Это выражение можно записать в сокращенной матричной форме

, (8.55)

Размерность матрицы А равна , при этом колическтво строк значительно больше количества столбцов .

При помощи псевдоинверсии матрицы А решение можно получить за один шаг:

, (8.56)

где псевдоинверсия матрицы А. Псевдоинверсия матрицы А заключается в проведении декомпозиции SVD с последующим сокращением её размерности.

На втором этапе после фиксации значений линейных параметров рассчитываются фактические выходные сигналы y(t) сети для t=1,2, ..., р, для чего используется линейная зависимость и следом за ними - вектор ошибки е=y-d.

, (8.57)

Сигналы ошибок направляются через подключенную сеть по направлению ко входу сети (обратное распространение) вплоть до первого слоя, где могут быть рассчитаны компоненты градиента целевой функции относительно конкретных параметров .

После формирования вектора градиента параметры уточняются с использованием одного из градиентных методов обучения, например, метода наискорейшего спуска.

(8.58)

(8.59)

(8.60)

После уточнения нелинейных параметров вновь запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл повторяется вплоть до стабилизации всех параметров процесса. Формулы (8.58) - (8.60) требуют расчёта градиента целевой функции принадлежности и для одной пары обучающих данных (x,d) принимают значения:

(8.61)

(8.62)

(8.63)

(8.64)

(8.65)

, (8.66)

для k=1,2,..,M, где обозначает дельту Кронекера,

, .

При практической реализации гибридного метода обучения нечетких сетей доминирующим фактором их адаптации считается первый этап, на котором веса подбираются с использованием псевдоинверсии за один шаг. Для уравновешивания его влияния второй этап (подбор нелинейных параметров градиентным методом) многократно повторяется в каждом цикле.

8.15 Алгоритм нечёткой самоорганизации C-means

Алгоритм самоорганизации приписывает вектор x к соответствующей группе данных, представляемых центром , с использованием обучения конкурентного типа подобно сетям Кохонена. При обучении этого типа процесс самоорганизации становится возможным при предъявлении вектора х.

Допустим, что в сети существует нечётких нейронов с центрами в точках . Начальные значения этих центров могут быть выбраны случайным образом из областей допустимых значений соответствующих компонентов векторов , использованных для обучения. Пусть функция фуззификации задана в форме обобщенной функции Гаусса, выраженной формулой (8.47).

Подаваемый на вход сети вектор будет принадлежать к различным группам, представляемым центрами , в степени , причем , а суммарная степень принадлежности ко всем группам, очевидно, равна единице. Поэтому

(8.67)

для . Функцию погрешности, соответствующую такому представлению, можно определить как сумму частных погрешностей принадлежности к центрам с учетом степени принадлежности Следовательно

, (8.68)

где m -- это весовой коэффициент, который принимает значения из интервала [1, ?). Цель обучения с самоорганизацией состоит в таком подборе центров , чтобы для заданного множества обучающих векторов обеспечить достижение минимума функции (8.68) при одновременном соблюдении условий ограничения (8.67). Таким образом возникает задача минимизации нелинейной функции (8.68) с р ограничениями типа (8.67). Решение этой задачи можно свести к минимизации функции Лагранжа, определенной в виде [3].

, (8.69)

где - это множители Лагранжа. Доказано, что решение задачи (8.69) можно представить в виде

, (8.70)

, (8.71)

где - это эвклидово расстояние между центром и вектором , . Поскольку точные значения центров в начале процесса не известны, алгоритм обучения должен быть итерационным:

1. Выполнить случайную инициализацию коэффициентов , выбирая их значения из интервала [0,1] таким образом, чтобы соблюдать условие (8.67).

2. Определить t центров в соответствии с (8.70).

3. Рассчитать значение функции погрешности в соответствии с (8.70). Если её значение ниже установленного порога, либо если уменьшение этой погрешности относительно предыдущей итерации пренебрежимо мало, то закончить вычисления. Иначе, перейти к п.4.

4. Рассчитать новые значения по формуле (8.71) и перейти к п.2.

Многократное повторение итерационной процедуры ведёт к достижению минимума функции E, который необязательно будет глобальным. Значение функции Е существенно зависит от начальной инициализации значений и центров . Поэтому, предварительно следует использовать алгоритмы инициализации, наиболее известными среди которых являются алгоритмы пикового и разностного группирования.

8.16 Алгоритм разностного группирования

Алгоритм разностного группирования данных является модификацией алгоритма пикового группирования, предложенного З.Егером и Д.Филёвым. В качестве меры плотности размещения векторов используются так называемые пиковые функции. В алгоритме разностного группирования в качестве потенциальных центров пиковых функций используются обучающие векторы . Пиковая функция задаётся в виде:

. (8.72)

Значение коэффициента определяет сферу соседства векторов. При большой плотности векторов вокруг точки , значение функции велико, следовательно, точка является «удачным» кандидатом в центры. После расчёта значений пиковой функции для всех точек , отбирается та, для которой значение функции оказалось максимальным. Именно эта точка становится первым отобранным центром . Выбор следующего центра возможен после исключения предыдущего и всех точек, лежащих в его окрестности. Для этого пиковая функция переопределяется в виде:

. (8.73)

Обычно при выборе новой константы соблюдается условие . Пиковая функция принимает нулевое значение при и близка к нулю в ближайшей окрестности этой точки.

После модификации пиковой функции отыскивается следующая точка , для которой величина оказывается максимальной. Эта точка становится следующим центром . Процесс поиска очередного центра продолжается после исключения всех предыдущих центров и их окрестностей. Процесс инициализации центров завершается в момент фиксации всех центров, предусмотренных начальными условиями.

Если существует множество обучающих данных в виде пар векторов так, как это происходит при обучении с учителем, то для нахождения центров, соответствующих множеству векторов , достаточно сформировать расширенную версию векторов в виде . При этом определяют расширенные версии центров размерностью, равной сумме размерностей векторов и . Тогда в описании центров можно выделить часть , соответствующую векторам (первые N компонентов) и остаток , соответствующий вектору . Таким образом можно получить центры как входных переменных, так и ожидаемых выходных значений . В случае применения нечётких правил с одним выходом векторы и сводятся к скалялярным величинам.

Независимо от способа реализации алгоритма обучения сеть с нечёткой самоорганизацией выполняет нечёткое группирование данных путём приписывания их к различным центрам на основании коэффициентов принадлежности, значения которых изменяются от нуля до единицы. Это означает, что каждый вектор x представляется множеством центров, причём влияние каждого из них на значение вектора различно и зависит от величины коэффициента принадлежности. Если считать, что вектор представляется M центрами , а принадлежность вектора к каждому центру задана коэффициентом (формула 8.67), то реконструкция исходного вектора происходит согласно выражению:

. (8.74)

В этом состоит существенное различие нечёткой самоорганизации от классической самоорганизации Кохонена, при которой реконструкция вектора выполняется на базе одного центра, ближайшего к данному вектору, путём простого приписывания ему значения этого центра.

8.17 Гибридный нечёткий многослойный персептрон

В случае линейной неразделимости классов, то есть когда классы пересекаются, а обучающие примеры приводят к неустойчивому поведению алгоритма обучения персептрона, имеет смысл использовать гибридную сеть, включающую в себя слой с нечёткой самоорганизацией и многослойный персептрон.

Основная идея построения нечеткого персептрона и алгоритма его обучения заключается в уменьшении влияния векторов, лежащих в зоне перекрытия классов, на изменение весовых коэффициентов [3].

На рисунке 8.4 приведена структура нечеткого многослойного персептрона. Он состоит из двух частей: нейронов «нечеткого слоя» и собственно многослойного персептрона. Функции активации нейронов «нечеткого слоя» такой сети являются радиальными базисными функциями (в виде функции Гаусса), моделирующими функции принадлежности. Эти нейроны предназначены для определения степеней принадлежности компонентов входных векторов (которые могут быть и нечеткими). На выходах нейронов этого слоя формируются коэффициенты в требуемой для дальнейшего распознавания форме. Выходы нейронов «нечеткого слоя» употребляются в качестве входов традиционного многослойного персептрона.

Если на вход сети подается , то на выходе «нечеткого слоя» формируется вектор, состоящий из степеней принадлежности x к конкретным центрам (радиально базисным функциям); . Конкретные компоненты рассчитываются таким образом, чтобы удовлетворять условию нормализации для каждого вектора , где p - число векторов в обучающей выборке.

Размещено на http://www.allbest.ru/

Рисунок 8.4 Структура нечеткого многослойного персептрона

Выходы нечёткого многослойного персептрона трактуются как степени принадлежности предъявленного объекта соответствующему классу.

С учётом ярко выраженной двухкомпонентной структуры гибридной сети для её обучения применяется алгоритм, состоящий из двух этапов. На первом из них проводится обучение самоорганизующегося слоя, состоящее в подборе центров. Для этого может быть использован алгоритм C-means или другие подобные алгоритмы. По завершении первого этапа, начинается второй этап обучения, на котором уточняются только веса персептронной компоненты. Это обычное обучение многослойного персептрона, для которого входом является множество коэффициентов принадлежности вектора x к центрам самоорганизующегося слоя. В зависимости от типа решаемой задачи выходом сети может быть код класса, к которому принадлежит входной вектор x, либо ожидаемое значение d выходного вектора.

Рассмотрим пример разделения объектов на два класса. Пусть имеется обучающая выборка, состоящая из множества примеров вида:

, (8.75)

где - значения вектора переменных в t-м примере; - соответствующие функции принадлежности, определяемые как меры нечеткого разбиения пространства выходов на классы (в данном случае на два класса) по отношению к этим векторам и показывающие степени принадлежности каждого из векторов к каждому из классов: p - общее число примеров в обучающей выборке. При этом должны выполняться следующие соотношения:

, (8.76)

причем для t-го входного вектора, принадлежность ко второму классу которого является менее определенной, соответствующая функция принадлежности находится в диапазоне от 0 до 0,5 (рисунок 8.5).

Степень влияния входного вектора на модификацию весовых коэффициентов персептрона в процессе обучения можно определить как разность , где g - константа, которая в случае неопределенности отнесения к одному из двух классов вектора близка к нулю. Учитывая это, можно модифицировать формулу, определяющую коррекцию весовых коэффициентов в алгоритме обратного распространения ошибки для классического персептрона, следующим образом:

(8.77)

где - значения желаемого и полученного в предыдущем такте обучения выходных сигналов при входном векторе; - текущий такт обучения нечеткого персептрона; - весовой коэффициент j-го входа персептронного нейрона; - коэффициент обучения.

Из выражения (8.76) следует, что влияние неопределенных векторов на модификацию весовых коэффициентов можно уменьшить за счет изменения константы g. Подобно классическому персептрону, в нечетком персептроне можно найти разделяющую поверхность за конечное число итераций. При этом, если выполняется соотношение то нечеткий персептрон становится четким, то есть значения функций принадлежности также будут четкими.

На ранних итерациях обучения для входных векторов, значения функций принадлежности которых близки к 0.5, можно установить значение g>1 и на последующих итерациях постепенно его уменьшать.

Для разработки алгоритма обучения нечеткого персептрона необходимо, во-первых, найти способ определения степеней принадлежности входных векторов к различным классам, во-вторых, определить критерий остановки процесса обучения.

Для определения степеней принадлежности входных векторов к различным классам в соответствии с рассмотренным выше примером можно использовать следующие выражения:

(8.78)

где f - константа, подбираемая опытным путем (f>0);

- расстояние от вектора до центра класса 2;

- расстояние от вектора до центра класса 1 в соответствии с выбранной метрикой (например, евклидовой);

- расстояние между центрами классов 1 и 2.

При выборе критерия остановки процесса обучения нечеткого персептрона, необходимо учесть правило, в соответствии с которым входной вектор не может быть однозначно отнесен к определенному классу, если значение его функции принадлежности близко к 0.5.

Поэтому для остановки процедуры обучения дополнительно выбирается показатель , заданное значение которого показывает близость функции принадлежности к значению 0.5.

А именно:

или для (8.79)

Алгоритм обучения нечеткого персептрона состоит из следующих этапов.

Производится начальная инициализация весовых коэффициентов. Выбираются допустимые значения ошибки обучения, и .

Производится вычисление степеней функций принадлежности для всех входных векторов обучающей выборки в каждом классе в соответствии с выражениями (8.78).

Подаются входные векторы

,

и вычисляются текущие значения выхода:

.

Сравниваются текущие и желаемые значения выхода.

Модифицируются весовые коэффициенты в соответствии с выражением (8.77), если . Производится просмотр всех примеров из обучающей выборки, проверка критерия ошибки обучения и условия (8.79). Если эти условия не выполняются хотя бы для одного вектора, то переход к этапу 3. Следует отметить, что в процессе итерационного обучения постепенно уменьшают значения и .

8.17 Гибридные нейронные нечёткие сети

Под гибридной нейронной нечёткой сетью будем понимать нейронную сеть, сформированную на основе нечётких нейронов с нечёткими входами и выходами и, или нечёткими весами, а также с чёткой функцией активации. В иаких нечётких нейронах в отличие от обычнойнейронной нечёткой сети [6]:

входные сигналы и веса можно комбинировать с использованием T-нормы, S- нормы или некоторого другого непрерывного оператора;

результаты комбинаций всех входов и их весов могут агрегироваться с использованием T-нормы, S- нормы или некоторой другой непрерывной функции;

функция активации f может быть любой другой (не только сигмоидальной функцией).

Входы, выходы и веса гибридной нечёткой нейронной сети (обычно представляющие собой степени принадлежности к нечётким множествам) являются вещественные числа из интервала [0,1].

Основными разновидностями нечётких нейронов, реализующих нечёткие операции и используемых для созданя гибридных нейронных нечётких сетей являются:

нечёткий нейрон «И»;

нечёткий нейрон «ИЛИ»;

нечёткий нейрон «Импликация - ИЛИ»;

нечёткие нейроны для реализации композиционных правил вывода.

В качестве примера на рисунке 8.6 приведена структура нечёткого нейрона «И». Сигналы и веса комбинируются с использованием S- нормы:

, (8.80)

а выходное значение агрегируется с помощью операции T-нормы:

. (8.81)

Если T- min, S - max, то нечёткий нейрон «И» реализует min-max - композицию:

. (8.82)

Размещено на http://www.allbest.ru/

В качестве примеров построения и использования гибридных нечётких нейронных сетей на основе нейронов, реализующих нечёткие операции, можно привести следующие сети:

гибридные нейронечёткие классификаторы;

гибридные нейронные нечёткие сети для реализации деревьев классификации;

гибридные нейронные нечёткие сети для реализации композиционных правил вывода;

гибридные нейронные нечёткие сети для нечёткого логического вывода;

гибридные нейронные нечёткие сети для извлечения нечётких продукционных правил из числовых данных.

8.18 Гибридный нейронечёткий классификатор

В качестве примера рассмотрим гибридный нейронечёткий классификатор.

Традиционный подход к классификации образов основан на предварительной кластеризации обучающих примеров и отнесении их к заданным классам. Сложность и ограничения при осуществлении этого предварительного этапа в большой степени обусловлены недостаточной эффективностью определения границ между кластерами. Эта проблема становится ещё более трудноращрешимой, когда число используемых параметров существенно возрастает.

В отличие от традиционного подхода нечёткая классификация допускает непрерывность границы между двумя соседними классами с наложением областей, в каждой из которых классифицируемый объект характеризуется своей степенью принадлежности. Данный подход не только подходит для многих приложений, характеризующихся нечёткими границами между классами, но также обеспечивает достаточно простое представление потенциально сложного разделения пространства признаков [6].

Для гибридного нейронечёткого классификатора типичные нечеткие правила классификации при заданных К образах в виде n-мерных четких векторов , относящихся к m классам, имеют следующий вид:

ЕСЛИ есть И есть И … И есть , ТО принадлежит к классу , . (8.83)

- лингвистические термы, характеризующие соответствующие функции принадлежности компонентов входного вектора нечётким множествам.

Уровень активизации i-го правила обозначаемый как , и интерпретируемый как степень принадлежности t-го образа к классу , обычно определяется следующим образом:

,

где Т- оператор Т-нормы, моделирующий логический оператор «И», то есть

. (8.84)

В результате предъявления образа осуществляется параллельное сравнение его компонентов с условиями всех m правил с получением уровней активизации , затем уровни активизации всех правил агрегируются на основе заданной операции. В качестве такой операции часто тспользуют оператор Т-нормы. Задача нечеткой классификации заключается в выполнении соответствующего нечеткого разделения признакового пространства. На рисунке 8.7 представлена структура гибридного нейронечеткого классификатора. Нейронечёткая сеть состоит из четырёх слоёв.

Размещено на http://www.allbest.ru/

Рисунок 8.7 Структура гибридного нейронечеткого классификатора

1. Элементы первого слоя реализуют операцию фуззификации, то есть формируют степени принадлежности входных переменных к определенным для них нечетким множествам :

, (8.85)

где - параметры функции принадлежности колоколообразного типа.

Начальные значения этих параметров установлены таким образом, чтобы функции принадлежности удовлетворяли свойствам полноты, нормальности и выпуклости. Значения должны быть равномерно распределены в области входных векторов . Значения данных параметров корректируется в процессе обучения сети, основанном на градиентном методе.

2. Каждый элемент второго слоя является нейроном «И», выходной сигнал которого, представляет «силу» срабатывания нечёткого правила относительно классифицируемого объекта. Они выполняют агрегирование степеней истинности предпосылок каждого правила базы в соответствии с операцией Т-нормы по формулам:

;

; (8.86)

.

3. Элементы третьего слоя выполняют нормализацию и вычисляют следующие значения. Они выполняют агрегирование степеней истинности предпосылок правил базы в соответствии с операцией S-нормы по формулам:

;

; (8.87)

.

4. Элементы четвертого слоя вычисляют значения заключений по каждому правилу с использованием функций активации сигмоидного типа. Эти выходы трактуются как степени принадлежности предъявленного объекта к соответствующему классу:

;

; (8.88)

,

где - нелинейные параметры функций принадлежности нечетких множеств заключений правил вида:

(8.89)

8.19 Алгортм обучения гибридного нейронечёткого классификатора

Для обучения нейронечёткого классификатора можно использовать алгоритмы наискорейшего спуска и алгортм обратного распространения ошибки.

Пусть задана обучающая выборка, состоящая из множества примеров

где , значения входных переменных, - эталонные значения выходных переменных в t-ом примере.

Настраиваемыми параметрами для данной сети являются параметры функции принадлежности входных переменных нечётким множествам и параметры функций принадлежности нечетких множеств заключений (i=1,2,..,m; j=1,2,…,n).

Шаг 1. Для каждого примера из обучающей выборки по значениям входных переменных (t=1,2,…,K) нечёткая сеть рассчитывает значения выходных переменных .

Шаг 2. Вычисляется функция ошибки для всех приамеро обучающей выборки:

. (8.90)

В данном случае функция ошибки может быть представлена как функция, зависящая от следующих аргументов:

(8.91)

Шаг 3. Корректируются значения и по каждому примеру обучающей выборки по следующим формулам:

,

, (8.92)

,

,

где t - номер итерации обучения, - коэффициент обучения.

Шаги 1-3 повторяются довыполнения условий завершения:

либо значение функции ошибки по каждому примеру обучающей выборки не превышает некоторого установленного порога:

; (8.93)

либо оценка средней суммарной погрешности по всем примерам обучения не превышает некоторого установленного порога:

(8.94)

Список используемых источников

1. Андрейчиков А.В., Андрейчикова О.Н. Интеллектуальные информационные системы: Учебник. - М.: Финансы и статистика, 2006. - 424 с.: ил. ISBN 5-279-02568-2.

2. Хайкин С. Нейронные сети: Полный курс: Пер. с англ. - 2-е изд. - М.: Вильямс, 2006. - 1104 с.: ил.

3. Оссовский С. Нейронные сети для обработки информации / Пер. с пол. И.Д. Рудинского. - М.: Финансы и статистика, 2002. - 344 с.: ил.

4. Уоссерман Ф. Нейрокомпьютерная техника: теория и практика / Пер. с англ. Ю.А. Зуев. - М.: Мир, 1992.

5. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечёткие системы: Пер. с польск. И.Д.Рудинского, - М.: Горячая линия - Телеком, 2007. - 452 с.: ил.

6. Борисов В.В., Круглов В.В., Федулов А.С. Нечёткие модели и сети. - М.: Горячая линия - Телеком, 2007. -284 с.: ил.

Размещено на Allbest.ru

...

Подобные документы

  • Сущность, виды, направления использования и основные понятия экспертных систем. Понятие и характеристика основных элементов структуры экспертной системы. Основные виды классификаций экспертных систем: по решаемой задаче и по связи с реальным временем.

    доклад [104,5 K], добавлен 09.06.2010

  • Определение экспертных систем, их достоинство и назначение. Классификация экспертных систем и их отличие от традиционных программ. Структура, этапы разработки и области применения. Классификация инструментальных средств и технология разработки систем.

    курсовая работа [78,0 K], добавлен 03.06.2009

  • Понятия, классификация и структура экспертных систем. Базы знаний и модели представления знаний. Механизмы логического вывода. Инструментальные средства проектирования и разработки экспертных систем. Предметная область ЭС "Выбор мобильного телефона".

    курсовая работа [2,2 M], добавлен 05.11.2014

  • Сущность экспертных систем и их научно-познавательная деятельность. Структура, функции и классификация ЭС. Механизм вывода и система объяснений. Интегрированные информационные системы управления предприятием. Применение экспертных систем в логистике.

    курсовая работа [317,3 K], добавлен 13.10.2013

  • Изучение характеристик, классификации, функций и основных элементов экспертных систем. Исследование их структуры и отличительных особенностей от другого программного обеспечения. Описания методов проектирования и области применения экспертных систем.

    реферат [38,1 K], добавлен 18.09.2013

  • Механизм автоматического рассуждения. Основные требования к экспертным системам. Наделение системы способностями эксперта. Типовая структура и классификация интерфейсов пользователей экспертных систем. Основные термины в области разработки систем.

    презентация [252,6 K], добавлен 14.08.2013

  • Понятие и содержание экспертных систем, принципы взаимосвязи элементов: интерфейса пользователя, собственно пользователя, эксперта, средств объяснения, рабочей памяти и машины логического вывода. Классификация, преимущества, недостатки экспертных систем.

    реферат [33,9 K], добавлен 25.02.2013

  • Структура экспертных систем, их классификация и характеристики. Выбор среды разработки программирования. Этапы создания экспертных систем. Алгоритм формирования базы знаний с прямой цепочкой рассуждений. Особенности интерфейса модулей "Expert" и "Klient".

    курсовая работа [1,1 M], добавлен 18.08.2009

  • Этапы разработки экспертных систем. Требования к организации-разработчику. Правильный выбор подходящей проблемы, работа с экспертом. Разработка прототипной системы. Развитие прототипа до промышленной экспертной системы. Особенности оценки системы.

    презентация [169,1 K], добавлен 14.08.2013

  • Понятие и особенности экспертных систем, способных накапливать, обрабатывать знания из некоторой предметной области, на их основе выводить новые знания и решать на основе этих знаний практические задачи. История и устройство юридических экспертных систем.

    реферат [58,4 K], добавлен 17.03.2015

  • Экспертная система - компьютерная программа, способная частично заменить специалиста-эксперта в разрешении проблемной ситуации. Структура, режимы функционирования, классификация экспертных систем, этапы разработки. Базы знаний интеллектуальных систем.

    реферат [32,2 K], добавлен 04.10.2009

  • Основные этапы при создании экспертных систем: идентификация, концептуализация, формализация, выполнение, отладка и тестирование, опытная эксплуатация и внедрение. Соответствия между этапами проекта RAD и стадиями технологии быстрого прототипирования.

    лекция [38,8 K], добавлен 07.11.2013

  • Назначение и архитектура экспертных систем, их применение в сфере образования. Экспертные системы тестирования, принципы их функционирования. Инструментальные средства создания приложения и разработка программы тестирования. Описание программы, листинг.

    дипломная работа [706,4 K], добавлен 07.05.2012

  • Экспертные системы как самостоятельное направление в исследованиях по искусственному интеллекту, история его зарождения и развития, главные цели и оценка важности. Сферы применения экспертных систем и причины их коммерческого успеха, перспективы.

    реферат [140,8 K], добавлен 27.03.2010

  • Преимущества и недостатки моделей представления знаний. Модель, основанная на правилах, фреймовая модель. Семантическая сеть. Структура экспертных систем и этапы их разработки. Механизмы логического вывода. Стратегия "вверх-снизу", "от цели к ситуации").

    презентация [195,3 K], добавлен 29.10.2013

  • Участники и инструментальные средства создания экспертной системы. Классификация, преимущества, сферы применения экспертных систем. Разработка блок-схемы алгоритма и программы на языке Турбо Паскаль для решения задачи по теме "Двумерные массивы".

    курсовая работа [1,0 M], добавлен 18.01.2014

  • Основные составляющие информационной технологии. Классические принципы построения архитектуры ЭВМ. Принцип последовательного выполнения операций. Перспективы применения экспертных систем в землеустроительных системах автоматизированного проектирования.

    контрольная работа [13,8 K], добавлен 13.11.2012

  • История развития искусственного интеллекта. Экспертные системы: их типы, назначение и особенности, знания и их представление. Структура идеальной и инструменты построения экспертных систем. Управление системой продукции. Семантические сети и фреймы.

    реферат [85,7 K], добавлен 20.12.2011

  • Решение неформализованных задач экспертными системами. Системы искусственного интеллекта, эвристический поиск решения. Особенности работы экспертных систем. Знания о процессе решения задач, используемые интерпретатором. Системы обнаружения неисправности.

    презентация [100,1 K], добавлен 12.02.2014

  • Решение прикладных задач с использованием искусственного интеллекта. Преимущества и недостатки экспертных систем по сравнению с использованием специалистов, области их применения. Представление знаний и моделирование отношений семантическими сетями.

    реферат [260,9 K], добавлен 25.06.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.