Інформаційні технології синтезу робастних нейронечітких моделей стохастичних процесів

Розробці нових нейронечітких інформаційних технологій синтезу нечітких баз знань пониженої складності для прогнозування стохастичних процесів. Впровадження індуктивного методу побудови збалансованих робастних нейронечітких моделей у формі Бернштейна.

Рубрика Программирование, компьютеры и кибернетика
Вид автореферат
Язык украинский
Дата добавления 29.08.2015
Размер файла 55,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Національний технічний університет України

Київський політехнічний інститут

УДК 004. 855:681. 518

05. 13. 06. - Інформаційні технології

АВТОРЕФЕРАТ

дисертації на здобуття наукового ступеня

кандидата технічних наук

ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ СИНТЕЗУ РОБАСТНИХ НЕЙРОНЕЧІТКИХ МОДЕЛЕЙ СТОХАСТИЧНИХ ПРОЦЕСІВ

Митник Олег Юрійович

Київ - 2008

Дисертацією є рукопис.

Робота виконана в навчально-науковому комплексі "Інститут прикладного системного аналізу" Національного технічного університету України "Київський політехнічний інститут".

Науковий керівник: доктор технічних наук, професор Бідюк Петро Іванович, Навчально-науковий комплекс "Інститут прикладного системного аналізу" Національного технічного університету України "Київський політехнічний інститут", провідний науковий співробітник відділу математичних методів системного аналізу.

Офіційні опоненти:

- доктор фізико-математичних наук, професор Крак Юрій Васильович, Київський національний університет імені Тараса Шевченка, професор кафедри моделювання складних систем;

- доктор технічних наук, професор Томашевський Валентин Миколайович, Національний технічний університет України "Київський політехнічний інститут", професор кафедри автоматизованих систем обробки інформації та управління.

Захист відбудеться 21 жовтня 2008 р. о 15 годині на засіданні спеціалізованої вченої ради Д 26. 002. 03 в Національному технічному університеті України "Київський політехнічний інститут" за адресою: 03056, Київ, просп. Перемоги 37, корп. 35, ауд. 006.

З дисертацією можна ознайомитись у бібліотеці Національного технічного університету України "КПІ".

Автореферат розісланий 19 вересня 2008р.

Вчений секретар спеціалізованої вченої ради д. т. н., професор Новіков О.М.

Анотації

Митник О.Ю. Інформаційні технології синтезу робастних нейронечітких моделей стохастичних процесів. - Рукопис.

Дисертація на здобуття наукового ступеня кандидата технічних наук за спеціальністю 05. 13. 06 - Інформаційні технології. - Національний технічний університет України "Київський політехнічний інститут", Київ, 2008.

Робота присвячена розробці нових нейронечітких інформаційних технологій синтезу нечітких баз знань пониженої складності для прогнозування стохастичних процесів. Введені збалансовані нейронечіткі моделі у формі Бернштейна, які генерують систему спрощених нечітких правил квадратичної складності. Досліджені методи навчання моделей стохастичних процесів як некоректної оберненої задачі відновлення стохастичних залежностей за даними спостережень. Розроблено індуктивний метод побудови збалансованих робастних нейронечітких моделей у формі Бернштейна на основі байєсівської регресії опорних векторів в характеристичному просторі поліноміальних функцій Без'є-Бернштейна (ПРІАМ). Розроблена архітектура та створено прототип інформаційної онлайн системи обробки статистичних даних, яка реалізує запропонований метод. Проведено порівняльний аналіз ПРІАМ з нечітким методом групового врахування аргументів та рекурентними нейронними мережами на реальних та штучних еталонних моделях, на економічних, метеорологічних, екологічних моделях. Результати експериментів доводять ефективність розробленого методу.

Ключові слова: стохастичні процеси, байєсівське навчання, робастні нейронечіткі моделі, регресія опорних векторів.

Мытник О.Ю. Информационные технологии синтеза робастных нейронечётких моделей стохастических процессов. - Рукопись.

Диссертация на соискание ученой степени кандидата технических наук по специальности 05. 13. 06 - Информационные технологии. - Национальный технический университет Украины "Киевский политехнический институт", Киев, 2008.

Работа посвящена разработке новых нейронечётких информационных технологий синтеза нечётких баз знаний пониженной сложности для прогнозирования стохастических процессов. Введены сбалансированные нейронечёткие модели в форме Бернштейна, которые генерируют систему упрощённых нечётких правил квадратичной сложности. Исследованы методы обучения моделей стохастических процессов как некорректной обратной задачи восстановления стохастических зависимостей по данным наблюдений. Разработан индуктивный метод построения сбалансированных робастных нейронечётких моделей в форме Бернштейна на основе байесовской регрессии опорных векторов в характеристическом пространстве полиномиальных функций Безье-Бернштейна (ПРИАМ). Разработана архитектура и построен прототип информационной онлайн системы обработки статистических данных, которая реализует предложенный метод. Проведен сравнительный анализ ПРИАМ с нечётким методом группового учета аргументов и рекуррентными нейронными сетями на реальных и искусственных эталонных моделях, на экономических, метеорологических, экологических моделях. Результаты экспериментов подтверждают эффективность разработанного метода.

Ключевые слова: стохастические процессы, байесовское обучение, робастные нейронечеткие модели, регрессия опорных векторов.

Mytnyk O. Yu. Information technologies for robust neurofuzzy stochastic process model fusion. - Manuscript.

Thesis for a candidate of technical sciences degree by the speciality 05. 13. 06 - Information technologies. - National technical university of Ukraine "Kiev polytechnic institute", Kiev, 2008.

In this paper we investigate the approaches to forecasting of stochastic processes based on observed data as an ill-posed stochastic dependence recovery problem. In the first chapter the regularization methods are studied to pose the problem well. The model transparency is also at the center of attention. It is well known that neurofuzzy modeling is an appealing resource for transparent knowledge representation. The fact that behavior of neurofuzzy models can be described naturally as a series of linguistic human-readable rules makes them suitable for expert and decision support systems.

The generalized neurofuzzy network of C. Harris is considered in the second chapter as the state-of-the-art approach to construct the polynomial complexity transparent models. Such drawbacks as uncertainty of the knots selection, and slowness of the inverse de Casteljau procedure using back propagation rule are noted. The fast inverse de Casteljau mapping based on uniform knots layout is suggested. Thus we develop an algorithm for the fast training of the neurofuzzy models in Bernstein form based on analytical calculation of barycentric coordinates. In order to support independent generation of fuzzy rules based on separate neurofuzzy submodels we introduce the notion of the balanced neurofuzzy models. It has been shown that neurofuzzy models in Bernstein form can be balanced.

The last data mining contests have proved the advantage of Bayesian and support vector methods. Consequently the third chapter is devoted to study the Bayesian framework for support vector regression (SVR), where the main complexity is computation of evidence. Since the evidence is analytically tractable only in the simplest cases, usually the different approximation techniques are applied. Among them expectation propagation (EP), variational methods, Laplace's method (LM), Markov chain Monte Carlo (MCMC). Although LM is proved recently to be inaccurate comparing to EP and MCMC we derive Bayesian Evidence Criterion (BEC) for the fast model comparison, which drastically reduces the computational costs. Whereas BEC based on LM overestimates evidence and thus can't be used for direct evidence computation, at the same time BEC succeeds in model comparison since it overestimates evidence systematically for all models. In order to overcome the curse of smoothness of the $\epsilon$-insensitive loss we propose to use the locally smoothed loss function, which preserves model sparseness and robustness. Bayesian framework for SVR has the following advantages. Support vector expansion is independent from input space dimension and takes away from curse of dimensionality for reconstruction problem. A unique solution is found after training as solution of a quadratic programming problem. SVR model possesses robustness and sparseness. Bayesian framework allows to make error bars estimation. BEC supplies us with extra fast model search.

Finally we present an inductive method to build balanced robust neurofuzzy model in Bernstein form based on Bayesian SVR in feature space spanned by Bйzier-Bernstein polynomial functions (PRIAM - Polynomial Regression Inductive Algorithm Modeling) for stochastic dependence recovery problem. It combines the precedence of Bayesian inference, robustness of the support vector approach and transparency of the high end neurofuzzy modeling. Dual model conception allows PRIAM both be competitive with modern machine learning algorithms and be convenient for knowledge representation in expert systems. The complexity and convergence properties of PRIAM have been analysed.

We conduct experiments on synthetic reference data sets as well as on real world economic, ecologic, meteorologic models and compare PRIAM forecasts with results of group method of data handling (GMDH), fuzzy GMDH, recurrent neural networks and ANFIS. Our experiments show that PRIAM outperforms the methods listed above having parsimony model construction logic.

Keywords: stochastic processes, Bayesian learning, robust neurofuzzy models, support vector regression.

Загальна характеристика роботи

Актуальність теми. Прогнозування поведінки технічних процесів успішно виконується на основі диференційних рівнянь. Тоді як прогнозування економічних, екологічних, соціальних процесів або так зване інтелектуальне прогнозування виконується на основі правил, оскільки досвідчені менеджери приймають ефективні рішення на рівні практичних міркувань. Для побудови інтелектуального прогнозу доцільно використовувати експертні системи на основі нечітких баз знань. Такі бази знань використовують апарат нечіткої логіки, сила якого полягає у здатності створювати кількісне представлення для лінгвістичних змінних, а також ефективно відображати залежності між цими змінними у вигляді нечітких правил. Однак нечіткі бази знань, які побудовані виключно на основі експертної інформації, є суб'єктивними і повністю залежать від кваліфікації експертів. Тому необхідно підкріплювати висновки і рішення експертів технічним аналізом процесів. Для цього, після побудови апріорної моделі процесу у формі нечіткої бази знань, проводять навчання цієї моделі на емпіричних даних. Здатність навчатися на даних притаманна нейроматематичним технологіям. Тож гібридизація нечітких та нейроматематичних технологій в так звані нейронечіткі технології є важливим інструментом інтелектуального прогнозування. Нейронечіткі технології дозволяють перетворювати апріорні нечіткі правила в аналітичні моделі, навчати ці моделі, і перетворювати їх знову в нечіткі правила, які обґрунтовані технічним аналізом. Проблема навчання моделей процесів з людським фактором це проблема відновлення стохастичних залежностей. Тож дисертаційна робота присвячена дослідженню некоректних за Адамаром задач відновлення стохастичних залежностей на основі емпіричних даних, побудові нейронечітких моделей за допомогою інтелектуальних інформаційних технологій, та практичному застосуванню нових моделей для синтезу нечітких баз знань та прогнозування стохастичних процесів.

Можна виділити три основні групи інформаційних технологій синтезу моделей стохастичних процесів та інтелектуального аналізу даних. З точки зору теорії суб'єктивної ймовірності - байєсівські технології. З точки зору теорії статистичного навчання - технологія опорних векторів. З точки зору теорії адаптивного моделювання - нейронечіткі технології. Сучасні байєсівські технології і так званий байєсівський індуктивний висновок ґрунтується на теорії суб'єктивної ймовірності. Історія становлення байєсівської школи, яка розглядає ймовірність як ступінь впевненості по відношенню до випадкової події, пов'язана з іменами Л.Дж. Севіджа (L.J. Savage), Дж. Кейнса, Г. Джефрі, Ф. Рамсея, А. Вальда. Подальші дослідження Е. Джейнса (E. Jaynes) в цьому напрямку стосуються проблеми "об'єктивного" вибору апріорних ймовірностей байєсівського висновку на основі принципу максимальної ентропії. Байєсівський підхід до ідентифікації систем знайшов своє продовження в роботах С. Гала (S. Gull), де вперше була сформульована концепція байєсівського підтвердження параметрів апріорних розподілів для задач регресійного аналізу. Потім Д. Маккей (D. Mackay) використав і розвинув байєсівський принцип підтвердження з метою регуляризації штучних нейронних мереж. В наш час байєсівські технології активно використовуються пошуковими системами мережі Інтернет та системами фільтрації електронної пошти.

Початком принципово іншого підходу до аналізу процесів стала статистична теорія навчання В.Н. Вапника, яка намагається пояснити процес навчання зі статистичної точки зору, вивчає проблеми індуктивного висновку та прогнозування. В рамках цієї теорії сформульований принцип мінімізації структурного ризику, який став передумовою створення машини опорних векторів для задач класифікації. Метод опорних векторів був поширений А. Смолою (A. Smola) та Б. Шолькопфом (B. Schцlkopf) на задачі побудови робастних регресійних моделей і розроблена так звана регресія опорних векторів (РОВ). Подальші дослідження пов'язані в основному з оптимальним вибором гіперпараметрів РОВ, які визначають характеристики шуму. Так, використавши байєсівську індукцію Маккея для знаходження гіперпараметрів, М. Лоу (M. Law) та Дж. Квок (J. Kwok) започаткували байєсівську РОВ. Питання про вибір ефективного характеристичного простору для РОВ залишається відкритим.

Нейротехнології беруть свій початок з фундаментальної роботи В. Мак-Каллока і В. Піттса в області моделювання нервової системи. Саме з цієї роботи почався розвиток штучного інтелекту та нейронних мереж, який пов'язаний з іменами В.М. Глушкова, О.А. Павлова, О.Г. Івахненка, Н. Вінера, Ф. Розенблата, Д. Румельхарта та Дж. Хопфілда. Новим етапом розвитку штучного інтелекту стала концепція нечіткої логіки, запропонована Л. Заде та розвинута Е. Мамдані, Т. Такаґі, М. Суґено для адаптивних нечітких контролерів. Зв'язок між нейронними моделями і нечіткою логікою вперше було встановлено М. Брауном (M. Brown) і К. Харрісом (C. Harris) в так званих нейронечітких адаптивних мережах, які володіють лінгвістичною прозорістю нечіткої логіки в поєднанні з аналітичною зручністю нейронних моделей. Типовими представниками таких нейронечітких архітектур стали система адаптивного нечіткого виводу (ANFIS) Р. Джанга (R. Jang) та адаптивний сплайновий алгоритм моделювання (ASMOD) Т. Кавлі (T. Kavli). Оскільки нейронечіткі мережі потерпають від прокляття вимірності, то подальші дослідження спрямовані на вирішення саме цієї проблеми. Зокрема, К. Харріс і К. Хонг (X. Hong) запропонували нейронечіткий алгоритм моделювання поліноміальної складності, де базисні поліноми Бернштейна виступають в ролі функцій належності.

Зв'язок роботи з науковими програмами, планами, темами. Робота виконана в ННК "Інститут прикладного системного аналізу" НТУУ "КПІ" відповідно до плану науково-дослідних робіт: "Розробка якісно-кількісного методу ситуаційного аналізу на основі байєсівських мереж" (№ДР 0103U000528), "Розробка та впровадження автоматизованої інформаційної системи підтримки прийняття рішень в управлінні проектами" (№ДР 0102U000245).

Мета і завдання дослідження. Підвищити якість прогнозування стохастичних процесів за допомогою нових інформаційних технологій та методів розв'язання некоректних задач відновлення залежностей. А саме:

1. Створити нову інформаційну технологію синтезу нечітких баз знань пониженої складності на основі нейронечітких моделей.

2. За допомогою технології опорних векторів забезпечити робастність нейронечітких моделей для описання стохастичних процесів з домінуючою випадковою складовою.

3. Вивчити недоліки існуючих методів регуляризації некоректних задач відновлення залежностей та отримати новий удосконалений критерій адекватності нейронечітких моделей.

4. Розробити новий метод побудови нейронечітких моделей, який забезпечить високоякісне прогнозування стохастичних процесів. Метод повинен враховувати апріорну інформацію про структуру моделі, працювати на коротких вибірках і оцінювати похибки прогнозу.

5. На основі розроблених методів створити нову інформаційну систему обробки статистичних даних та застосувати її до розв'язку реальних задач прогнозування.

Об'єкт дослідження - стохастичні процеси.

Предмет дослідження - нові інформаційні технології та методи розв'язання некоректних задач відновлення стохастичних залежностей.

Методика досліджень ґрунтується на основі теорії ймовірності, статистичного оцінювання і навчання, оптимального планування, нечітких множин, математичного програмування, чисельних методів. Програмну реалізацію запропонованих методів та алгоритмів виконано в середовищах MATLAB 6. 1, JDK 1. 5. 0. 4. Для порівняння отриманих результатів використано пакети "Neuro-Shell 2", "GMDH Modeler 0. 9. 37" та "NeuroSolutions 5".

Наукова новизна одержаних результатів. В дисертаційній роботі отримані наступні нові результати:

1. Розвинуто метод побудови нейронечітких моделей у формі Бернштейна. Для визначення барицентричних координат новий прискорений метод використовує швидке обернене відображення Кастельжо. Вперше запропоновано еволюційний метод побудови робастних нейронечітких моделей у формі Бернштейна, де для визначення барицентричних координат використовується оптимальне обернене відображення Кастельжо.

2. Створена нейронечітка інформаційна технологія синтезу нечітких баз знань квадратичної складності на основі так званих збалансованих нейронечітких моделей у формі Бернштейна.

3. На основі наближення маргінальної правдоподібності методом Лапласа отримано новий критерій адекватності байєсівської регресії опорних векторів, який, на відміну від відомих критеріїв, не порушує робастності моделей та має просту аналітичну форму.

4. Розроблено новий індуктивний метод побудови збалансованих робастних нейронечітких моделей у формі Бернштейна (ПРІАМ) на основі байєсівської регресії опорних векторів у характеристичному просторі поліноміальних функцій Без'є-Бернштейна, який відрізняється від аналогів підвищеною якістю прогнозування стохастичних процесів з домінуючою випадковою складовою і можливістю задавати апріорну структуру моделі.

5. Створено нову інформаційну систему обробки статистичних даних, математичний апарат якої реалізує запропоновані методи. Унікальність системи полягає в її здатності оперувати в онлайн режимі (в мережі Інтернет).

Практичне значення одержаних результатів полягає в тому, що запропоновані автором інформаційні технології та методи можуть бути використані в системах підтримки прийняття рішень при математичному моделюванні і прогнозуванні стохастичних процесів з домінуючою випадковою складовою. Зокрема отримані результати впроваджені в Севастопольську гідрометеорологічну обсерваторію МНС України.

Особистий внесок здобувача. Всі наукові результати, викладені в дисертації, отримані автором самостійно. В написаних у співавторстві роботах здобувачеві належать: швидке обернене відображення Кастельжо [1]; еволюційний метод визначення положення максимумів першої похідної спектру відбиття листків рослинності [2, 3]; новий математичний метод аналізу даних гідробіологічного моніторингу [6].

Апробація результатів дисертації. Основні результати дисертаційної роботи доповідалися і обговорювалися на міжнародних наукових конференціях "Системний аналіз та інформаційні технології" (Київ, 2003-2004 рр.), "Стан та перспективи розвитку новітніх науково-освітніх комп'ютерних технологій" (Миколаїв, 2003 р.), "Інтелектуальні системи прийняття рішень та прикладні аспекти інформаційних технологій" (Євпаторія, 2005 р.), "Моделювання та дослідження стійкості динамічних систем" (Київ, 2005, 2007 рр.), "Интеллектуальный анализ информации" (Київ, 2006 р.), на одинадцятій міжнародній науковій конференції імені академіка М. Кравчука (Київ, 2006 р.).

Публікації. Основні положення дисертації викладені в 14 друкованих роботах, з яких 5 у провідних фахових виданнях.

Структура та обсяг дисертації. Дисертація складається із вступу, чотирьох розділів, висновків, списку літератури з 212 джерел на 24 сторінках, чотирьох додатків. Загальний обсяг роботи становить 183 сторінки, з яких 134 сторінки основного тексту.

Основний зміст роботи

Узагальнена задача відновлення стохастичної залежності формально поставлена у наступному вигляді. Нехай задані дані спостережень

$\mathcal{D} =\{\left(y_j,\vect{x}_j\right): j=1,\ldots,N\}$, де $\vect{x} = \col{x^1,\ldots,x^n} \in \mathcal{X} \subseteq \mathbb{R}^n$, $y\in\mathcal{Y} \subseteq \mathbb{R}$.

Висувається гіпотеза про існування стохастичної залежності, відповідно до якої кожному вектору $\vect{x}$ ставиться у відповідність число $y$, отримане за допомогою випадкового випробування за законом $P(y|\vect{x})$. Задача відновлення стохастичної залежності полягає у відшуканні умовної щільності розподілу $P(y|\vect{x})$ на основі скінченої вибірки даних $\mathcal{D}$. Дана обернена задача некоректно поставлена, оскільки має більш ніж один розв'язок, і зводиться до пошуку щільності апостеріорного прогнозного розподілу $P(y|\vect{x},\mathcal{D})$, який є наближенням реальної стохастичної залежності. Наскільки близьким буде таке наближення залежить від повноти даних спостережень. Процес побудови $P(y|\vect{x},\mathcal{D})$, або його умовного математичного сподівання, тобто функції регресії

$y(\vect{x})=\mean{y_x}=\int yP(y|\vect{x},\mathcal{D})dy$,

будемо називати емпіричним моделюванням.

В першому розділі розглянуті основні проблеми емпіричного моделювання, серед яких некоректність постановки самої задачі навчання за даними спостережень і слабка структурованість представлення моделей. Значна увага приділяється механізму регуляризації задачі навчання як засобу для розкриття невизначеності відношення зміщення-варіації моделі. Розглянутий розклад аналізу варіацій як засіб забезпечення структурованості представлення моделі. Наведені типові приклади використання цього розкладу. Перший розділ закінчується постановкою задач дисертаційного дослідження.

Другий розділ присвячений дослідженню нейронечітких технологій. Введене формальне означення нейронечітких моделей відповідно до якого нейронечітка модель в канонічній формі має вигляд:

f(\vect{x})=\sum_{i}w_i\mu_{A^i}(\vect{x}),\quad\sum_{i}\mu_{A^i}(\vect{x})=1,

де $\mu_{A^i}$ - дійсні невід'ємні функції належності змінної $\vect{x}$, $A^i$ - лінгвістичні терми визначені на $\mathcal{X}$. Як відомо, основним результатом для нейронечітких моделей є наступне твердження. Дефазифікований методом середнього значення результат нечіткого логічного висновку системи Мамдані, в якій функції нечіткої логіки визначені алгебраїчними операторами добутку та суми, відповідає виходу нейронечіткої моделі. При цьому, якщо для представлення входу та виходу нечіткої системи Мамдані використовуються відповідно дійсні невід'ємні функції належності $\mu_{A^i}(\vect{x})$ та $\mu_{B^j}(y)$, де $A^i$, $B^j$ - лінгвістичні терми визначені відповідно на $\mathcal{X}$ та $\mathcal{Y}$, і $\sum_{i}\mu_{A^i}(\vect{x})=1$, а також $\forall j:\int\mu_{B^j}(y)dy=const$, тоді

w_i=\sum_{j}c_{ij}y_j^c,\quad 1=\sum_{j}c_{ij},\quad0\leq c_{ij}, \quad

y_j^c=\frac{\int\mu_{B^j}(y)ydy}{\int\mu_{B^j}(y)dy}, (1)

де $c_{ij}$ - вага правила: {\em якщо} $\vect{x}\in A^i$ {\em тоді} $y\in B^j$. Тож задача генерації нечітких правил на основі аналітичної нейронечіткої моделі зводиться до відшукання ймовірностей $c_{ij}$ за заданими коефіцієнтами $w_i$. Для цього необхідно розв'язати системи лінійних рівнянь з обмеженнями (1).

В загальному випадку функції належності визначають не для всього вектору входу $\vect{x}$, а для кожної вхідної змінної $x^k$ окремо. Показано, що в цьому випадку нечітка база знань має експонентну складність відносно розмірності вектору входу. З метою зменшення кількості нечітких правил і спрощення самих правил досліджені нейронечіткі моделі у формі Бернштейна, які гарантують поліноміальну складність нечіткої бази знань. Для представлення регресії $y(\vect{x})$ модель у формі Бернштейна має вигляд:

f(\vect{x})=b+\sum_{k=1}^nB^d_k(x^k)+\sum_{p=1}^{n-1}\sum_{q=p+1}^nB^d_{pq}\left(x^p, x^q\right), (2)

де поліноми у формі Бернштейна $B^d_k$, $B^d_{pq}$ однієї та двох змінних відповідно визначаються як лінійні комбінації базисних поліномів Бернштейна порядку $d$ від барицентричних координат $s$ та $\vect{u}=\col{u, v}$:

B^d_k(x^k)=\sum_{j=0}^dw^k_j\phi_j^d\bigl(s(x^k)\bigr),\quad

B^d_{pq}(x^p,x^q)=\sum_{i+r+t=d}w^{pq}_{irt}\phi_{irt}^d\bigl(\vect{u}(x^p,x^q)\bigr).

Базисні поліноми Бернштейна однієї та двох змінних мають вигляд:

\phi_j^d(s)=\dbinom{d}{j}s^j(1-s)^{d-j},\quad

\phi_{irt}^d(\vect{u})=\dbinom{d}{i,r,t} u^iv^r(1-u-v)^t.

Барицентричні координати $s$ та $\vect{u}$ обчислюються за допомогою оберненого відображення Кастельжо $\Psi_k(\Lambda_k) : x^k\mapsto s(x^k)\in [0; 1]$, та $\Psi_{pq}(\Lambda_{pq}) : (x^p, x^q)\mapsto \vect{u}(x^p,x^q)\in \triangle\{u\geqslant0, v\geqslant0, u+v\leqslant1 \}$ на основі систем контрольних точок

$\Lambda_{k}=\{a_j\in {\mathbb R}:j=0,\ldots,d\}$, $\Lambda_{pq}=\{\vect{a}_{ijk}\in {\mathbb R^2}:i+j+k=d\}$.

Обернене відображення Кастельжо використовує чисельний метод зворотного розповсюдження помилки для розв'язання рівнянь:

$$x^k=\sum_{j=0}^da_j\phi_j^d(s),\quad\col{x^p,x^q}=\sum_{i+j+k=d}\vect{a}_{ijk}\phi_{ijk}^d(\vect{u}). $$

Нейронечітку модель у формі Бернштейна можна представити як лінійну в параметрах модель

$\mathcal{M}(\vect{x},\vect{w})=b+\vect{w}\cdot\vect{\Phi}(\vect{x})$

в евклідовому просторі $\mathcal{W}$ із скалярним добутком $\vect{x}\cdot\vect{z}=\sum_ix_iz_i$. Простір $\mathcal{W}$ будемо називати простором поліноміальних функцій Без'є-Бернштейна. Вектор параметрів

$\vect{w}=\col{\ldots,w^k_j,\ldots,w^{pq}_{irt},\ldots}\in\mathcal{W}$.

Вектор-функція

$\vect{\Phi}:\mathcal{X}\rightarrow\mathcal{W}$

складається з функцій належності однієї $\{\phi^d_i(\cdot)\}$ та двох $\{\phi^d_{irt}(\cdot,\cdot)\}$ змінних

$\vect{\Phi}:\vect{x}\mapsto\col{\ldots,\phi^d_j(x^k),\ldots,\phi^d_{irt}(x^p,x^q),\ldots}$.

Для нейронечітких моделей у формі Бернштейна нечіткі правила генеруються незалежно на основі окремих нейронечітких підмоделей у канонічній формі. Кожна нейронечітка підмодель визначається поліномом у формі Бернштейна. При цьому функції належності це базисні поліноми Бернштейна від барицентричних координат.

В результаті дослідження нейронечітких моделей у формі Бернштейна виявлені такі недоліки. Повільна збіжність оберненого відображення Кастельжо на основі чисельного методу зворотного розповсюдження помилки. Конфігурація контрольних точок не визначена однозначно. Необґрунтована можливість незалежного використання нечітких правил, які сформовані на основі окремих підмоделей. Функції належності у формі базисних поліномів Бернштейна високих порядків сильно перекриваються.

В роботі розроблено прискорений метод навчання нейронечітких моделей у формі Бернштейна. Основою методу є швидке обернене відображення Кастельжо, зміст якого полягає в наступному. Нехай для довільної множини точок $\{\vect{z}\}\subset {\mathbb R^2}$ задана система контрольних точок

$\Lambda=\{\vect{a}_{ijk}\in {\mathbb R^2}:i+j+k=d\}$

порядку $d$ така, що задовольняє умовам:

1. Опукла оболонка

$\hull{\vect{a}_{ijk}}\supset\{\vect{z}\}$.

2. Множина внутрішніх точок

$\inter\hull{\vect{a}_{ijk}}\neq\emptyset$.

3. Виконуються наступні рівності

$\quad2\vect{a}_{i+1j+1k}=\vect{a}_{ij+2k}+\vect{a}_{i+2jk}$,

$2\vect{a}_{ij+1k+1}=\vect{a}_{ij+2k}+\vect{a}_{ijk+2}$,

$2\vect{a}_{i+1jk+1}=\vect{a}_{i+2jk}+\vect{a}_{ijk+2}$, $i+j+k+2=d$.

Тоді

$\Psi(\Lambda):\vect{z}\mapsto\vect{u}(\vect{z}) = \left(\vect{a}_{0d0} - \vect{a}_{00d}, \vect{a}_{d00} - \vect{a}_{00d}\right)^{-1}\left(\vect{z} - \vect{a}_{00d} \right)$,

і при цьому

$\vect{u}\in \triangle\{u\geqslant0, v\geqslant0, u+v\leqslant1 \}$.

Аналогічний результат отримано також для оберненого відображення Кастельжо однієї змінної. Таким чином виведена чітка схема розміщення контрольних точок, яка забезпечує більш швидке (в 3-4 рази) навчання нейронечітких моделей у формі Бернштейна.

Досліджено також питання про оптимальне, за заданим критерієм, розміщення контрольних точок. Відповідно введено ряд означень оптимальних систем контрольних точок. Зокрема A-оптимальною системою контрольних точок будемо називати таку, що мінімізує слід коваріаційної матриці оцінок коефіцієнтів $\vect{w}$:

$\Lambda_{\mbox{\small{A-опт}}}=\arg\min\tr\cov\left(\hat{\vect{w}}\left(\Lambda\right)\right)$.

Як відомо, А-оптимальність мінімізує середню дисперсію оцінок коефіцієнтів, що має зміст суми квадратів головних півосей еліпсоїду розсіювання оцінок. Оскільки А-оптимальність покращує обумовленість інформаційної матриці, то підвищується робастність побудованої моделі. Для розв'язання такої оптимізаційної задачі запропоновано використовувати еволюційні методи, зокрема генетичний алгоритм.

Для обґрунтування незалежного використання нейронечітких підмоделей вводяться так звані збалансовані нейронечіткі моделі у вигляді:

$$f(\mathbf{x})=b+\sum_{k=1}^ng_k(x^k)+\sum_{p=1}^{n-1}\sum_{q=p+1}^ng_{pq}\left(x^p,

x^q\right),$$

$$g_k(x^k)=\sum_iw_i^k\mu_{A^i_k}(x^k),\quadg_{pq}(x^p,x^q)=\sum_jw_j^{pq}\mu_{A^j_{pq}}(x^p,x^q),$$

де математичне сподівання функцій $g_k$, $g_{pq}$ за умови багатовимірного рівномірного розподілу випадкової величини $\mathbf{x}$ на своїй області визначення дорівнює нулю. При цьому нейронечіткі підмоделі визначаються як $f_k=b+g_k$ та $f_{pq}=b+g_{pq}$. Величина $b$ називається зміщенням нейронечіткої збалансованої моделі і характеризує середнє значення виходу. Таким чином, за відсутності знань щодо значення змінної $x^k$ логічно припустити (за принципом максимальної ентропії), що змінна $x^k$ з однаковою ймовірністю може приймати будь-яке значення зі своєї області визначення. При цьому вплив цієї змінної на вихід моделі після розкриття невизначеності за допомогою математичного сподівання буде нульовим. Тож збалансованість дозволяє генерувати нечіткі правила на основі окремої підмоделі незалежно від інших підмоделей. Визначена достатня умова збалансованості нейронечіткої моделі:

$$\forall i: \meanl{\mu_{A^i_k}(x^k)}=const_k,\quad\forall j:

\meanl{\mu_{A^j_{pq}}(x^p,x^q)}=const_{pq},\quad\mathbf{x}\sim

\mathcal{U}(\mathcal{X}),$$

а також сума коефіцієнтів при функціях належності рівна нулю:

$\sum_iw_i^k=0$, $\sum_jw_j^{pq}=0$.

Показано, що нейронечіткі моделі у формі Бернштейна можна звести до збалансованих і отримати збалансовані нейронечіткі моделі у формі Бернштейна. При цьому обернене відображення Кастельжо повинно бути побудоване так, щоб рівномірний розподіл змінної $\mathbf{x}$ індукував рівномірний розподіл відповідних барицентричних координат. Швидке обернене відображення Кастельжо задовольняє цій умові.

В третьому розділі викладені основи РОВ. Розглянута байєсівська РОВ, яка будується наступним чином. Нехай систематична складова стохастичної залежності може бути представлена деякою параметричною моделлю $\mathcal{M}$ із простору моделей $\mathcal{H}$. Нехай задано простір моделей $\mathcal{H}$. Тоді, відповідно до байєсівської теорії прийняття рішень, в якості оптимальної вибирається модель з найбільшою апостеріорною ймовірністю $P(\mathcal{M}|\mathcal{D})$. Припускаючи рівномірний розподіл моделей в просторі $\mathcal{H}$, моделі ранжуються за величиною їх маргінальної правдоподібності $P(\mathcal{D}|\mathcal{M})$ (підтвердження), яка виражає здатність моделі $\mathcal{M}$ генерувати дані $\mathcal{D}$. Маргінальна правдоподібність визначається як:

P(\mathcal{D}|\mathcal{M})=\int_\mathcal{W}P(\mathcal{D}|\vect{w},\mathcal{M})F(d\vect{w}|\mathcal{M}), (3)

де $F$ - апріорна ймовірнісна міра на $\mathcal{W}$. Ймовірність $P(\mathcal{D}|\vect{w},\mathcal{M})$ виражає здатність моделі $\mathcal{M}$ з заданими параметрами $\vect{w}$ генерувати дані $\mathcal{D}$ і називається правдоподібністю. Оскільки підтвердження (3) може бути обчислена аналітично тільки в найпростіших випадках, наприклад у випадку нормального шуму, то застосовують різноманітні методи наближення. Серед них метод Монте-Карло, розповсюдження сподівань, варіаційні методи, метод Лапласа.

Для того щоб отримати точкову оцінку параметрів моделі, байєсівська теорія прийняття рішень мінімізує умовний байєсівський ризик:

$$R_\mathcal{L}(\hat{\vect{w}})=\meanl{\mathcal{L}(\hat{\vect{w}},\vect{w})}=\int_\mathcal{W} \mathcal{L}(\hat{\vect{w}},\vect{w})F(d\vect{w}|\mathcal{D},\mathcal{M}),\quad

\mathcal{L}(\hat{\vect{w}},\vect{w})=\lim_{t\rightarrow0}|\hat{\vect{w}}-\vect{w}|^t,$$

де $\mathcal{L}$ - такий функціонал ризику, при якому оптимальна байєсівська оцінка параметрів моделі це мода апостеріорного розподілу параметрів (МАП оцінка):

$$\vect{w}_{\mbox{мап}}=\arg\min\limits_{\vect{w}\in\mathcal{W}}R_\mathcal{L}(\vect{w})

=\arg\max\limits_{\vect{w}\in\mathcal{W}}P(\vect{w}|\mathcal{D},\mathcal{M}). $$

Байєсівська РОВ будується за наступних припущень. Випадкова складова стохастичної залежності вважається адитивним шумом і

$y_j=\mathcal{M}(\vect{x}_j,\vect{w})+\delta_j$,

де $\delta_j$ - незалежні і однаково розподілені за законом $P(\delta|\vect{w},\mathcal{M})$ випадкові величини. Апріорна щільність розподілу параметру $\vect{w}$ моделі $\mathcal{M}$ згідно з принципом максимальної ентропії задана у вигляді багатовимірного нормального розподілу з нульовим математичним сподіванням і одиничною матрицею коваріації:

$P(\vect{w}|\mathcal{M})=\mathcal{N}(\vect{w}|\vect{0},\mathbf{I})$.

Моделі розглядаються як лінійні в параметрах в деякому характеристичному просторі

$\mathcal{W}$: $\mathcal{M}(\vect{w},\vect{x})=b+ \vect{w}\cdot\vect{\Phi}(\vect{x})$, $\vect{\Phi}:\mathcal{X}\rightarrow\mathcal{W}$.

Гомоскедастична модель шуму задана у вигляді:

P(\delta_j|\vect{w},\mathcal{M})=\frac{\beta}{2(1+\epsilon\beta)}\exp(-\beta|\delta_j|_\epsilon), (4)

де $|\cdot|_\epsilon$ це $\epsilon$-нечутлива функція втрат Вапника. $|\delta|_\epsilon=0$ для $|\delta|\leqslant\epsilon$, $|\delta|_\epsilon=|\delta|-\epsilon$ для $|\delta|>\epsilon$. Така функція втрат забезпечує розрідженість представлення і робастність моделей РОВ. Параметри $\epsilon$ і $\beta$ називають гіперпараметрами.

Для заданої моделі $\mathcal{M}$ МАП оцінка байєсівської РОВ породжує задачу мінімізації регуляризованого ризику:

R_{\mbox{рег}}(\vect{w})=\beta\sum\nolimits_{j=1}^N|\delta_j|_\epsilon+\frac{1}{2}\|\vect{w}\|^2\longrightarrow\min_\vect{w},

яка зводиться до типової задачі опуклого квадратичного програмування з розв'язком у вигляді:

f_{\mbox{мап}}(\vect{x})=\sum_j(\alpha_j-\alpha_j^\ast)\vect{\Phi}(\vect{x}_j)\cdot\vect{\Phi}(\vect{x})+b_{\mbox{мап}},

\vect{w}_{\mbox{мап}}=\sum_j(\alpha_j-\alpha_j^\ast)\vect{\Phi}(\vect{x}_j),

b_{\mbox{мап}}=\mbox{середнє}_j\left\{\begin{array}{c}y_j-\vect{w}\cdot\vect{\Phi}(\vect{x}_j)-\epsilon, \alpha_j\in(0,\beta)

y_j-\vect{w}\cdot\vect{\Phi}(\vect{x}_j)+\epsilon, \alpha_j^\ast\in(0,\beta)\end{array}\right\},

де $\alpha_j$, $\alpha_j^\ast$ - множники Лагранжа, які задовольняють $\sum_{j=1}^N\left(\alpha_j-\alpha_j^\ast\right)=0$, $\alpha_j,\alpha_j^\ast\in[0;\beta]$. Таким чином параметри і сама модель представлені як лінійна комбінація елементів розрідженої множини навчальної вибірки в характеристичному просторі, для яких один з множників $\alpha_j$ або $\alpha_j^\ast$ ненульовий. Такі елементи називають опорними векторами. Опорні вектори лежать поза $\epsilon$-смугою нечутливості або на її верхній чи нижній межах.

Більш складною проблемою є обчислення підтвердження моделі. Асимптотично точну оцінку можна отримати за допомогою методу Монте-Карло. Відносно точну оцінку дає метод розповсюдження сподівань. В роботі використано метод Лапласа, який хоч і є неточним в порівнянні з вище згаданими методами, проте потребує значно менші обчислювальні витрати. Аналіз показує, що цей метод систематично переоцінює підтвердження і відтак не може бути використаний для його точного підрахунку. Але, оскільки метод Лапласа переоцінює підтвердження систематично для всіх моделей, він може бути використаний для швидкого порівняння адекватності моделей. Метод Лапласа дає оцінку:

-\ln P(D|\mathcal{M})\approx

R_{\mbox{рег}}(\vect{w}_{\mbox{мап}})-N\ln\frac{\beta}{2(1+\epsilon\beta)}

+\frac{1}{2}\ln\det\mathbf{H}_{\mbox{мап}}, (5)

Де

$\mathbf{H}_{\mbox{мап}}=\nabla^2_\vect{w}R_{\mbox{рег}}(\vect{w}_{\mbox{мап}})$

- гессіан регуляризованого ризику в точці, яка є модою апостеріорного розподілу. При цьому основною проблемою є недиференційовність функції втрат в критичних точках, які лежать на верхній та нижній межах $\epsilon$-смуги. Тому, як правило, застосовують різноманітні згладжені аналоги. Але вони порушують розрідженість та робастність РОВ і призводять до складного байєсівського висновку. В роботі запропоновано використовувати локально згладжену в нескінченно малому околі критичних точок функцію втрат і доведено, що для будь-якої $\epsilon$-нечутливої смуги РОВ існує як завгодно мале відхилення $\Delta\epsilon$ таке, що для $\epsilon_1$-нечутливої смуги ($\epsilon_1=\epsilon-\Delta\epsilon$) гессіан регуляризованого ризику $\mathbf{H}_{\mbox{\rm мап}}=\mathbf{I}$ і при цьому вектори зберігають властивість опорності. Як наслідок, отримано новий критерій байєсівського підтвердження (КБП) адекватності моделей РОВ:

-\ln P(\mathcal{D}|\mathcal{M})\approx{\mbox{КБП}}(\mathcal{M},\epsilon,\beta)=R_{\mbox{рег}}(\vect{w}_{\mbox{мап}})-N\ln\frac{\beta}{2(1+\epsilon\beta)}. (6)

Задача максимізації підтвердження зводиться до задачі мінімізації КБП. Оскільки КБП залежить від гіперпараметрів, то в межах тієї самої моделі можна знайти оптимальні значення гіперпараметрів, які мінімізують (6). Цю задачу розв'язано рефлексивним методом Ньютона, де на кожному кроці будується РОВ і знаходиться $\vect{w}_{\mbox{мап}}$.

Основні переваги байєсівської РОВ полягають в наступному. Розклад опорних векторів не залежить від розмірності вхідного простору. Задача квадратичного програмування дає єдиний розв'язок. Модель РОВ робастна. Байєсівський підхід дозволяє робити оцінку для довірчих інтервалів. КБП забезпечує високу швидкість перебору моделей. Серед недоліків слід відзначити неточне обчислення підтвердження. Далі в роботі досліджені питання вибору простору моделей і характеристичного простору. З метою поєднання переваг байєсівської РОВ із зручністю нейронечіткого підходу Харріса в якості характеристичного простору використано простір поліноміальних функцій Без'є-Бернштейна, де для обчислення барицентричних координат використовується швидке обернене відображення Кастельжо. стохастичний нейронечіткий прогнозування

Введено поняття конфігурації характеристичного простору поліноміальних функцій Без'є-Бернштейна у вигляді верхньотрикутної матриці $\mathbf{C}$ розмірності $n\times n$, де кожен елемент $c_{i\geqslant j}\geqslant0$ відображає ступінь впливу фактору $x_{i=j}$ або пари факторів $x_i$, $x_j$ на вихідну змінну $y$ і визначає порядок базисних поліномів Бернштейна для відповідної поліноміальної функції. Характеристичне відображення у цьому випадку матиме вигляд:

$\vect{\Phi}(\mathbf{C}):\vect{x}\mapsto\col{\ldots,\phi_j^{c_k}(x^k),\ldots,\phi_{irt}^{c_{pq}}(x^p, x^q),\ldots}$.

Це відображення індукує простір моделей у формі Бернштейна

$\mathcal{H}=\spanv{\ldots,\phi_j^{c_k},\ldots,\phi_{irt}^{c_{pq}},\ldots}$,

які узагальнюють (2):

\mathcal{H}\ni\mathcal{M}(\vect{w},\vect{x}) =b+\sum_{k=1}^nB^{c_k}_k(x^k)+\sum_{p=1}^{n-1}\sum_{q=p+1}^nB^{c_{pq}}_{pq}\left(x^p,x^q\right), (7)

Для загальності міркувань покладемо $B^0(\cdot)\equiv0$, що фактично означає відсутність впливу відповідного фактору або пари факторів на вихід. Доведено, що РОВ в характеристичному просторі поліноміальних функцій Без'є-Бернштейна індукує збалансовані нейронечіткі моделі у формі Бернштейна, які можна використовувати для побудови нечітких правил на основі окремих підмоделей:

$f_k(x^k)=b+B^{c_k}_k(x^k)$, $f_{pq}\left(x^p, x^q\right)=b+B^{c_{pq}}_{pq}\left(x^p, x^q\right)$.

Основним результатом третього розділу є індуктивний метод побудови збалансованих нейронечітких моделей у формі Бернштейна, який визначає порядок перебору моделей в просторі $\mathcal{H}$. Алгоритм ПРІАМ (Поліноміальної РОВ Індуктивний Алгоритм Моделювання), який реалізує даний метод, має вигляд:

Задані: дані спостережень $\mathcal{D}$, рівень збіжності $\mu>0$, початкова модель

$\mathcal{M}^{(0)}=\mathcal{H}\left(\mathbf{C}^{(0)}\right)$,

яка відповідає апріорним сподіванням.

Результат: субоптимальна модель $\mathcal{M}_{\mbox{opt}}$.

Алгоритм починає роботу з нормування вхідного та вихідного просторів; ітератор $t\longleftarrow$0;%

повторювати

$\mathcal{M}_{\mbox{opt}}\longleftarrow\mathcal{M}^{(t)}$;%

генерація множини моделей кандидатів:

$\left\{\mathcal{M}_{ij}^{(t+1)}=\mathcal{H}\left(\mathbf{C}^{(t+1)}_{ij}\right)\right\}_{ij}$,\%

де $\mathbf{C}^{(t+1)}_{ij}=\mathbf{C}^{(t)}\pm\mathbf{1}_{ij}$,

$1\leqslant i\leqslant j\leqslant n$, $\mathbf{1}_{ij}$

- нульова матриця з одиницею в рядку $i$ в стовпчику $j$, що відповідає мінімальній зміні конфігурації;\\

для кожної моделі кандидата $\mathcal{M}_{ij}^{(t+1)}$} виконати

обчислення

$\mbox{КБП}\left(\mathcal{M}_{ij}^{(t+1)}\right)$, мінімізація (6)

за гіперпараметрами;

кінець перебору моделей кандидатів;

вибір моделі з найменшим значенням КБП:

$\mathcal{M}^{(t+1)}=\arg\left(\mbox{КБП}^{(t+1)}=\min\mbox{КБП}\left(\mathcal{M}_{ij}^{(t+1)}\right)\right)$;%

\STATE $t\longleftarrow t+1$;

поки не виконається критерій зупинки:

$\mbox{КБП}^{(t)}+\mu>\mbox{КБП}^{(t-1)}$};%

кінець роботи алгоритму.

Якщо визначити розмірність задачі навчання розмірністю вхідного простору $n$ і об'ємом вибірки даних спостережень $N$, то складність алгоритму ПРІАМ складається з витрат на перебір моделей кандидатів і витрат на розв'язок задачі квадратичного програмування методом активних обмежень і становить $\mathcal{O}(n^2N^3)$. Збіжність ПРІАМ забезпечується глобальною і квадратичною збіжністю рефлексивного методу Ньютона для мінімізації КБП за гіперпараметрами а також, як легко показати в силу оцінки знизу $\mbox{КБП}>-N\ln(\beta_{\max}/2)$ для $\beta_{\max}<\infty$, лінійною збіжністю пошуку субоптимальної моделі.

Перша частина четвертого розділу присвячена розробці архітектури нової інформаційної онлайн системи обробки статистичних даних, яка використовує розроблені в роботі нові алгоритми та методи. Так, інформаційна система представлена на трьох рівнях: концептуальному, логічному та фізичному. На концептуальному рівні визначені інформаційні процеси, процедури та потоки. Відповідно користувач може як поповнювати базу вибірок новими вибірками так і завантажувати та обробляти вибірки алгоритмами з бази алгоритмів. Хостинг провайдер підтримує сайт та сервери, на яких розміщуються бази вибірок та алгоритмів. На логічному рівні описана взаємодія формалізованих моделей інформаційних процесів. На фізичному рівні створені підсистеми, які реалізують процеси обробки, накопичення даних та представлення знань.

Користувач зі свого терміналу з браузером, який підтримує JRE версії не нижче 1. 4, має можливість через Інтернет завантажити java-аплети, вибірки даних та будувати прогнозуючі моделі. Аплети взаємодіють з базою вибірок через JDBC. Java-аплети представляють собою написані на мові Java алгоритми: нейронечіткий алгоритм Харріса - B-B. NF та ПРІАМ - PRIAMUS.

Оскільки реалізовані механізми багатопоточності, то відповідно користувач має можливість отримати список задач (вибірок) та алгоритмів, вибрати необхідний алгоритм та задачу і завантажити паралельну сесію. В цій сесії користувач налаштовує параметри задачі та алгоритму, будує модель та отримує детальні результати прогнозу на основі цієї моделі.

В другій частині четвертого розділу наведені результати практичного застосування реально створеного прототипу такої інформаційної системи для відомих штучних та реальних еталонних моделей, для спрощеної моделі макроекономіки України (ІСЦ, РСГ), для гідрометеорологічної моделі вітрових хвиль (СГМО), для гідробіологічної моделі біомаси макрозообентосу (ІБПМ). Для кожної з моделей визначена оптимальна конфігурація характеристичного простору, побудований прогноз і довірчі інтервали, виконано порівняльний аналіз з такими провідними в області прогнозування алгоритмами як метод групового врахування аргументів (МГВА), нечіткий МГВА (НМГВА), рекурентні нейронні мережі (РНМ) та ANFIS. Також наведені представлення у вигляді розкладу опорних векторів, ітерації байєсівського виводу оптимальних значень гіперпараметрів, залишки навчальної та прогнозної вибірок, залежності КБП та середньо квадратичної помилки в нормованому просторі (СКПн) від ширини смуги нечутливості. Наведений в табл. 1 порівняльний аналіз підтверджує високу ефективність розробленого автором індуктивного методу.

Таблиця 1. Порівняння СКПн прогнозу для різних методів

Моделі

Longley

Filippelli

Friedman

AMPG

ІСЦ

РСГ

СГМО

ІБПМ

N_{\mbox{повна}}(N)

16(11)

82(33)

1000(500)

392(300)

24(14)

24(14)

166(100)

50(25)

$n$

6

1

10

4

4

2

3

2

F_{N-n,N-}^{(80%)}

2. 2

1. 3

1. 0

1. 0

1. 8

1. 7

1. 1

1. 4

ПРІАМ

0. 017

0. 004

0. 009

0. 022

0. 003

0. 027

0. 033

0. 076

МГВА

0. 051

0. 016

0. 029

0. 024

0. 130

0. 042

0. 025

0. 124

НМГВА

0. 001

0. 039

0. 037

0. 026

0. 008

0. 098

0. 043

0. 053

РНМ

0. 018

0. 012

0. 008

0. 028

0. 090

0. 101

0. 033

0. 083

ANFIS

0. 002

0. 001

0. 009

0. 027

0. 003

0. 051

0. 031

0. 110

Для перевірки значимості переваги одного методу над іншим необхідно порівняти відношення СКПн цих методів з наведеним табличним значенням критерію Фішера. Так, було визначено, що в середньому точність прогнозу ПРІАМ вища за точність МГВА на 52%, РНМ - на 40%, НМГВА - на 26%, ANFIS - на 10%.

Прототип інформаційної системи впроваджено в Севастопольську гідрометеорологічну обсерваторію для прогнозування висоти хвиль в Севастопольській бухті. Для побудови моделі використані дані щоденних спостережень за параметрами вітрових хвиль (висота, період, довжина, напрям) та показниками вітру (напрям, швидкість, тривалість дії) з 1960 по 2006 рік. Наприклад, за допомогою ПРІАМ на основі навчальної вибірки в 100 точок (за 2006 рік) отримана оптимальна модель у формі Бернштейна в нормованому просторі:

f(\mathbf{x})=0. 47+0. 09\phi_0^1(x^1)-0. 09\phi_1^1(x^1)-0. 04\phi_0^1(x^2)+0. 04\phi_1^1(x^2)

-0. 35\phi_0^1(x^3)+0. 35\phi_1^1(x^3),

де $x^1$ - синус кута напряму вітру від напряму на північ за годинниковою стрілкою, $x^2$ - косинус кута напряму, $x^3$ - швидкість вітру. Для генерації нечітких правил випишемо нейронечіткі підмоделі в канонічній формі:

f_1(x^1)=0. 56\phi_0^1(x^1)+0. 38\phi_1^1(x^1), f_2(x^2)=0. 43\phi_0^1(x^2)+0. 51\phi_1^1(x^2),

f_3(x^3)=0. 12\phi_0^1(x^3)+0. 82\phi_1^1(x^3).

Функції належності для змінних входу визначаються через базисні поліноми Бернштейна першого порядку $\phi_0^1$, $\phi_1^1$. Вони відповідають нечітким змінним: західний та східний, південний та північний, слабкий та сильний вітер. Визначимо функції належності для висоти хвилі через п'ять B-сплайнів першого порядку побудовані на вузлах {-0. 25; 0; 0. 25; 0. 5; 0. 75; 1; 1. 25}, які відповідають нечітким змінним: штиль, слабке хвилювання, помірне хвилювання, сильне хвилювання, шторм з центрами в точках {0; 0. 25; 0. 5; 0. 75; 1}. Ці точки описують висоту хвилі від 0. 1 до 2. 4 метра. Розв'язавши по дві системи (1) для кожної з трьох підмоделей отримаємо нечітку базу знань з шести простих правил:

Правило 1: якщо вітер західний тоді хвилювання помірне (0. 76) або сильне (0. 24)

Правило 2: якщо вітер східний тоді хвилювання слабке (0. 48) або помірне (0. 52)

Правило 3: якщо вітер південний тоді хвилювання слабке (0. 28) або помірне (0. 72)

Правило 4: якщо вітер північний тоді хвилювання помірне (0. 96) або сильне (0. 04)

Правило 5: якщо вітер слабкий тоді штиль (0. 52) або слабке хвилювання (0. 48)

Правило 6: якщо вітер сильний тоді сильне хвилювання (0. 72) або шторм (0. 28)

На відміну від моделей, які згенеровані за допомогою МГВА, РНМ чи навіть ANFIS, цей набір правил є абсолютно прозорим для експертів. Експерт легко може визначити ступінь впливу того чи іншого фактору. Можна також визначити адекватність моделі реальним представленням експерта про процес. Так, наприклад, очевидно, що північний та західний вітер створюють більші хвилі, ніж південний та східний. Це збігається з уявленнями експертів про процеси в бухті, оскільки вихід у відкрите море з бухти має північно-західний напрям.

В додатках зведені детальні результати побудови прогнозів за допомогою ПРІАМ та їх порівняльний аналіз із результатами отриманими за допомогою МГВА, НМГВА та РНМ. Також додатки містять скріншоти роботи розробленого прототипу інформаційної системи та акти впровадження результатів дисертаційної роботи.

Висновки

1. Проведено аналіз методів прогнозування стохастичних процесів та обґрунтована ефективність застосування нечітких баз знань (НБЗ) побудованих на основі нейронечітких технологій. Встановлено, що основним недоліком побудованих НБЗ є їх експонентна складність, а для синтезу НБЗ пониженої складності доцільно використовувати нейронечіткі моделі у формі Бернштейна.

2. Створена нейронечітка інформаційна технологія синтезу НБЗ квадратичної складності на основі збалансованих нейронечітких моделей у формі Бернштейна, де для обґрунтування декомпозиції моделі у формі Бернштейна на незалежні підмоделі використовується принцип максимуму ентропії.

3. Розвинуто прискорений метод побудови нейронечітких моделей у формі Бернштейна, який для визначення барицентричних координат використовує швидке обернене відображення Кастельжо (ОВК). Швидкодія побудови моделей при цьому зросла в 3-4 рази. Для синтезу робастних нейронечітких моделей у формі Бернштейна вперше запропоновано використовувати еволюційний метод на основі оптимального ОВК.

4. Показано, що байєсівська регресія опорних векторів (БРОВ) дозволяє будувати моделі стохастичних процесів з домінуючою випадковою складовою. Головними перевагами БРОВ є робастність оцінок її параметрів, розв'язання задачі опуклого квадратичного програмування, побудова довірчих інтервалів, здатність прогнозувати на коротких вибірках. Це дозволяє робити прогноз в умовах обмеженої кількості даних при сильній мультиколінеарності і шумі.

...

Подобные документы

  • Моделювання стохастичних процесів методом формуючого фільтра, якщо базовим генератором є блок Band Limited White Noise. Коригування параметрів формуючого фільтра. Моделювання СП методом формуючого фільтра, якщо базовим генератором є блок Random Number.

    курсовая работа [2,9 M], добавлен 26.09.2012

  • Поняття про інформаційні технології, етапи розвитку та види. Огляд сучасних інформаційних технологій. Моделювання факторів ризику знищення людства. Загальна характеристика програмного засобу GPPS – World для дослідження локальних моделей розвитку людства.

    курсовая работа [1,1 M], добавлен 16.05.2016

  • Поняття та властивості інформаційних технологій. Поява персональних комп’ютерів - принципова модернізація ідеї автоматизованого управління. Технічна база і компоненти інформаційних технологій. Завдання сучасних інформаційних технологій, їх класифікація.

    реферат [39,1 K], добавлен 16.08.2010

  • Загальна характеристика комунікацій та інформації. Розвиток інформаційних систем в медичних закладах. Госпітальні інформаційні системи та телемедичні технології. Інформаційні технології в медичній освіті та в науці України, перспективи їх розвитку.

    реферат [28,8 K], добавлен 10.03.2011

  • Роль інформаційних систем і комп’ютерних технологій в удосконаленні управління. Особливості вхідної, вихідної та довідкової інформації. Основи організації машинної інформаційної бази. Інтелектуальні інформаційні системи в економіці. Поняття бази знань.

    курс лекций [1,9 M], добавлен 16.04.2014

  • Стадії життєвого циклу економічної інформаційної системи. Поняття, розвиток економічних інформаційних систем. Класифікація, принципи побудови, функції та інформаційні потоки. Формування вимог до автоматизованої системи. Автоматизація процесів управління.

    реферат [23,9 K], добавлен 03.07.2011

  • Принципи побудови тривимірних зображень у ГІС засобами комп’ютерної графіки. Інформативність та точність моделей, створених на основі растрових і векторних програм. Технологія побудови 3D-карт за допомогою "ArcGIS/3D Analyst" та "MapInfo"/"Поверхность".

    дипломная работа [700,6 K], добавлен 10.05.2015

  • Склад і зміст робіт на стадії впровадження інформаційних систем. Технологія проектування систем за CASE-методом. Порівняльні характеристики інформаційних систем в менеджменті та СППР. Створення бази моделей. Визначення інформаційних систем управління.

    реферат [44,5 K], добавлен 09.03.2009

  • Потреба людини в кодованих сигналах спілкування на ранніх етапах історії. Інформаційні технології - технологічна підтримка природних можливостей людини з накопичення та передачі знань. Властивості інформаційних технологій, їх засоби та користувачі.

    презентация [3,0 M], добавлен 18.11.2015

  • Розрахунок формуючого фільтра, ітераційна коригування його параметрів. Моделювання СП методом формуючого фільтра (ФФ2),), якщо базовим генератором є блок Band Limited White Noise, Random Number. Моделювання та аналіз частотних характеристик ФФ1 і ФФ2.

    курсовая работа [461,9 K], добавлен 08.04.2013

  • Тенденції розвитку інформаційних технологій, зростання складності інформаційних систем, створюваних у різних галузях. Засоби, що реалізують CASE-технологію створення і супроводу інформаційних систем. Автоматизація розробки програмного забезпечення.

    реферат [21,5 K], добавлен 21.03.2011

  • Розробка методів та моделей формування єдиного інформаційного простору (ЄІП) для підтримки процесів розроблення виробів авіаційної техніки. Удосконалення методу оцінювання якості засобів інформаційної підтримки. Аналіз складу програмного забезпечення ЄІП.

    автореферат [506,3 K], добавлен 24.02.2015

  • Використання Інтернет-ресурсів та форми роботи з комп’ютерними навчальними програмами. Підвищення мотивації вивчення англійської мови шляхом використання нових інформаційних технологій у школі. Сучасні підходи до використання інформаційних технологій.

    реферат [29,0 K], добавлен 09.12.2010

  • Вартість інформаційних технологій для бізнесових процесів. Вартість інформації з погляду її специфікації. Визначення ціни інформації виходячи з граничної вартості. Визначення вартості інформації, як суми витрат на її придбання. Сучасні пропозиції.

    реферат [22,1 K], добавлен 22.12.2008

  • Поняття інформаційних технологій, їх види та етапи розвитку. Особливості впровадження сучасних інформаційних технологій у різних сферах діяльності: рівні операційної діяльності, у керуванні та прийнятті управлінських рішень. Перспективи їх розвитку.

    контрольная работа [21,3 K], добавлен 07.02.2011

  • Інформаційний простір бізнесу. Нова роль бібліотеки. Інформаційний ринок у країнах Центральної і Східної Європи. Технології комерційного поширення інформації. Правове середовище інформаційної діяльності. Використання сучасних маркетингових технологій.

    курсовая работа [30,0 K], добавлен 03.04.2004

  • Уточнення змісту понять "технологія", "інформаційні технології" та "інформаційно-комунікаційні технології". Основні методи, методики та зміст інформаційних засобів навчання іншомовного спілкування, що використовуються педагогами вищих навчальних закладів.

    статья [26,8 K], добавлен 31.08.2017

  • Місце процесів оцінки в загальному циклі керування ризиками. Архітектура інтегрованих інформаційних систем. Зміст вхідних і вихідних інформаційних об'єктів. Моделювання в ARIS 5.0. Побудова моделей процесу вироблення стратегії захисту інформації OCTAVE.

    магистерская работа [595,8 K], добавлен 05.06.2011

  • Програмування лінійних процесів, процесів з розгалуженням, регулярних циклічних процесів, ітераційних процесів. Одномірні масиви. Впорядкування одномірних масивів. Двовимірні масиви. Алгоритм лінійних обчислювальних процесів. Програми на мові Pascal.

    лабораторная работа [96,6 K], добавлен 05.11.2008

  • Комбінація методів ринкового регулювання, заснованих на зворотних зв'язках. Аналіз методологій розробки програмного забезпечення. Порівняльний аналіз програмних технологій. Вибір технології доступу до даних. Компонент взаємодії адмінчастини з базою даних.

    дипломная работа [3,0 M], добавлен 02.02.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.