Гибридный генетический метод с градиентным обучением и прогнозированием для решения задач глобальной оптимизации многоэкстремальных функций

Простота реализации процедуры кодирования фенотипа особи в ее эквивалентный генотип как одно из ключевых достоинств генетического алгоритма в вещественных кодах. Анализ зависимости ошибки определения глобального минимума функций от числа итераций.

Рубрика Математика
Вид статья
Язык русский
Дата добавления 27.05.2018
Размер файла 321,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru

Размещено на http://www.allbest.ru

В современных условиях бурного развития информационных технологий решение большинства задач, возникающих в различных областях науки и техники, связано с нахождением глобального оптимума (наилучшего решения) в общем случае невыпуклой, негладкой, многоэкстремальной целевой функции, численно характеризующей выбранный показатель качества (эффективности). Решение подобных задач предполагает использование специальных многоэкстремальных оптимизационных методов, определяющих некоторое правило перебора решений на равномерной/неравномерной сетке по детерминированному или случайному закону. В практике научных решений большое распространение получили алгоритмы глобальной оптимизации, основанные на эволюционных методах, - генетические алгоритмы. Для увеличения эффективности последних, особенно при решении многомерных многоэкстремальных задач, в ряде работ [1-3] предложена комбинация работы генетического алгоритма и некоторого классического градиентного метода локальной оптимизации. В рассматриваемой постановке гибридная генетическая оптимизация предполагает параллельную (раздельную) работу генетического и градиентного методов с постоянным сравнением на каждой k-й итерации лучшего решения с последующей передачей последнего (лидера и вектора лидеров из полученной популяции) на k+1-й итерации градиентному методу.

При этом, с учетом предложенных решений [1-3] и результатов их работы, особый интерес вызывают вопросы, связанные с непосредственным объединением генетических методов с известными методами локального поиска [4-6], а также методов статистического анализа [7] на этапе селекции новой популяции.

Градиентное обучение и прогнозирование при решении задач глобальной оптимизации.

Рассмотрим решение задачи нахождения глобального оптимума многомерной функции:

(1)

где N определяет число переменных функции. При этом в общей постановке функция (1) может быть недифференцируема в некоторых точках, иметь точки разрыва первого и второго рода (может быть определена не для всех точек ). В связи с этим на существенное улучшение сходимости генетического метода при использовании только градиентного обучения особи-лидера популяции при случайном выборе начального приближения (первое поколение), очевидно, не всегда можно рассчитывать. Для увеличения скорости сходимости решения предлагается по выбранному методу локальной оптимизации [4] использовать градиентное обучение всех особей-лидеров с дополнительным применением моделей прогнозирования авторегрессии - скользящего среднего (ARMA) [7] выбранного порядка на этапе мутации популяции и скрещивания с использованием метода параболической интерполяции [5].

Для решения задачи (1) рассмотрим генетический алгоритм в вещественных кодах [8] RGA (real-coded genetic algoritms определяет представление генов особи в популяции в виде вещественного числа) с градиентным обучением и прогнозированием. Предпочтительность использования RGA кодирования заключается в простоте (с позиции минимизации вычислительных затрат) реализации процедуры кодирования/декодирования фенотипа особи в ее эквивалентный генотип, по сути определяющий перевод вещественного значения аргумента к безразмерному виду для интервала по правилу [8]:

где - границы области поиска глобального оптимума функции (1) по переменной .

Последовательность предлагаемого решения заключается в выполнении следующих действий:

1. Задание настраиваемых параметров алгоритма: n - размер популяции; - параметр кроссовера; k - количество привилегированных особей в популяции (особи-лидеры); - границы области поиска глобального оптимума функции (1) по переменной ; p и q - параметры, определяющие порядок модели ARMA(p, q); m = 1 - номер итерации алгоритма; M - предельно допустимое число итераций алгоритма; - первое поколение, определяющее начальное приближение итерационного алгоритма оптимизации функции (1).

2. Вычисление значений целевой функции (1) для j-х особей из полученной m-й итерации популяции.

3. Сортировка значений по возрастанию и выбор лучших особей из m-й популяции.

4. Генерация фенотипов и пары популяций родителей по правилу:

где - белый шум (случайная величина, распределенная по равномерному закону на интервале ); - случайная величина, распределенная по равномерному закону на интервале ; и - коэффициенты модели ARMA (авторегрессионные коэффициенты и коэффициенты скользящего среднего соответственно), определяемые по правилам, представленным в [7].

5. Скрещивание полученных пар популяций родителей с использованием метода параболической интерполяции [5]. В такой постановке фенотипы потомков с учетом [8] задаются отношениями:

где , , - значения целевой функции (1) для j-х особей, заданных соответствующими фенотипами популяций , , .

6. Градиентное обучение по выбранному оптимизационному алгоритму k первых особей-лидеров из сформированной на предыдущем шаге популяции потомков .

Например, в случае градиентного обучения по алгоритму Дэвидона-Флетчера-Пауэлла значения определятся по правилу [4]:

где определяется вектор-столбец матрицы; - матрица, аппроксимирующая матрицу направлений размера для j-й особи на m-м шаге алгоритма (обратную матрицу Гессе), которая определяется в [4] как:

где:

;

Е - единичная матрица; - вектор градиента целевой функции (1).

Величина на каждом шаге определяется из условия:

. (2)

Задача (2) решается численно гибридным методом одномерной безусловной оптимизации, пример реализации которого подробно рассмотрен в [5].

Из полученных значений и с выхода градиентного алгоритма формируется m+1-е поколение . Счетчик итераций увеличивается на единицу: m = m + 1.

7. Проверка выполнения условия остановки итерационного алгоритма. Например, наряду с очевидным условием алгоритм может быть остановлен в случае невыполнения неравенства:

и/или (3)

где - малая величина, определяющая погрешность работы алгоритма.

8. В случае выполнения условия остановки алгоритм завершает работу, а результат решения задачи (1) определяет лидер из сформированной m-й популяции . В противном случае необходимо перейти к шагу 2 алгоритма.

Результаты вычислительного эксперимента. Для сравнительной оценки предложенного модифицированного генетического алгоритма выполним ряд вычислительных экспериментов по определению глобального оптимума следующих тестовых функций:

(4)

где (график функции при N = 2 представлен на рис. 1а);

(5)

где (график функции при N = 2 представлен на рис. 1б);

(6)

где (график функции при N = 2 представлен на рис. 1в);

(7)

где (график функции при N = 2 представлен на рис. 1г).

При определении глобального минимума функций (4) и (5) их размерности принимались N = 2 , N = 50 с заданной популяцией в 20 особей (n = 20), для которой определено 5 особей-лидеров (k = 5). Результаты расчетов фиксировались по запускам алгоритма с последующим усреднением итогового выходного значения. Скорость сходимости предложенной модификации алгоритма с градиентным обучением особей из формируемой популяции методами наискорейшего спуска, Полака-Райбера, Флетчера-Ривса, Дэвидона-Флетчера-Пауэлла (Д-Ф-П), Ньютона-Рафсона [4] оценивалась в сравнении: 1) с гибридным генетическим алгоритмом (ГГА) с градиентным обучением лидера (ГОЛ) [1]; 2) ГГА с градиентным обучением особей-лидеров в популяции (ГООЛ); 3) ГГА с градиентным обучением всех особей в популяции (ГООП). На рис. 2а - г представлены графики зависимости ошибки определения глобального минимума соответствующих целевых функций (4 - 7) при N = 2 методами ГГА с ГОЛ, ГООЛ и ГООП от числа итераций K.

Рис. 1. Графики многоэкстремальных тестовых функций: а - двухмерная функция (4); б - двухмерная функция (5); в - двухмерная функция (6); г - двухмерная функция (7)

Полученные результаты (рис. 2а - г) свидетельствуют о предпочтительности с позиции увеличения скорости сходимости градиентного обучения всех особей из формируемой популяции. Выигрыш в сходимости увеличивается с увеличением числа локальных экстремумов (рис. 2а, б) дифференцируемой целевой функции. При этом не всегда скорость сходимости самого градиентного метода влияет на скорость сходимости итогового ГГА (ГГА с ГООП методом наискорейшего спуска сходится быстрее, чем ГГА с ГООП методом Ньютона-Рафсона для функции (4)). Также увеличение числа локальных экстремумов (рис. 2в), а тем более появление у целевой функции изолированных экстремумов (рис.1г), приводит к существенному ухудшению скорости сходимости ГГА.

На рис. 3а - г представлены графики зависимости ошибки определения глобального минимума соответствующих целевых функций (4 - 7) при N = 2 методами ГГА с ГООП и ГА с предложенной модификацией с прогнозированием по модели ARMA(1, 1) от числа итераций K. Градиентное обучение в обоих случаях выполнено методом наискорейшего спуска. Из полученных результатов следует более высокая скорость сходимости предложенной модификации при меньших вычислительных затратах алгоритма в сравнении с решением по ГГА с ГООП на единичной итерации.

Рис. 2. Графики зависимости ошибки определения глобального минимума функций от числа итераций: а - двухмерная функция (4); б - двухмерная функция (5); в - двухмерная функция (6); г - двухмерная функция (7)

итерация минимум генетический

Однако в целом увеличение скорости сходимости алгоритма не может определить однозначную оценку предпочтительности использования предложенной модификации ГГА. Для окончательной оценки эффективности (вычислительная сложность и скорость сходимости) предложенной модификации ГГА для представленных тестовых функций выполнен следующий итоговый вычислительный эксперимент. Время работы алгоритма при реализации в САПР Mathcad 15 ограничено 2 мин (120 с) для ЭВМ с параметрами: Intel(R) Core(TM) i7-3612QM CPU 2.10 GHz, ОЗУ 8Гб (досрочная остановка алгоритма осуществляется при выполнении условий (3) при ). Выходные данные: средние выборочные значения числа итераций алгоритма Nср, средняя выборочная ошибка определения экстремума целевой функции , среднее время работы алгоритма tср. Результаты указанного эксперимента для размерности целевых функций (4 - 7) N = 50 представлены в таблице. Наиболее удачные (с точки зрения точности оценки) реализации алгоритмов по минимизации тестовых функций выделены серым цветом. Решения, соответствующие наибольшему быстродействию, выделены жирным шрифтом.

Рис. 3. Графики зависимости ошибки определения глобального минимума функций от числа итераций: а - двухмерная функция (4); б - двухмерная функция (5); в - двухмерная функция (6); г - двухмерная функция (7)

Из полученных результатов следует, что применение предложенной модификации генетического алгоритма - градиентного обучения особей-лидеров с прогнозированием - для многомерных произвольных функций в сравнении с известными решениями обладает наибольшей предпочтительностью как с позиции скорости сходимости, так и с позиции минимизации вычислительных затрат. Среднее время, соответствующее нахождению глобального оптимума четвертой тестовой функции по предложенной модификации генетического метода, составляет 16 мин 39,907 с, в то время как ГА с ГООЛ определяет глобальный оптимум в среднем за 21 мин 53,481 с.

Таблица 1. Результаты минимизации функций (4 - 7) для N = 50

Метод

Функция

Nср

tср

ГА

27100

21,9024514018214

29,79925360792027

120

22324

38,39757872980871

192,4039257390211

120

24591

152,74652792666978

36,69114907590211

120

29340

1,69988279437646

4,220515207045037

120

ГА с ГООЛ методом наискорейшего спуска

32

0,000000709919254

2,715

1708

1,658898064508399

8,312464237868622

120

1874

16,634969162167998

3,995875662032455

119,229

2446

1,45886002055269

3,622097312862788

120

ГА с ГООП методом наискорейшего спуска

32

0,000000741159308

6,544

423

1,496438447208582

7,498405925429308

120

483

13,448065408921881

3,230351480971913

120

661

1,60094434477437

3,974868135088967

120

ГА с ГООП методом Д-Ф-П

33

0,00005622897363

7,082

408

1,551314273095953

7,773379626328437

120

459

14,12920302586905

3,393967126995706

120

587

1,63677565873361

4,063831095331676

120

ГА с ГООП методом наискорейшего спуска и прогнозированием по модели ARMA(1, 1)

25

0,000000711750862

5,783

272

0,955943834233087

4,790076681310947

102,2

347

16,2700305474667

3,908213982927143

115,332

316

1,375057467154804

3,414030055417124

120

ГА с ГООП методом Д-Ф-П и прогнозированием по модели ARMA(1, 1)

29

0,000000523342919

7,197

284

1,084864014956676

5,436074416031294

104.818

293

21,9837127642238

5,280694057158421

116,908

271

1,425581654851882

3,539472881948782

120

ГА с ГООЛ методом наискорейшего спуска и прогнозированием по модели ARMA(1, 1)

26

0,000000750496937

1,638

561

0,562101235478331

2,816596461193676

100,695

399

2,255989608985317

0,5419098697726523

113,452

604

1,397845227692615

3,470608126683273

120

На основании полученных результатов можно заключить, что реализация алгоритмов глобальной оптимизации по предложенной модификации генетического метода в направлении объединения с известными методами локального поиска и статистического анализа позволяет повысить эффективность численного решения многомерных многоэкстремальных задач, в особенности связанных со структурно-параметрическим синтезом различных систем [9; 10]. При этом допускается содержание в целевой функции точек разрыва первого и второго рода. В рамках проведенных вычислительных экспериментов с позиции вычислительной сложности определена предпочтительность предварительного прогнозирования фенотипов родителей популяции с последующим скрещиванием по методу параболической интерполяции и градиентным обучением особей-лидеров в сформированной популяции.

Список литературы

1. Тененев В.А. Гибридный генетический алгоритм с дополнительным обучением лидера / В.А. Тененев, Н.Б. Паклин // Интеллектуальные системы в производстве. - 2003. - № 2. - С. 181-206.

2. Дмитриев С.В. Применение прямых методов оптимизации в гибридном генетическом алгоритме / С.В. Дмитриев, В.А. Тененев // Интеллектуальные системы в производстве. - 2005. - № 2. - С. 11-22.

3. Дмитриев С.В. Оптимизация многоэкстремальных функций с помощью гибридных генетических алгоритмов / С.В. Дмитриев, В.А. Тененев // Изв. Ин-та математики и информатики. Ижевск. - 2006. - № 2 (36). - С. 163-166.

4. Васильев Ф.П. Численные методы решения экстремальных задач / Ф.П. Васильев. - М.: Наука, 1980. - 520 с.

5. Полянский И.С. Метод одномерной безусловной оптимизации в задаче оценки развязки парциальных лучей многолучевой антенны зеркального типа / И.С. Полянский // Современные проблемы науки и образования. - 2012. - № 4.

6. Таха Хэмди А. Введение в исследование операций / Хэмди А. Таха. - М.: Вильямс, 2001. - 912 с.

7. Андерсон Т. Статистический анализ временных рядов / Т. Андерсон; пер. с англ. И.Г. Журбенко, В.П. Носко, под ред. Ю.К. Беляева. - М.: Мир, 1976. - 755 с.

8. Herrera F. Tackling real-coded genetic algorithms: operators and tools for the behaviour analysis / F. Herrera, M. Lozano, J.L. Verdegay // Artificial Intelligence Review. - 1998. - Vol. 12. - № 4. - P. 265-319.

9. Еременко В.Т. Методологические аспекты синтеза оптимальной древовидной структуры в системах сбора и обработки информации / В.Т. Еременко, И.С. Полянский, И.И. Беседин // Вестник компьютерных и информационных технологий. - 2013. - № 11. - С. 11-15.

10. Полянский И.С. Алгоритм распределения неоднородных дискретных ограниченных ресурсов в системе физической защиты / И.С. Полянский, И.И. Беседин // Информационные системы и технологии. - 2013. - № 4(78).

Размещено на Allbest.ru

...

Подобные документы

  • Методы нахождения минимума функций градиентным методом наискорейшего спуска. Моделирование метода и нахождение минимума функции двух переменных с помощью ЭВМ. Алгоритм программы, отражение в ней этапов метода на языке программирования Borland Delphi 7.

    лабораторная работа [533,9 K], добавлен 26.04.2014

  • Понятие генетического алгоритма и механизм минимизации функции многих переменных. Построение графика функции и ее оптимизация. Исследование зависимости решения от вида функции отбора родителей для кроссинговера и мутации потомков, анализ результатов.

    контрольная работа [404,7 K], добавлен 04.05.2015

  • Априорный выбор числа итераций в методе простых с попеременно чередующимся шагом. Доказательство сходимости процесса в исходной норме гильбертова пространства. Оценка погрешности и решение неравенств. Случай неединственного решения с попеременной.

    дипломная работа [695,6 K], добавлен 17.02.2012

  • Сравнение методов простой итерации и Ньютона для решения систем нелинейных уравнений по числу итераций, времени сходимости в зависимости от выбора начального приближения к решению и допустимой ошибки. Описание программного обеспечения и тестовых задач.

    курсовая работа [3,1 M], добавлен 26.02.2011

  • Понятия максимума и минимума. Методы решения задач на нахождение наибольших и наименьших величин (без использования дифференцирования), применение их для решения геометрических задач. Использование замечательных неравенств. Элементарный метод решения.

    реферат [933,5 K], добавлен 10.08.2014

  • Формирование функции Лагранжа, условия Куна и Таккера. Численные методы оптимизации и блок-схемы. Применение методов штрафных функций, внешней точки, покоординатного спуска, сопряженных градиентов для сведения задач условной оптимизации к безусловной.

    курсовая работа [1,8 M], добавлен 27.11.2012

  • Нахождение пределов функций. Определение значения производных данных функций в заданной точке. Проведение исследования функций с указанием области определения и точек разрыва, экстремумов и асимптот. Построение графиков функций по полученным данным.

    контрольная работа [157,0 K], добавлен 11.03.2015

  • Синтез вариационного исчисления и метода функций Ляпунова в основе принципа динамического программирования. Метод знакопостоянных функций Ляпунова в решении задач о стабилизации и синтезе управления для нелинейной и автономной управляемых систем.

    курсовая работа [1,2 M], добавлен 17.06.2011

  • Математическое программирование - область математики, в которой изучаются методы решения задач условной оптимизации. Основные понятия и определения в задачах оптимизации. Динамическое программирование – математический метод поиска оптимального управления.

    презентация [112,6 K], добавлен 23.06.2013

  • Метод регуляризующего множителя для решения задачи Гильберта для аналитических функций в случае произвольной односвязной области. Постановка краевой задачи типа Гильберта в классе бианалитических функций, а также решение конкретных примеров задач.

    дипломная работа [4,0 M], добавлен 20.05.2013

  • Доказательство существования или отсутствия алгоритма для решения поставленной задачи. Определение алгоритмической неразрешимости задачи. Понятия суперпозиции функций и рекурсивных функций. Анализ схемы примитивной рекурсии и операции минимизации.

    курсовая работа [79,5 K], добавлен 12.07.2015

  • Исследование методами математического анализа поведения функций при заданных значениях аргумента. Этапы решения уравнения функции и определения значения аргумента и параметра. Построение графиков. Сочетание тригонометрических, гиперболических функций.

    контрольная работа [272,3 K], добавлен 20.08.2010

  • Метод потенциальных функций, его использование для решения задач обучения машин распознаванию образов. Основные понятия: признаки объекта, пространство рецепторов. Алгоритмы, основанные на методе потенциалов. Потенциалы в пространстве рецепторов.

    презентация [123,8 K], добавлен 30.10.2013

  • Особенности ариорного выбора числа итераций в методе простых итераций с попеременно чередующимся шагом для уравнений I рода. Анализ и постановка задачи. Сходимость при точной правой части. Сходимость при приближенной правой части. Оценка погрешности.

    контрольная работа [187,3 K], добавлен 28.05.2010

  • Изучение методов одномерной оптимизации и сравнение эффективности их применения для конкретных целевых функций. Нахождение минимума функции 1/|x-3|3 методами перебора, поразрядного поиска, дихотомии, золотого сечения, средней точки, хорд и Ньютона.

    курсовая работа [761,8 K], добавлен 25.12.2015

  • Использование эквивалентных преобразований. Понятие основных замкнутых классов. Метод минимизирующих карт и метод Петрика. Операция неполного попарного склеивания. Полином Жегалкина и коэффициенты второй степени. Таблицы значений булевых функций.

    контрольная работа [90,4 K], добавлен 06.06.2011

  • Векторы на плоскости и в пространстве. Обыкновенное дифференциальное уравнение. Необходимые формулы для решения задач о касательной. Метод наименьших квадратов. Необходимые определения и формулы для вычисления интегралов. Производные элементарных функций.

    курс лекций [119,3 K], добавлен 21.04.2009

  • Решение задач вычислительными методами. Решение нелинейных уравнений, систем линейных алгебраических уравнений (метод исключения Гаусса, простой итерации Якоби, метод Зейделя). Приближение функций. Численное интегрирование функций одной переменной.

    учебное пособие [581,1 K], добавлен 08.02.2010

  • Выполнение алгебраических преобразований, логическая культура и техника исследования. Основные типы задач с параметрами, нахождение количества решений в зависимости от значения параметра. Основные методы решения задач, методы построения графиков функций.

    методичка [88,2 K], добавлен 19.04.2010

  • Сущность сопряженных направлений, знакомство с основными алгоритмами. Особенности поиска минимума функции методом Пауэлла. Разработка приложений с графическим интерфейсом. Исследование квадратичных функций, решение задач методом сопряженных направлений.

    курсовая работа [2,8 M], добавлен 14.07.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.