Методы оптимизации в АСКТП

Основные принципы управления. Идентификация объектов управления, алгоритмы их оптимизации. Численные, градиентные, квазиньютоновские, комбинированные методы оптимизации. Аналитические методы исследования невыпуклых задач. Сущность проблемы нелокальности.

Рубрика Математика
Вид курс лекций
Язык русский
Дата добавления 07.04.2015
Размер файла 1,7 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Шаг Г. Завершить этот процесс, когда длины шагов будут уменьшены до заданного значения (точность определения точки минимума).

Строгое доказательство сходимости метода Хука-Дживса было дано только в случае строгой выпуклости и непрерывной дифференцируемости целевой функции.

Достоинством алгоритма является то, что его операции очень просты и даже в случае непредвиденных обстоятельств не приводят к запрещенным арифметическим операциям (типа деления на ноль). Еще одним достоинством является то, что алгоритм требует очень мало (порядка n) памяти компьютера. Поиск по образцу ускоряет продвижение алгоритма по дну оврага, а шаги исследующего поиска позволяют приблизительно определить направление градиента.

Недостатком алгоритма является ограничение исследующего поиска только направлениями осей координат, что может привести к преждевременной остановке алгоритма сколь угодно далеко от точки минимума, если направление оврага окажется не параллельным осям координат. Еще один недостаток - большое число вычислений целевой функции.

Были разработаны многие модификации метода поиска по образцу, но все они не являются столь популярными, как оригинальный алгоритм.

Метод вращающихся координат (метод Розенброка)

Суть метода состоит во вращении системы координат в соответствии с изменением скорости убывания целевой функции. Новые направления координатных осей определяются таким образом, чтобы одна из них соответствовала направлению наиболее быстрого убывания целевой функции, а остальные находятся из условия ортогональности. Идея метода состоит в следующем. Из начальной точки осуществляют спуск в точку по направлениям, параллельным координатным осям. На следующей итерации одна из осей должна проходить в направлении а другая - в направлении, перпендикулярном к . Спуск вдоль этих осей приводит в точку, что дает возможность построить новый вектор и на его базе новую систему направлений поиска.

На рисунке новые направления обозначены через q1 и q2.

Построение новых направлений поиска в методе Розенброка

Метод параллельных касательных (метод Пауэлла)

Этот метод использует свойство квадратичной функции, заключающееся в том, что любая прямая, которая проходит через точку минимума функции х* , пересекает под равными углами касательные к поверхностям равного уровня функции в точках пересечения. Суть метода такова. Выбирается некоторая начальная точка и выполняется одномерный поиск вдоль произвольного направления, приводящий в точку. Затем выбирается точка, не лежащая на прямой и осуществляется одномерный поиск вдоль прямой, параллельной Полученная в результате точка вместе с точкой определяет направление одномерного поиска, дающее точку минимума х*. в случае квадратичной функции п переменных оптимальное значение находится за n итераций. Поиск минимума при этом в конечном счете осуществляется во взаимно сопряженных направлениях. В случае не квадратичной целевой функции направления поиска оказываются сопряженными относительно матрицы Гессе.

Геометрическая интерпретация метода Пауэлла

Метод деформируемого многогранника (метод Нелдера--Мида)

Данный метод состоит в том, что для минимизации функции п переменных f(х) в n-мерном пространстве строится многогранник, содержащий (п + 1) вершину. Очевидно, что каждая вершина соответствует некоторому вектору х. Вычисляются значения целевой функции f(х) в каждой из вершин многогранника, определяются максимальное из этих значений и соответствующая ему вершина х[h]. Через эту вершину и центр тяжести остальных вершин проводится проецирующая прямая, на которой находится точка х[q] с меньшим значением целевой функции, чем в вершине х[h] (Рис. 7.6). Затем исключается вершина х[h]. Из оставшихся вершин и точки x[q] строится новый многогранник, с которым повторяется описанная процедура. В процессе выполнения данных операций многогранник изменяет свои размеры, что и обусловило название метода.

Геометрическая интерпретация метода деформируемого многогранника

Метод Нелдера-Мида.

Пусть - некоторая точка 5-мерного пространства , которая лежит в окрестности минимума. В этом пространстве зададим симплекс (правильный 6-вершинный многогранник), одна из вершин которого лежит в т. . Метод Нелдера-Мида на каждом шаге реали-зует исключение из симплекса точки с самым большим значением функции , заменяя ее некоторой “лучшей” точкой. В результате нахо-дится точка , для которой значение функции минимально (с заданной точностью).

Алгоритм метода реализует следующую последовательность действий.

Вводится симплекс, координаты которого заданы таблицей (одна из вершин в начале координат)

Если , то, в частности, для имеем

Расположение симплекса показано на рис. 7.7.

Легко убедиться в том, что если координаты вершины симплекса задавать в соответствии с матрицей , то расстояние между любыми двумя верши-нами симплекса всегда будет равно выбранной константе t независимо от размерности задачи n. Действительно, расстояние между любой вершиной , и вершиной равно

С другой стороны, расстояние между любой парой вершин ,также равно t.

Действительно,

Зададим начальную точку поиска вектором . Перенесем исходный симплекс таким образом, чтобы вершина, находившаяся в начале координат, оказалась в точке . Получим матрицу

Вычислим значения оптимизируемой функции в точках и перенумеруем точки так, чтобы выполнялись неравенства

Найдем координаты центра тяжести фигуры, получающейся в результате удаления вершины

Осуществим отражение вершины относительно центра тяжести. Получим точку . Если то получится зеркальное отражение. Сравним теперь между собой значения. Возможны следующие варианты:

1)

В этом случае выполняется растяжение и отыскивается точка . Параметр обычно принимают равным 1.5. Полученная точка V заменяет, если В противном случае для замены используется точка .

2)

В этом случае реализуется отражение. Точка заменяет .

3)

В этом случае осуществляется сжатие и отыскивается точка . Параметр обычно принимают равным 0.5. Полученная точка заменяет .

4)

При этом осуществляется редукция (уменьшение размера симплекса с подтягиванием всех вершин к ). Координаты вершины нового симплекса рассчитываются по формуле

Критерий останова:

где

Критерий останова является составным. При этом его компоненты имеют различный вес в зависимости от того, каков характер оптимизируемой функции в окрестности экстремума. Если в районе экстремума оптимизируемая функция изменяется по типу ''глубокая впадина'', то больший вклад в численное значение критерия вносит первое слагаемое, а второе при этом быстро уменьшается. Напротив, если оптимизируемая функция изменяется по типу ''пологое плато'', то первое слагаемое быстро становится малым, и поэтому второе слагаемое вносит больший вклад в величину критерия .

Модификация метода Нелдера-Мида. Описанный классический вариант построения алгоритма Нелдера-Мида обладает конструктивным недостатком, который состоит в следующем. Предположим, что оптимизируемая функция двух переменных имеет вид глубокого оврага с очень пологим дном. Тогда может случиться так, что симплекс, который в рассматриваемом случае представляет собой треугольник, двумя вершинами ляжет на дно оврага, а третья вершина окажется на склоне оврага. При этом на очередном шаге произойдет переброс этой вершины на другой склон, а затем редукция или сжатие симплекса. Если склон оврага крутой, то эта процедура повторится много раз, в результате чего симплекс сожмется и может сработать критерий останова, хотя до точки минимума еще может быть очень далеко. Естественное усовершенствование алгоритма состоит в следующем. После срабатывания критерия останова целесообразно над центром тяжести сжавшегося симплекса построить новый, размеры и ориентация которого соответствуют исходному.

Пусть координаты центра тяжести симплекса образуют вектор

Найдем теперь координаты точки такой, что центр тяжести симплекса с длиной ребра, равной t, использующего вершину в качестве начальной, совпадал бы с .

Матрица координат указанного симплекса имеет вид:

Координаты центра тяжести этого симплекса образуют вектор

Теперь координаты точки найдем из равенства

Отсюда

Подставляя вычисленные значения в (7.1), получим требуемый симплекс, используя который продолжим процедуру поиска минимума. Эту процедуру считаем законченной, если после очередного сжатия алгоритм приведет в точку, расстояние от которой до точки предыдущего сжатия не превосходит некоторого, достаточно малого.

Лекция 8. Методы случайного поиска многомерной безусловной минимизации

Метод случайного поиска.

Большую группу методов прямого поиска, требующих знания лишь значений целевой функции, составляют так называемые методы случайного поиска. В отличие от детерминированных методов поиска, рассмотренных нами ранее, методы случайного поиска предполагают использование элемента случайности (например, при определении направления поиска или длины шага), что приводит к качественно новой картине процесса поиска -- траектория движения (спуска) к минимуму становится случайной. Именно это обстоятельство позволяет на базе использования случайного поиска строить алгоритм поиска глобального экстремума. Для алгоритмов случайного поиска характерны простота, универсальность, большая эффективность поиска при оптимизации сложных систем. Рассмотрим лишь некоторые методы случайного поиска.

Расчетной формулой этих методов будет

,

- параметр метода; - какая-либо реализация n - мерного вектора с известным законом распределения.

Очень часто предполагается, что компоненты вектора независимы и распределены равномерно на отрезке .

Генерация случайного вектора основана на датчике случайных чисел, равномерно распределенных на отрезке , который в большинстве современных ЭВМ является встроенной функцией.

Метод ненаправленного случайного поиска

Требуется найти абсолютный минимум функции f(x), где x X. Ненаправленный случайный поиск заключается в построении последовательности 1,2,…,n независимых случайных точек, равномерно распределённых в области X и определении минимального значения целевой функции в этих точках. в этих . Чем больше точек, тем ближе значение k к x*. Под x* понимается точка абсолютного минимума. Метод ненаправленного поиска обеспечивает решение задачи отыскания глобального минимума с вероятностью сколь угодно близкой к единице при достаточно большом количестве экспериментов .

Метод простой случайной оптимизации

Простейший вариант случайного поиска заключается в следующем. В точке хk формируется направление k с помощью датчика единичных случайных векторов, равномерно распределенных по всем направлениям. Делается пробный шаг в этом направлении hпр k (см. рис.2.12). Рабочий шаг формируется, исходя из условий:

Метод простой случайной оптимизации

В результате получаем новое приближение хk+1 = xk + xk . Величина рабочего шага hраб определяется (подбирается) экспериментально. Метод оказывается эффективным в случае крутых целевых функций, вдали от точки экстремума. В районе экстремума эффективность его падает.

Метод наилучшей пробы

Смысл данного метода заключается в следующем. Из точки xk делается т реализаций kj единичных случайных независимых векторов, равномерно распределенных по всем направлениям.

Размещено на http://www.allbest.ru/

Метод наилучшей пробы

С их помощью формируется т проб: {hпрkj }, где hпр -- величина пробного шага. Выбирается наилучшее направление из условия

Рабочий шаг совершается именно в этом направлении

В данном алгоритме в отличие от предыдущего выбору подлежат два параметра hраб и т.

Очевидно, что с увеличением числа проб т наилучшее направление приближается к направлению, обратному градиенту, и в пределе при т совпадает с ним. Преимущество метода по сравнению с градиентным состоит, однако, в том, что здесь может иметь место неравенство т < п, где п -- размерность задачи, а это существенно, особенно при больших п . Кроме того, алгоритм, как и другие методы случайного поиска, обладает возможностью определения глобального экстремума.

К недостаткам метода следует отнести возможность неудачного шага, т.е. шага в направлении возрастания целевой функции, и малую эффективность накопления информации.

Метод с возвратом при неудачном шаге.

На каждом шаге с помощью датчика случайного вектора получаем некоторую реализацию вектора .

.

Если , то шаг признается удачным и осуществляется переход к следующей итерации.

Если уменьшения значения функции не наступает, то шаг признается неудачным и полагается .

Если для достаточно большого окажется, что , то принимается в качестве решения задачи минимизации.

Первый недостаток можно устранить, если использовать, например, следующую модификацию алгоритма:

Однако следует иметь в виду, что выигрыш, полученный за счет исключения возможности неудачного шага, может и не покрыть дополнительных потерь, необходимых для этого исключения, а неудачные шаги как раз являются теми шагами, которые позволяют отыскивать глобальный экстремум (точнее, преодолевать локальные экстремумы).

Малую эффективность накопления информации следует понимать так. Из всех пробных шагов выбирается лишь лучший, все остальные отбрасываются, несмотря на то, что в них содержится информация о поведении целевой функции в районе текущей точки. Очевидно, алгоритм можно улучшить, если принимать решение о направлении рабочего шага не только по результату наилучшей пробы. В простейшем варианте, кроме наилучшей, можно учесть и наихудшую пробу для которой

.

Если окажется, что модуль приращения целевой функции при наихудшей пробе больше модуля приращения целевой функции при наилучшей пробе, то рабочий шаг целесообразно сделать в направлении , т.е.

Пример. Выполним несколько шагов алгоритма наилучшей пробы для нахождения минимума

.

Пусть . Пусть ;

Из датчика получили

; ; ;

; ;

В точке принимает наименьшее из трех значений, причем , следовательно:

.

Делаем второй шаг:

; ; ;

; ;

Отсюда:

.

Вычислительная процедура чрезвычайно проста.

Метод статистического градиента

Как и прежде, из точки хk сделаем т «независимых» проб Вычислим соответствующие приращения целевой функции

и образуем вектор

Вектор называется статистическим градиентом функции f(x) в точке xk. Дело в том, что математическое ожидание направления для линейной целевой функции совпадает с направлением градиента. Следовательно, при конечном числе т направление этого вектора является статистической оценкой градиентного направления. Учитывая сказанное, рабочий шаг выберем как

Данный метод, как и метод наилучшей пробы, может работать при любом т, в том числе, и при т <п, в то время как численная реализация градиентных методов требует проведения п проб для вычисления всех составляющих вектора градиента.

Метод статистического градиента, таким образом, может быть интерпретирован как статистический аналог детерминированного градиентного метода. По отношению к методу наилучшей пробы рассматриваемый метод обладает большой эффективностью накопления информации, что приводит, в частности, к большой стабильности траектории поиска при равном количестве проб.

Метод случайного поиска с направляющей сферой

Эффективность методов поиска часто можно повысить, если наряду с новой информацией, получаемой на каждом шаге, использовать предыдущий опыт. Примером построения такого алгоритма может служить следующий алгоритм, включающий в себя три этапа.

1. Этап анализа. В точке хk делается т независимых проб причем вектор проб kj формируется согласно выражению

где Wk -- единичный вектор памяти, определяющий среднее направление поиска; kj -- j-я реализация единичного случайного вектора с равномерно распределенной по всем направлениям плотностью вероятности; с -- константа, характеризующая долю участия случайного направления в формировании вектора проб.

При с < 1 все пробные шаги укладываются внутри гиперконуса с осью Wk и углом раскрытия 2 arcsinc .

Метод случайного поиска с направляющей сферой

2. Этап принятия решения. На этом этапе определяется направление рабочего шага согласно какому-нибудь конкретному принятому методу. Новое приближение хk+1 определяется согласно соотношению хk+1 = хk + хk , где смещение хk находится одним из рассмотренных выше методов. Так, например, для метода наилучшей пробы:

для метода статистического градиента

3. Этап обучения. Так как выбранное направление смещения хk в общем случае не совпадает с направлением вектора памяти Wk , то, естественно, Wk необходимо поправить. Это можно сделать различными способами, например, так:

где > 0 -- параметр, характеризующий долю участия новой информации при корректировке вектора памяти. В начальный момент при k=0 можно принять W0 =0.

Основным недостатком алгоритма является необходимость выбора четырех параметров: с, , hраб , m , от которых и зависит эффективность алгоритма. Учитывая, что эти параметры должны подбираться экспериментально, представляют интерес модификации рассмотренного метода. Рассмотрим одну из таких модификаций.

Метод случайного поиска с направляющим конусом

Как и раньше, из точки хk делается т проб но на основе использования случайных векторов с равномерно распределенной плотностью внутри гиперконуса с вершиной в точке хk осью, направленной вдоль вектора памяти Wk , и с углом полного раствора .

Метод случайного поиска с направляющей сферой

Направление рабочего смещения хk определим в соответствии с методом наилучшей пробы:

В качестве обновленного вектора Wk+1 примем вектор наилучшей пробы Таким образом, в данном алгоритме выбору подлежат не четыре, а три параметра , hраб , m.

Характерной особенностью двух последних алгоритмов является их «инерционность». Действительно, направление поиска, задаваемое в среднем вектором памяти Wk, не может резко измениться за один шаг. Эта инерционность определяется в одном алгоритме параметрами hраб и , в другом -- параметрами hраб и . Наличие инерционности придает глобальный характер процессу поиска, позволяя преодолевать локальные минимумы и осуществлять поиск вдоль «оврагов» и «хребтов» целевой функции. С другой стороны, процесс поиска должен быть достаточно мобильным. Поэтому при выборе параметров алгоритмов приходится прибегать к компромиссному решению. При рациональном назначении этих параметров алгоритм стимулирует поиск вдоль «оврагов» целевой функции независимо от того, поднимаются они или опускаются, позволяя преодолевать «хребты» по «перевалам» и отыскивать новые районы ее локальных минимумов. Эти алгоритмы хотя и не находят самого глобального минимума, но позволяют выделить те области пространства, где этот- минимум может находиться.

Комбинированные методы

Эти методы применяются для улучшения сходимости методов случайного поиска, а также для ликвидации ряда недостатков детерминированных методов.

Стохастический вариант метода Гаусса-Зейделя. Основной недостаток метода Гаусса-Зейделя - слабая эффективность в случае овражных функций и при наличии ограничений. Этот недостаток может быть устранён, если движение вдоль координатной оси заменить движением в случайном направлении.

Стохастический вариант метода оврагов. В случае многомерных оврагов полезно в начале поиска взять несколько случайных точек x01, x02, …, x0n и произвести спуск на дно оврага в точках x11, x12,…, x1n, далее по этим точкам выбрать направление оврага, например с помощью метода статистического градиента.

Алгоритм случайного перебора локальных экстремумов. Для поиска глобального экстремума можно использовать любой детерминированный метод поиска локального экстремума, комбинируя его со случайным подбором начальных условий поиска. Такой алгоритм поиска является по сути дела алгоритмом случайного перебора локальных экстремумов (рис.8.5) и применим при большом их числе.

Случайный перебор локальных экстремумов

Блуждающий глобальный поиск. Этот метод является статистическим обобщением метода градиентного спуска. Чтобы придать поиску глобальный характер, на траекторию градиентного спуска накладываются случайные отклонения (t), которые создают режим случайного блуждания. Движение точки x(t) в процессе поиска описывается уравнением:

где h - шаг поиска, а под (t), будем понимать n-мерный случайный процесс типа белого шума с нулевым математическим ожиданием и спектральной плотностью 2.

Процесс, описываемый этим выражением, является Марковским случайным процессом диффузионного типа. Плотность распределения вероятности p(x,t) удовлетворяет уравнению Фоккера-Планка-Колмогорова

У этого уравнения существует стационарное решение

Максимальное значение p(x) соответствует точке глобального минимума функции f(x), следовательно наиболее вероятное положение точки x в результате достаточно длительного поиска - это положение глобального минимума.

Существует множество алгоритмов СП, отличающихся друг от друга соотношением случайности и регулярности, способом выбора случайного направления, поведением при успехах и неудачах и т.п.

Завершая раздел, посвященный методам прямого поиска, подчеркнем их достоинства и недостатки.

Достоинства: простота программирования, простота подготовительного этапа, универсальность, устойчивость к ошибкам счета.

Недостатки: весьма сомнительные или отсутствующие гарантии сходимости к решению, большое количество требующих настройки параметров, от которых зависит успех решения, экспоненциальный (обычно) рост объема вычислений в зависимости от размерности.

Общая рекомендация об использовании прямого поиска, выработанная многолетним опытом, может быть сформулирована следующим образом: используйте прямой поиск только в крайнем случае, когда твердо убедитесь, что никакой другой метод не может быть применен, иначе вам придется дорого заплатить за вашу ошибку в выборе метода, так как это приведет к чрезмерным затратам при отсутствии каких-либо гарантий, что будет найдено действительное решение.

Оправданием существованию и применению методов прямого поиска служит тот факт, что при решении реальных задач слишком часто никакой другой метод и не может быть применен.

Проблема нелокальности.

Все методы, которые мы рассматривали выше, не различают локального и глобального минимумов. В случае выпуклых функций никаких проблем не возникает -- любой локальный минимум является глобальным.

В случае невыпуклых функций это обстоятельство превращается в серьёзнейшую проблему.

Невыпуклые функции

Приведем примеры функций (рис. 8.6.), для которых, по-видимому, невозможно предложить ничего другого, кроме перебора значений на достаточно мелкой сетке с последующим уточнением решения, например, методом Ньютона. Представьте себе, что еще и m = dim Rm достаточно велико.

Рассмотрим некоторые рецепты, позволяющие хоть как-то подойти к этой проблеме.

Простейшее -- это "разбросать" по исследуемой области (в которой гарантировано находится минимум функции) некоторое множество начальных точек и из каждой из них спускаться, например, с помощью градиентного метода, в "ближайший" локальный минимум, сравнивая значение функции с уже найденными минимумами.

Более регулярным может оказаться, например, метод тяжелого шарика. Если "шарик достаточно тяжел" (коэффициент b достаточно велик), то метод будет по инерции проскакивать неглубокие локальные минимумы. Однако, при большой инерции он может проскакивать узкие глубокие локальные минимумы, один из которых может оказаться глобальным (рис. 8.7), или, попав в глубокий локальный минимум, не являющийся глобальным, не сможет из него уйти (даже при большой инерции). При малой же инерции шарик может застревать даже в неглубоких локальных минимумах.

Еще один метод -- так называемый овражный метод Гельфанда -- основан на следующей идее: если функция имеет овражную структуру, то надо спуститься на дно оврага, а затем идти вдоль дна оврага. Шаги овражного метода двух типов: шаги спуска и овражные шаги. Шаги спуска начинаются из двух произвольных достаточно близких точек x0 и x1. Каким-нибудь методом, чаще всего, градиентным, спускаются на дно оврага, и получают точки X0 и X1. Затем делают овражный шаг из X0 в направлении X1 - X0 и получают точку x2:

Из точки x2 спускаются опять на дно в точку X2 и делают овражный шаг из X1 в направлении X2 - X1 и т. д.

Овражный метод Гельфанда

Овражный метод позволяет "просмотреть" окрестности дна оврага. Полученные точки можно затем уточнить с помощью локальных методов высокого порядка. Разумеется, применение овражного метода порождает массу вопросов. Например, одним из важных моментов является выбор длины овражного шага. Если шаг велик, то метод "проскакивает" локальные минимумы, если же шаг мал, то регулярного движения вдоль дна оврага не получается, особенно, если дно оврага имеет "уплощения".

Еще один метод поиска глобального минимума -- метод спуск - подъем - перевал. Этот метод состоит из трех циклически повторяющихся этапов. Этап спуска -- это обычный спуск из некоторой начальной точки x0 в ближайший локальный минимум, обычно методом сопряженных градиентов. Критерием попадания в малую окрестность точки локального минимума является "сходимость" итераций. В результате первого этапа мы получаем точку xN = y0, которая служит начальным приближением следующего этапа -- этапа подъема. На этом этапе шаг совершается в направлении "наимедленнейшего" возрастания функции -- направлении собственного вектора оператора f ``(yn), отвечающего наименьшему собственному значению. Это направление находят с помощью специальной процедуры. Таким образом строят последовательность yn, "поднимающуюся по ложбине" до ближайшего "перевала" -- седловой точки функции f. О выходе на "перевал" судят по смене знака некоторой квадратичной формы. После этого описанный трехэтапный цикл повторяется, начиная с последней ("перешедшей перевал") точки yM этапа подъема.

Литература

1. Болнокин В. Д., Чинаев П. И. Анализ и синтез систем автоматического управления на ЭВМ. Алгоритмы и программы. М.: Радио и связь, 1986.

2. Васильев Ф.П. Численные методы решения экстремальных задач. - М.: Наука, 1980.

3. Сухарев А.Г., Тимохов А.В., Федоров В.В. Курс методов оптимизации. - М.: Наука, 1986.

4. Сеа Ж. Оптимизация. Теория и алгоритмы. - М.: Мир, 1973.

5. Геминтерн В. //., Каган Б. М. Методы оптимального проектирования. М.: Энергия, 1980.

6. Гиял Ф., Мюррей У. , Райт М. Практическая оптимизация. М.: Мир, 1985.

7. Ракитский Ю. В., Устинов С. М., Черноруцкий И. Г. Численные методы решения жестких систем. М.: Наука, 1979.

8. Растригин Л. Л. Современные принципы управления сложными объектами. М.: Сов. радио, 1980.

9. Тихонов Л. Я., Лрсенин В. Я. Методы решения некорректных задач. М.: Наука, 197

10. Федоренко Р. П. Приближенное решение задач оптимального управления. М.: Наука, 1978.

11. Методы оптимизации в теории управления: Учебное пособие / И.Г. Черноруцкий.- СПб.: Питер, 2004.- 256 с.

12. Костюк В. И., Широков Л. А. Автоматическая параметрическая оптимизация систем регулирования. -- М.: Энергоиздат, 1981.

13. Гроп Д. Методы идентификации систем. М.: Мир, 1979.

14. Растригин Л. Л., Маджаров Н. Е. Введение в идентификацию объектов управления. М.: Энергия, 1977.

15. Рей У. Методы управления технологическими процессами. М.: Мир, 1983.

16. Тарасов В. С, Веренинов И. Л., Ерунов В. Я. Моделирование технологических процессов с распределенными параметрами. Л.: Изд-во ЛПИ, 1982.

17. Растригин Л. А. Системы экстремального управления. М.: Наука, 1974.

18. Зангвилл У. Нелинейное программирование. Единый подход. - М.: Сов. радио,1973.

19. Дейч А. М. Методы идентификации динамических объектов. М.: Энергия, 1979

20. Эйкхофф П. Основы идентификации систем управления. М.: Мир, 1975.

21. Катковник В, Я. Непараметрическая идентификация и сглаживание данных. М.: Наука, 1985.

Размещено на Allbest.ru

...

Подобные документы

  • Методы условной и безусловной нелинейной оптимизации. Исследование функции на безусловный экстремум. Численные методы минимизации функции. Минимизация со смешанными ограничениями. Седловые точки функции Лагранжа. Использование пакетов MS Excel и Matlab.

    лабораторная работа [600,0 K], добавлен 06.07.2009

  • Формирование функции Лагранжа, условия Куна и Таккера. Численные методы оптимизации и блок-схемы. Применение методов штрафных функций, внешней точки, покоординатного спуска, сопряженных градиентов для сведения задач условной оптимизации к безусловной.

    курсовая работа [1,8 M], добавлен 27.11.2012

  • Математическое программирование - область математики, в которой изучаются методы решения задач условной оптимизации. Основные понятия и определения в задачах оптимизации. Динамическое программирование – математический метод поиска оптимального управления.

    презентация [112,6 K], добавлен 23.06.2013

  • Поиск оптимальных значений некоторых параметров в процессе решения задачи оптимизации. Сравнение двух альтернативных решений с помощью целевой функции. Теорема Вейерштрасса. Численные методы поиска экстремальных значений функций. Погрешность решения.

    презентация [80,6 K], добавлен 18.04.2013

  • Рассмотрение эффективности применения методов штрафов, безусловной оптимизации, сопряженных направлений и наискорейшего градиентного спуска для решения задачи поиска экстремума (максимума) функции нескольких переменных при наличии ограничения равенства.

    контрольная работа [1,4 M], добавлен 16.08.2010

  • Математическая задача оптимизации. Минимум функции одной и многих переменных. Унимодальные и выпуклые функции. Прямые методы безусловной оптимизации и минимизации, их практическое применение. Методы деления отрезка пополам (дихотомия) и золотого сечения.

    курсовая работа [2,0 M], добавлен 26.08.2009

  • Проектирование методов математического моделирования и оптимизации проектных решений. Использование кусочной интерполяции при решении задач строительства автомобильных дорог. Методы линейного программирования. Решение специальных транспортных задач.

    методичка [690,6 K], добавлен 26.01.2015

  • Численные методы поиска безусловного экстремума. Задачи безусловной минимизации. Расчет минимума функции методом покоординатного спуска. Решение задач линейного программирования графическим и симплексным методом. Работа с программой MathCAD.

    курсовая работа [517,9 K], добавлен 30.04.2011

  • Оптимизация как раздел математики, ее определение, сущность, цели, формулировка и особенности постановки задач. Общая характеристика различных методов математической оптимизации функции. Листинг программ основных методов решения задач оптимизации функции.

    курсовая работа [414,1 K], добавлен 20.01.2010

  • Изучение методов одномерной оптимизации и сравнение эффективности их применения для конкретных целевых функций. Нахождение минимума функции 1/|x-3|3 методами перебора, поразрядного поиска, дихотомии, золотого сечения, средней точки, хорд и Ньютона.

    курсовая работа [761,8 K], добавлен 25.12.2015

  • Сущность и характеристика метода покоординатного спуска (метод Гаусса-Зейделя). Геометрическая интерпретация метода покоординатного спуска для целевой функции z=(x,y). Блок-схема и алгоритм для написания программы для оптимизации методом Хука-Дживса.

    контрольная работа [878,3 K], добавлен 26.12.2012

  • Численные методы представляют собой набор алгоритмов, позволяющих получать приближенное (численное) решение математических задач. Два вида погрешностей, возникающих при решении задач. Нахождение нулей функции. Метод половинного деления. Метод хорд.

    курс лекций [81,2 K], добавлен 06.03.2009

  • Численные методы решения систем линейных алгебраических уравнений, алгоритмы, их реализующие. Нормы матриц и векторов, погрешность приближенного решения системы и обусловленность матриц. Интеграционные методы решения: методы простой итерации, релаксации.

    учебное пособие [340,6 K], добавлен 02.03.2010

  • Математическая формулировка задачи, существующие численные методы и схемы алгоритмов. Интерполирование функции, заданной в узлах, методом Вандермонда. Среднеквадратичное приближение функции. Вычисление интеграла функций по составной формуле трапеций.

    курсовая работа [3,4 M], добавлен 14.04.2009

  • Общие свойства функций. Правила дифференциального исчисления. Неопределенный и определенный интегралы, методы их вычисления. Функции нескольких переменных, производные и дифференциалы. Классические методы оптимизации. Модель потребительского выбора.

    методичка [2,0 M], добавлен 07.01.2011

  • Численные методы решения систем линейных уравнений: Гаусса, простой итерации, Зейделя. Методы аппроксимации и интерполяции функций: неопределенных коэффициентов, наименьших квадратов. Решения нелинейных уравнений и вычисление определенных интегралов.

    курсовая работа [322,7 K], добавлен 27.04.2011

  • Понятие и отличительные особенности численных методов решения, условия и возможности их применения. Оптимизация функции одной переменной, используемые методы и закономерности их комбинации, сравнение эффективности. Сущность и разновидности интерполяции.

    реферат [273,3 K], добавлен 29.06.2015

  • Понятие о многокритериальной оптимизации. Линейное и математическое программирование, дающие численные решения многомерных задач с ограничениями. Решение задачи на ранжирование для определения оптимального объекта, исходя из определяющих его параметров.

    реферат [254,5 K], добавлен 31.05.2014

  • Выполнение алгебраических преобразований, логическая культура и техника исследования. Основные типы задач с параметрами, нахождение количества решений в зависимости от значения параметра. Основные методы решения задач, методы построения графиков функций.

    методичка [88,2 K], добавлен 19.04.2010

  • Составление уравнения Эйлера, нахождение его общего решения. Нахождение с использованием уравнения Эйлера-Лагранжа оптимального управления, минимизирующего функционал для системы. Использование метода динамического программирования для решения уравнений.

    контрольная работа [170,3 K], добавлен 01.04.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.