Составление и реализация моделей для задач нелинейного программирования

Решение задач условной оптимизации методом Лагранжа. Градиентные методы решения задач безусловной оптимизации. Метод дробления шага. Оптимизационные задачи для выпуклых функций. Решение задачи нелинейного программирования методом допустимых направлений.

Рубрика Экономико-математическое моделирование
Вид курсовая работа
Язык русский
Дата добавления 07.12.2012
Размер файла 446,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Содержание

Введение

Глава I. Постановка задачи нелинейного программирования

Глава II. Методы решения задач нелинейного программирования

Глава III. Пример решения задачи нелинейного программирования методом допустимых направлений

Заключение

Список использованной литературы

Введение

Многие задачи оптимизации решений, возникающие в процессе планирования, не могут быть решены с помощью линейных методов. Например, иногда затраты (3) в производстве растут не пропорционально количеству (N) произведенной продукции (3 = Зед х N), а нелинейно. Зная нелинейный закон (квадратичный или какой-либо другой) и условия, ограничивающие объем выпуска различной продукции, можно попытаться найти оптимальный план объема выпуска для будущего производства. При закупке товаров оптом затраты также могут меняться нелинейно в зависимости от объема закупки и количества закупок. Объясним некоторые причины нелинейного изменения затрат.

* Возможности производства (мощности, количество единиц оборудования, энергообеспечение и т.д.) не всегда соответствуют поставленным задачам; поэтому часто приходится "на ходу", параллельно с выпуском ограниченного количества продукции перестраивать производство под большие объемы; затраты при этом растут непропорционально количеству выпускаемого товара.

* Некоторые технологические процессы изготовления продукции требуют непрерывного потока материальных ресурсов (сырья, материалов, энергоресурсов, химических веществ и т.д.), причем эти потоки со временем могут увеличиваться непропорционально количеству выпускаемой продукции, а следовательно, нелинейно увеличиваются и затраты.

* В некоторых случаях износ оборудования в производстве требует затрат, которые растут непропорционально количеству производимой на этом оборудовании продукции.

* На заключительных стадиях внедрения и эксплуатации высокопроизводительного оборудования, когда оно уже окупает себя, затраты могут нелинейно уменьшаться с увеличением выпуска продукции.

* При закупке товаров оптом затраты могут нелинейно расти или падать, в зависимости от частоты и величины оптовых закупок.

Общих (унифицированных) способов решения задач нелинейной оптимизации не существует. В каждой конкретной ситуации способ решения выбирается в зависимости от вида функции (затрат или доходов) и накладываемых ограничений, например, по количеству продукции, по допустимым затратам, по возможному распределению ресурсов.

Данная работа рассматривает лишь некоторые случаи составления и реализации моделей для задач нелинейного программирования, в частности:

Ш постановки задач нелинейного программирования;

Ш наиболее употребляемых методов решения задач нелинейного программирования.

Для написания работы использована литература по нелинейному программированию («Математические методы моделирования экономических систем», авторы Бережная Е. В., Бережной В. И.; «Исследование операций», автор Давыдов Э. Г.; «Введение в теорию линейного и выпуклого программирования», авторы Еремин И. И., Астафьев Н. Н.).

Глава I. Постановка задачи нелинейного программирования

Как уже упоминалось во введении, предположение о возможности описать зависимости между управляемыми переменными с помощью линейных функций далеко не всегда адекватно природе моделируемого объекта. Например, в экономических моделях цена товара считается независимой от количества произведенного продукта, однако в повседневной жизни мы постоянно сталкиваемся с тем, что она может зависеть от объема партии товара. Аналогичные замечания могут быть сделаны и по поводу технологических ограничений: расход определенных видов сырья и ресурсов происходит не линейно, а скачкообразно (в зависимости от объема производства). Попытки учесть эти факторы приводят к формулировке более общих и сложных оптимизационных задач. Изучение методов их решения составляет предмет научной области, получившей названия нелинейного программирования.

Общая задача нелинейного программирования (ОЗНП) определяется как задача нахождения максимума (или минимума) целевой функции f(x{, х2,..., хп) на множестве D, определяемом системой ограничений

(1)

где хотя бы одна из функций f или gi является нелинейной.

По аналогии с линейным программированием ЗНП однозначно определяется парой (D,f) и кратко может быть записана в следующем виде

(2)

Также очевидно, что вопрос о типе оптимизации не является принципиальным. Поэтому мы, для определенности, в дальнейшем по умолчанию будем рассматривать задачи максимизации.

Как и в ЗЛП, вектор называется допустимым планом, а если для любого xD выполняется неравенство , то х* называют оптимальным планом. В этом случае х* является точкой глобального максимума.

С точки зрения экономической интерпретации f(x) может рассматриваться как доход, который получает фирма (предприятие) при плане выпуска х, а как технологические ограничения на возможности выпуска продукции. В данном случае они являются обобщением ресурсных ограничений в ЗЛП

Задача (2) является весьма общей, т. к. допускает запись логических условий, например:

или запись условий дискретности множеств:

Набор ограничений, определяющих множество D, при необходимости всегда можно свести либо к системе, состоящей из одних неравенств:

либо, добавив фиктивные переменные у, к системе уравнений:

Перечислим свойства ЗИП, которые существенно усложняют процесс их решения по сравнению с задачами линейного программирования:

1. Множество допустимых планов D может иметь очень сложную структуру (например, быть невыпуклым или несвязным).

Глобальный максимум (минимум) может достигаться как внутри множества D, так и на его границах (где он, вообще говоря, будет не совпадать ни с одним из локальных экстремумов).

3. Целевая функция f может быть недифференцируемой, что затрудняет применение классических методов математического анализа.

В силу названных факторов задачи нелинейного программирования настолько разнообразны, что для них не существует общего метода решения.

Глава II. Методы решения задач нелинейного программирования

Решение задач условной оптимизации методом Лагранжа. Одним из наиболее общих подходов к решению задачи поиска экстремума (локального максимума или минимума) функции при наличии связующих ограничений на ее переменные (или, как еще говорят, задачи условной оптимизации) является метод Лагранжа. Многим читателям он должен быть известен из курса дифференциального исчисления. Идея данного метода состоит в сведении задачи поиска условного экстремума целевой функции

(3)

на множестве допустимых значения D, описываемом системой уравнений

(4)

к задаче безусловной оптимизации функции

Ф(x,u) = f(x1,x2,...,xn)+ulgl(xi,x2,...,xn)+...+ungm(xl,x2,...,xn), (5)

где -- вектор дополнительных переменных, называемых множителями Лагранжа. Функцию Ф(х,и), где , , называют функцией Лагранжа. В случае дифференцируемое™ функций f и gi справедлива теорема, определяющая необходимое условие существования точки условного экстремума в задаче (3)-(4). Поскольку она непосредственно относится к предмету математического анализа, приведем ее без доказательства.

Теорема 1. Если х* является точкой условного экстремума функции (3) при ограничениях (4) и ранг матрицы первых частных производных функций

равен т, то существуют такие , не равные одновременно нулю, при которых

(6)

Из теоремы (1) вытекает метод поиска условного экстремума, получивший название метода множителей Лагранжа, или просто метода Лагранжа. Он состоит из следующих этапов.

1. Составление функции Лагранжа Ф(х,и).

Нахождение частных производных

и

3. Решение системы уравнений

(7)

относительно переменных х и и.

4. Исследование точек, удовлетворяющих системе (7), на максимум (минимум) с помощью достаточного признака экстремума.

Присутствие последнего (четвертого) этапа объясняется тем, что теорема (1) дает необходимое, но не достаточное условие экстремума. Положение дел с достаточными признаками условного экстремума обстоит гораздо сложнее. Вообще говоря, они существуют, но справедливы для гораздо более частных ситуаций (при весьма жестких предпосылках относительно функций f и gi) и, как правило, трудноприменимы на практике. Еще раз подчеркнем, что основное практическое значение метода Лагранжа заключается в том, что он позволяет перейти от условной оптимизации к безусловной и, соответственно, расширить арсенал доступных средств решения проблемы. Однако нетрудно заметить, что задача решения системы уравнений (7), к которой сводится данный метод, в общем случае не проще исходной проблемы поиска экстремума (3)-(4). Методы, подразумевающие такое решение, называются непрямыми. Они могут быть применены для весьма узкого класса задач, для которых удается получить линейную или сводящуюся к линейной систему уравнений (7). Их применение объясняется необходимостью получить решение экстремальной задачи в аналитической форме (допустим, для тех или иных теоретических выкладок). При решении конкретных практических задач обычно используются прямые методы, основанные на итеративных процессах вычисления и сравнения значений оптимизируемых функций.

Градиентные методы решения задач безусловной оптимизации. Ведущее место среди прямых методов решения экстремальных задач занимает градиентный метод (точнее, семейство градиентных методов) поиска стационарных точек дифференцируемой функции. Напомним, что стационарной называется точка, в которой и которая в соответствии с необходимым условием оптимальности является «подозрительной» на наличие локального экстремума. Таким образом, применяя градиентный метод, находят множество точек локальных максимумов (или минимумов), среди которых определяется максимум (или минимум) глобальный.

Идея данного метода основана на том, что градиент функции указывает направление ее наиболее быстрого возрастания в окрестности той точки, в которой он вычислен. Поэтому, если из некоторой текущей точки х(1) перемещаться в направлении вектора , то функция f будет возрастать, по крайней мере, в некоторой окрестности х(1).

Следовательно, для точки , , лежащей в такой окрестности, справедливо неравенство . Продолжая этот процесс, мы постепенно будем приближаться к точке некоторого локального максимума (см. рис. 1).

Однако как только определяется направление движения, сразу же встает вопрос о том, как далеко следует двигаться в этом направлении или, другими словами, возникает проблема выбора шага , в рекуррентной формуле

(8)

задающей последовательность точек, стремящихся к точке максимума.

В зависимости от способа ее решения различают различные варианты градиентного метода. Остановимся на наиболее известных из них.

Метод наискорейшего спуска

Название метода можно было бы понимать буквально, если бы речь шла о минимизации целевой функции. Тем не менее, по традиции такое название используется и при решении задачи на максимум.

Пусть f(x) = f(xl,xl,...xn) -- дифференцируемая функция, заданная на Rn, а -- некоторая текущая точка. Оговоримся, что каких-либо общих рекомендаций, касающихся выбора исходной точки (или, как еще говорят, начального приближения) x(0), не существует, однако по возможности она должна находиться близко от искомого оптимального плана х*. Как уже говорилось выше, если x(q) -- нестационарная точка (т. е. ), то при движении в направлении функция f(x) на некотором промежутке обязательно будет возрастать. Отсюда возникает естественная идея такого выбора шага, чтобы движение в указанном направлении продолжалось до тех пор, пока возрастание не прекратится. Для этого выразим зависимость значения f(x) от шагового множителя > 0 , полагая

(9)

или, в координатной форме,

(10)

Чтобы добиться наибольшего из возможных значений f при движении по направлению , нужно выбрать такое значение , которое максимизирует функцию . Для вычисления , используется необходимое условие экстремума . Заметим, что если для любого >0 , то функция f(x) не ограничена сверху (т. е. не имеет максимума). В противном случае, на основе (10) получаем

(11)

что, в свою очередь, дает

(12)

Если считать, что следующая точка соответствует оптимальному значению , то в ней должно выполняться условие , и следует находить из условия или

(13)

Условие (13) означает равенство нулю скалярного произведения градиентов функции f точках х(q+1) и х(q) Геометрически оно может быть интерпретировано как перпендикулярность векторов градиентов функции f в указанных точках, что и показано на рис. Продолжая геометрическую интерпретацию метода наискорейшего спуска, отметим, что в точке х(q+1) вектор , будучи градиентом, перпендикулярен линии уровня, проходящей через данную точку. Стало быть, вектор является касательным к этой линии. Итак, движение в направлении градиента следует продолжать до тех пор, пока он пересекает линии уровня оптимизируемой функции.

После того как точка х(q+1) найдена, она становится текущей для очередной итерации. На практике признаком достижения стационарной точки служит достаточно малое изменение координат точек, рассматриваемых на последовательных итерациях. Одновременно с этим координаты вектора должны быть близки к нулю.

Метод дробления шага

Для нахождения шага , в методе наискорейшего спуска требуется решить уравнение (13), которое может оказаться достаточно сложным. Поэтому часто ограничиваются «подбором» такого значения , что . Для этого задаются некоторым начальным значением 1 (например, 1 =1) и проверяют условие . Если оно не выполняется, то полагают

и т. д. до тех пор, пока не удается найти подходящий шаг, с которым переходят к следующей точке х(q+1). Критерий завершения алгоритма, очевидно, будет таким же, как и в методе наискорейшего спуска.

Оптимизационные задачи для выпуклых функций. Общим недостатком рассмотренных выше методов безусловной оптимизации было, с одной стороны, то, что они позволяют отыскивать только точки, подозрительные на локальный экстремум, а с другой -- то, что найденные решения могут существенно зависеть от начального приближения. Поиск глобального оптимума подразумевает перебор найденных точек, который, в случае градиентных методов, может быть осуществлен за счет подбора соответствующих начальных приближений х(0).

лагранж нелинейный дробление шаг

Рис. 1

Рис. 2

Однако существует один класс функций, для которых градиентные методы приводят к нахождению глобального оптимума. Это выпуклые функции.

>Функция называется выпуклой в области D, если для любых двух точек и любого выполняется неравенство

(14)

если же

(15)

то функция называется вогнутой.

Геометрический смысл понятий выпуклости и вогнутости для случая функции одной переменной представлен на рис. 3. Из него, в частности, видно, что график выпуклой функции лежит ниже отрезка, соединяющего точки и , а график вогнутой -- выше.

Рис. 3

Можно доказать, что достаточным условием выпуклости функции является положительная определенность матрицы

называемой также матрицей Гессе, во всех точках xD.

Соответственно, достаточным условием вогнутости является отрицательная определенность матрицы Гессе. В частности, для функций одной переменной достаточным условием выпуклости (вогнутости) является выполнение неравенства

.

Как следует из геометрической интерпретации, для выпуклой функции локальный экстремум, если он существует, совпадает с глобальным. Справедлива теорема.

Теорема Если f(x) выпуклая (вогнутая) на Rn функция и то х* точка глобального минимума (максимума).

Доказательство.

Доказательство достаточно провести для случая вогнутой функции, т. к. для противоположного случая оно будет абсолютно аналогичным с точностью до знака.

Пусть х -- произвольная точка, отличная от точки х*. Тогда, для любого , в силу вогнутости функции f(x) будет выполняться

из чего следует

Если ввести вектор l = х -- х* и обозначить , то длина вектора будет равна . Следовательно,

Устремив и учитывая, что вектор l сонаправлен с , получим

По условию теоремы . Это означает, что для любого вектора l (а, стало быть, для любой точки х) согласно формуле, выражающей производную по направлению через градиент,

Следовательно, для любой точки х, не равной х*, справедливо неравенство , т.е. х* -- точка глобального максимума.

Поскольку выпуклые функции обладают столь «полезными» оптимизационными качествами, они занимают исключительно важное место в теории исследования операций. Соответствующий раздел получил название выпуклого программирования, а общая задача выпуклого программирования формулируется как проблема поиска максимума вогнутой (минимума выпуклой) функции на выпуклом множестве.

Метод допустимых направлений. Данный метод также называется методом возможных направлений или же по имени автора -- методом Зойтендейка. Его основную идею будет удобно продемонстрировать на примере ЗИП с ограничениями в форме неравенств:

(16)

В указанном методе так же, как и в градиентных методах, находится последовательность точек таких, что . При этом переход от точки х(q) к точке происходит по некоторому выбранному направлению s(q) с шаговым множителем :

(17)

По отношению к векторам, задающим направления перемещения, вводятся два фундаментальных понятия.

>Направление s называется допустимым (возможным) в точке , если существует такое , что .

>Направление s называется прогрессивным в точке , если существует такое , что f(x(q) +s) > f(x(q)) для задачи максимцзации и f(x(q) +s) < f(x(q)) для задачи минимизации.

На основе данных определений достаточно просто сформулировать критерий проверки оптимальности точки (так называемый критерий оптимальности в терминах допустимых и прогрессивных направлений):

> точка х* является оптимальным планом задачи (16), если в ней ни одно допустимое направление не является прогрессивным.

В алгоритме метода допустимых направлений правила выбора точки к которой происходит очередной переход, различаются в зависимости от того, где находится текущая точка . Принципиально возможны две ситуации.

1°. Точка лежит внутри области D, т. е. для всех i 1 : т (см. рис. 4). Очевидно, что для внутренней точки любое направление будет допустимым (при выборе достаточно малого шага), поэтому естественным представляется движение в сторону «гарантированного» возрастания значения функции, а именно в направлении градиента. Значит, для внутренней точки целесообразно выбрать .

Рис. 4

Рис. 5

Шаговый множитель выбирается так, чтобы, с одной стороны, новая точка принадлежала D, а с другой -- значение целевой функции в ней было как можно большим.

C этой целью сначала найдем промежуток из условия , для чего необходимо решить систему неравенств:

(18)

Зная промежуток , определяем значение шагового множителя из условия максимизации значения функции в направлении :

(19)

Вновь найденная точка может находиться или внутри области D, или на ее границе. В первом случае (на рис. 4 ему соответствует точка ) переходим к началу данного пункта и повторяем вышеописанные действия, а во втором (точка на рис. 4) -- действуем по рассматриваемой далее схеме.

2. Точка х(q) находится на границе области (см. рис. 5). Это означает, что одно или несколько неравенств из системы ограничений задачи (16) выполняются как строгие равенства: . Например, на рис. 5 и .

Ограничение, которое в текущей точке выполняется как равенство, называют активным. Множество номеров активных ограничений в точке будем обозначать как . В примере, изображенном на рис. 5, I(x(q)) = {l, 3}. Также из рисунка видно, что все допустимые направления, исходящие из точки x^q\ должны образовывать тупые углы с векторами градиентов функций, задающих активные ограничения в данной точке. Последнее условие может быть выражено через задание ограничений на значения скалярных произведений вектора направления s на градиенты функции ограничений:

(20)

(21)

где Iл -- множество номеров индексов линейных ограничений, Iн -- множество номеров индексов нелинейных ограничений. Соответственно, -- номера линейных активных ограничений, a -- номера нелинейных активных ограничений. Отличие условий (20) от условий (21) заключается в том, что в случае линейного ограничения направление, образующее прямой угол с градиентом ограничивающей функции (т. е. их скалярное произведение равно нулю), будет заведомо допустимым, а в случае нелинейного ограничения -- возможно, нет.

Все возможные направления в точке образуют так называемый конус допустимых направлений, и из них для следующего перехода, очевидно, нужно выбрать прогрессивное. Если такового не существует, то согласно сформулированному выше критерию точка является оптимальной! Для ускорения максимизации функции желательно, чтобы угол между искомым допустимым прогрессивным направлением и градиентом целевой функции был как можно меньше или, что то же самое, как можно большей была бы проекция s на (при условиях нормировки вектора ). Иными словами, желательно, чтобы неравенство выполнялось при минимально возможном . Тогда задачу отыскания наилучшего допустимого прогрессивного направления можно свести к задаче минимизации параметра :

(22)

при условиях

(23)

где -- условие нормировки, обеспечивающее ограниченность решения;

-- некоторое достаточно малое число, характеризующее «строгость» выполнения неравенств.

В отличие от всех остальных, последнее условие в системе (23) является нелинейным, что существенно усложняет процесс решения задачи (22)-(23). Поэтому на практике для определения направления (возможно, не лучшего) переходят от данной задачи к задаче линейного программирования путем замены указанных выше условий нормировки на ограничения вида

(24)

(25)

где , .

После того как прогрессивное направление s(q) найдено, шаговый множитель определяется по методу, описанному в п. 1.

Также отметим, что при практических расчетах алгоритм завершается при достижении такой точки х*, в которой , где -- достаточно малое число.

Представляется полезным обратить внимание и на то, что применяемый для решения задач линейного программирования симплекс-метод может быть рассмотрен как частный случай метода допустимых направлений. В частности, этап выбора столбца, вводимого в очередной базис, соответствует определению допустимого прогрессивного направления.

Глава III. Пример решения задачи нелинейного программирования методом допустимых направлений

лагранж нелинейный дробление шаг

Рассмотрим процесс применения метода допустимых направлений на конкретном примере. Пусть дана ЗНП:

(26)

(27)

Итерация 1. В качестве начального приближения возьмем точку х(1) = (0,0). Нетрудно заметить, что она удовлетворяет системе неравенств (27), т. е. . Для х(1) все неравенства выполняются как строгие, т. е. множество индексов активных ограничений . Следовательно, в х(1) любое направление является допустимым, и нам остается определить, с каким шагом , можно двигаться вдоль градиента целевой функции . Система неравенств типа (18), из решения которых определяется интервал допустимых значений для , для данной задачи примет вид:

Тогда

достигается при . Отсюда получаем следующую точку

Итерация 2. Путем подстановки координат точки х(2) в (27) определим множество активных ограничений в точке . Соответственно, задача (24) - (25), которую требуется решить для определения допустимого прогрессивного направления s(2) с учетом того, что и , примет вид:

В данном случае оптимальный план ЗЛП находится довольно просто и равен . Отбросив дополнительную переменную , получаем вектор s(2) = (1,0), т. е. очередная точка будет определяться как

Действуя по аналогии с предыдущей итерацией, для определения промежутка допустимых значений шагового множителя составляем систему неравенств (18):

Окончательно имеем .

Тогда

достигается при . Отсюда получаем следующую точку x(3) = (3,4).

Итерация 3. В точке х(3) множество активных ограничений будет иметь вид . Найдем значения градиентов: , и .

Задача определения допустимого прогрессивного направления (24)-(25) будет иметь вид

Значение т из практических соображений следует брать достаточно малым, например = 0,001 . Опуская решение данной задачи, приведем интересующие нас компоненты ее оптимального плана: s(3) = (0,0). Итак, не существует прогрессивного направления, исходящего из точки х(3). Таким образом, оптимальный план рассматриваемой задачи (26)-(27) х* = (4,3), а максимальное значение целевой функции .

Графическая иллюстрация проведенного процесса решения представлена графически на рис. 6.

Рис 6.

Заключение

Делая вывод по работе, можно сказать, что задачи нелинейного программирования можно классифицировать в соответствии с видом функции F(x), функциями ограничений и размерностью вектора х (вектора решений). В самом общем виде классификация представлена в таблице.

Общих способов решения, аналогичных симплекс-методу линейного программирования, для нелинейного программирования не существует. В каждом конкретном случае способ выбирается в зависимости от вида функции F(x).

Задачи нелинейного программирования на практике возникают довольно часто, когда, например, затраты растут не пропорционально количеству закупленных или произведённых товаров.

Многие задачи нелинейного программирования могут быть приближены к задачам линейного программирования, и найдено близкое к оптимальному решению. Встречаются задачи квадратичного программирования, когда функция есть F(x) полином 2-ой степени относительно переменных, а ограничения линейны. В ряде случаев может быть применён метод штрафных функций, сводящей задачу поиска экстремума при наличии ограничений к аналогичной задаче при отсутствии ограничений, которая обычно решается проще. Но в целом задачи нелинейного программирования относятся к трудным вычислительным задачам.

При их решении часто приходится прибегать к приближенным методам оптимизации.

Мощным средством для решения задач нелинейного программирования являются численные методы. Они позволяют найти решение задачи с заданной степенью точности.

Список использованной литературы

Бережная Е. В., Бережной В. И. Математические методы моделирования экономических систем. М.: Финансы и статистика, 2001 - 368 с.

Большаков А. С. Моделирование в экономике и менеджменте. М.: ФИЛИНЪ, 2000 - 464 с.

Давыдов Э. Г. Исследование операций: Учеб. пособие для студентов вузов. М., 2000 - 512 с.

Еремин И. И., Астафьев Н. Н. Введение в теорию линейного и выпуклого программирования. М., 2002 - 432 с.

Размещено на Allbest.ru

...

Подобные документы

  • Аналитические и численные методы безусловной оптимизации. Метод исключения и метод множителей Лагранжа (ММЛ). Метод Эйлера – классический метод решения задач безусловной оптимизации. Классическая задача условной оптимизации. О практическом смысле ММЛ.

    реферат [387,0 K], добавлен 17.11.2010

  • Применение методов нелинейного программирования для решения задач с нелинейными функциями переменных. Условия оптимальности (теорема Куна-Таккера). Методы условной оптимизации (метод Вульфа); проектирования градиента; штрафных и барьерных функций.

    реферат [3,2 M], добавлен 25.10.2009

  • Экономико-математическая модель получения максимальной прибыли, её решение графическим методом. Алгоритм решения задачи линейного программирования симплекс-методом. Составление двойственной задачи и её графическое решение. Решение платёжной матрицы.

    контрольная работа [367,5 K], добавлен 11.05.2014

  • Виды задач линейного программирования и формулировка задачи. Сущность оптимизации как раздела математики и характеристика основных методов решения задач. Понятие симплекс-метода, реальные прикладные задачи. Алгоритм и этапы решения транспортной задачи.

    курсовая работа [268,0 K], добавлен 17.02.2010

  • Решение задачи линейного программирования графическим способом. Определение экстремальной точки. Проверка плана на оптимальность. Правило прямоугольников. Анализ и корректировка результатов решения задач линейного программирования симплексным методом.

    контрольная работа [40,0 K], добавлен 04.05.2014

  • Симплекс метод решения задач линейного программирования. Построение модели и решение задачи определения оптимального плана производства симплексным методом. Построение двойственной задачи. Решение задачи оптимизации в табличном процессоре MS Excel.

    курсовая работа [458,6 K], добавлен 10.12.2013

  • Графическое решение задач линейного программирования. Решение задач линейного программирования симплекс-методом. Возможности практического использования математического программирования и экономико-математических методов при решении экономических задач.

    курсовая работа [105,5 K], добавлен 02.10.2014

  • Формулировка проблемы в практической области. Построение моделей и особенности экономико-математической модели транспортной задачи. Задачи линейного программирования. Анализ постановки задач и обоснования метода решения. Реализация алгоритма программы.

    курсовая работа [56,9 K], добавлен 04.05.2011

  • Решение задачи линейного программирования графическим и симплекс-методом. Решение задачи двойственной к исходной. Определение оптимального плана закрепления потребителей за поставщиками однородного груза при условии минимизации общего пробега автомобилей.

    контрольная работа [398,2 K], добавлен 15.08.2012

  • Математическая формулировка задачи линейного программирования. Применение симплекс-метода решения задач. Геометрическая интерпретация задачи линейного программирования. Применение методов линейного программирования к экстремальным задачам экономики.

    курсовая работа [106,0 K], добавлен 05.10.2014

  • Геометрическая интерпретация, графический и симплексный методы решения задачи линейного программирования. Компьютерная реализация задач стандартными офисными средствами, в среде пакета Excel. Задачи распределительного типа, решаемые в землеустройстве.

    методичка [574,3 K], добавлен 03.10.2012

  • Задачи операционного исследования. Построение базовой аналитической модели. Описание вычислительной процедуры. Решение задачи оптимизации на основе технологии симплекс-метода. Анализ результатов базовой аналитической модели и предложения по модификации.

    курсовая работа [1,5 M], добавлен 12.12.2009

  • Планирование проведения кровельных работ промышленных зданий и сооружений наплавляемыми кровельными материалами силами набольшего количества рабочих. Разработка информационной системы, обеспечивающей решение задачи методом нелинейного программирования.

    дипломная работа [2,8 M], добавлен 16.10.2009

  • Особенности решения задач линейного программирования симплекс-методом. Управляемые параметры, ограничения. Изучение метода потенциалов в процессе решения транспортной задачи. Создание концептуальной модели. Понятие стратификации, детализации, локализации.

    лабораторная работа [869,0 K], добавлен 17.02.2012

  • Основные методы решения задач линейного программирования. Графический метод, симплекс-метод. Двойственная задача, метод потенциалов. Моделирование и особенности решения транспортной задачи методом потенциалов с использованием возможностей Мicrosoft Excel.

    контрольная работа [1,1 M], добавлен 14.03.2014

  • Применение линейного программирования для решения транспортной задачи. Свойство системы ограничений, опорное решение задачи. Методы построения начального опорного решения. Распределительный метод, алгоритм решения транспортной задачи методом потенциалов.

    реферат [4,1 M], добавлен 09.03.2011

  • Задачи многомерной оптимизации в исследовании технологических процессов производств текстильной промышленности, анализ возникающих трудностей. Нахождение экстремума, типа экстремума, значения целевой функции безусловной многомерной оптимизации.

    контрольная работа [27,7 K], добавлен 26.11.2011

  • Составление системы ограничений и целевой функции по заданным параметрам. Построение геометрической интерпретации задачи, ее графическое представление. Решение транспортной задачи распределительным методом и методом потенциалов, сравнение результатов.

    контрольная работа [115,4 K], добавлен 15.11.2010

  • Геометрический способ решения стандартных задач линейного программирования с двумя переменными. Универсальный метод решения канонической задачи. Основная идея симплекс-метода, реализация на примере. Табличная реализация простого симплекс-метода.

    реферат [583,3 K], добавлен 15.06.2010

  • Теоретические основы экономико-математических методов. Этапы принятия решений. Классификация задач оптимизации. Задачи линейного, нелинейного, выпуклого, квадратичного, целочисленного, параметрического, динамического и стохастического программирования.

    курсовая работа [2,3 M], добавлен 07.05.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.