Использование скрытой марковской модели при синтезе стохастического алгоритма решения задачи

Использование вероятностной скрытой марковской модели. Формирование алгоритма с возможностью управления его гибкостью в соответствии с содержательной ситуацией для обеспечения структурной и функциональной устойчивости программы, реализующей алгоритм.

Рубрика Экономико-математическое моделирование
Вид реферат
Язык русский
Дата добавления 28.07.2017
Размер файла 231,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Южно-Российский государственный политехнический университет, Новочеркасск

Использование скрытой марковской модели при синтезе стохастического алгоритма решения задачи

А.А. Михайлов

С.А. Базуева

1. Постановка проблемы

В основе любой целенаправленной деятельности лежат процедуры принятия решений задачи в виде последовательности действий (алгоритмов), преобразующие исходные данные для достижения цели (искомого результата решения задачи) при минимальных затратах. Задача может быть решена различными алгоритмами, имеющими свои преимущества и недостатки при ее решении, причем синтез решений включает построение качественной модели задачи, с последующей записью ее в математической форме, построение целевой функции переменных и исследование влияния переменных на целевую функцию.

При принятии решений в условиях определенности используется критериальный подход, при котором оценивают каждую альтернативу с помощью критериев. Однако в настоящее время возросло значение решения задач, примерами которых могут быть разработка автономных сценариев (алгоритмов) для управления информационными ресурсами вычислительных систем [1] или для управления очередями заданий в кластере локальной сети с использованием Марковских процессов [2]. Характерное для данных примеров многофакторное влияние на переменные целевой функции алгоритма условий среды и управляющих воздействий ограничивает использование детерминированного подхода из-за редко встречающейся ситуации полной определенности последствий выбора, поскольку на практике чаще используются несколько различных критериев и крайне редко одна альтернатива является лучшей по каждому из них.

Для преодоления данного ограничения в настоящее время широкое распространение получили разновидности стохастических алгоритмов (вероятностные и эвристические), предоставляющие возможность управления их гибкостью и эффективностью, что определяет использование при формировании алгоритма вероятностной модели. При этом вероятностный алгоритм задает стратегию решения задачи несколькими путями или способами, приводящими к вероятному достижению результата, а для эвристических алгоритмов достижение конечного результата однозначно не предопределено, так же как не обозначена вся последовательность действий, не выявлены все действия исполнителя.

Целью статьи является исследование возможности использования при синтезе корректных алгоритмов решения задачи вероятностной модели алгоритма, которая определяет возможность управления гибкостью алгоритма для обеспечения структурной и функциональной устойчивости программы, реализующей данный алгоритм, при, например, хакерской атаке на неё.

2. Общий анализ процесса принятия решения

В соответствии с [3-7] определим задачу синтеза корректного алгоритма как процесс преобразования начальной (исходной) информации Jin={X(S)|S?у} на некотором множестве у={S}, элементы которого в виде объектов X(S) описываются для их наблюдения через Iin, так что Jin={Iin}. В зависимости от приложения, Iin может быть числом или нечисловым математическим объектом (символ в абстрактном алфавите, вектор, последовательность символов, функция одной переменной (процесс) или функция двух переменных (изображение), а также функция с более сложной областью определения).

При решении задачи используется ее модель М, которая определяет множество алгоритмов решения AМ{a|a: JinJout}, т.е. на множестве алгоритмов АМ алгоритм aAМ реализует отображения из пространства начальных информаций Jin в пространство финальных информаций Jout. В результате «черный ящик» превращается в «белый», который характеризуется структурной информацией задачи Is, корректно по полноте и правильности отображающая суть проблемы Jin. Структурная информация задачи Is выделяет на подмножестве M допустимых отображений модель M[Is], определяющая корректное решение задачи Jout={Is}. Алгоритм a, реализующий допустимое отображение, которое определяется структурной информацией Is, является корректным решением для задачи.

На множестве стохастических алгоритмов заданы не только правила в классе строгих решений (дедуктивный подход), определены также абдуктивный подход (обратная дедукция), при котором определяются наиболее вероятные исходные утверждения из некоторых заключений путем обратных преобразований, и индуктивный для выявления наиболее вероятных закономерностей, вытекающих из сопоставления исходных данных и известных результатов. При этом выбор решений может реализоваться в различных вариантах:

* Множество алгоритмов может быть дискретным или непрерывным.

* Режим выбора может быть разовым или итеративным.

* Оценка альтернатив производиться по критериям разного типа.

* Последствия каждой альтернативы выбора могут быть известны (условия определенности), неизвестны точно, но вероятность последствий можно оценить (условия статистической неопределенности), неизвестны, и вероятность последствий оценить нельзя (условия неопределенности).

3. Общий анализ байесовского подхода к решению задач

3.1 Выбор критерия оценки качества решения задачи

Широко используемый в настоящее время при решении задач разновидность параметрического подхода байесовский, основанный на знании плотности распределения всех входных переменных задачи, по которой корректный для данной задачи алгоритм можно выписать в явном аналитическом виде, воспользовавшись формализованной структурной информацией алгоритма Is.

Байесовские задачи и основные свойства байесовских алгоритмов задаются математическими свойствами множеств входных начальных информаций Jin, состояний X и решений DoutIout, которые определяют эффективность алгоритмов. Алгоритм определяется на конечном множестве наблюдаемых параметров yY и на конечном множестве скрытых состояний алгоритма xX, а также должен быть согласован с входными данными DinJin. На множестве YX всех возможных пар наблюдений yY и состояний xX задается распределение совместной вероятности PYX(y, x): YXR.

Для введения критерия оценки качества решения задачи определим для множества xX и возможных решений doutDout функцию потерь W(x, dout): XDoutR. Для алгоритма a: YDout, который каждому наблюдению yY присваивает решение a(y)Dout, определим риск R(a) как математическое ожидание функции потерь алгоритма a. При этом байесовская задача статистических решений состоит в том, чтобы для заданных множеств Y, X, Dout, заданных алгоритмом a: YDout, который минимизирует байесовский риск

R(a)=.

Результатом функционирования байесовского алгоритма a* является решение байесовской задачи с минимумом риском R(a). Причем множества состояний X и решений Dout имеет разнообразную форму. В зависимости от ограничений на математическую форму элементов множеств наблюдений Y, состояний X и решений Dout постановка байесовской задачи конкретизируется.

3.2 Обобщенная байесовская постановка решения задач

Байесовская постановка решения задач с моделью М определяет расширение множества алгоритмов AM так, чтобы оно включало не только алгоритмы вида a: YDout, но и все возможные распределения вероятностей Ps(douty), т. е. в стохастических алгоритмах для каждого значения y случайно выбирается подходящее решение dout в соответствии с вероятностями Ps(douty). Среди данных стохастических алгоритмов ищется наилучший, в котором при фиксированном значении x принимается одно и то же детерминированное решение dout=a(y), которое входит в противоречие со случайным характером состояния, в котором находится алгоритм.

Для байесовской постановке решения задачи определим на конечных множествах Y, X, Dout с распределением вероятностей PYX: YXR и функцией потерь W: XDoutR стохастический алгоритм as: DoutYR, риск которого

Rs=. (1)

Теорема [3]: Для любого стохастического алгоритма существует детерминированный алгоритм a: YDout, риск которого

Rdet=

не больше, чем Rs, т. е. байесовская задача может быть сведена к поиску детерминированного алгоритма a: YDout.

Доказательство: Перепишем равенство (1) в иной форме,

Rs=.

Равенство =1 выполняется для любого yY, а неравенство 0 выполняется для любых doutDout и yY, поэтому справедливо неравенство

Rs.

Обозначим a(y) любое значение dout, для которого

.

Данный алгоритм a: YDout является детерминированным, который не хуже, чем стохастический as

,

т. е. для детерминированного алгоритма a риск RdetRs.

4. Модель алгоритма решения байесовской задачи

Концептуальная модель детерминированного алгоритма представляется последовательностью машинных команд (операторов) vi, определенная на множестве машинных команд V={vi}, i=, где nmk- число машинных команд, содержащихся в выборке класса алгоритмов, под которыми понимается система команд используемого класса процессоров. Для модели стохастического алгоритма переменные определяются следующими содержательными аксиомами:

наблюдаемые (скрытые) события представляются в виде последовательности, упорядоченной по времени (свойство Маркова, обеспечивающее сходимость стратегии), так t-я скрытая переменная st при известной (t-1)-ой переменной st-1 независима от всех предыдущих (t-1) переменных, то есть функция перехода

P(stst-1, st-1,..., s1, o1)=P(stst-1),

а t-е известное наблюдение ot зависит только от t-го состояния

P(otot, ot-1,…, o1)=P(otot),

то есть не зависит от времени.

две последовательности S=s1 s2... sT и O=o1o2...oT должны быть выровнены, т.е. каждое наблюдаемое событие ot должно соответствовать одному скрытому событию st, т.е. значение наблюдаемой переменной y(t) зависит только от значения скрытой переменной x(t) (обе в момент времени t).

вычисление наиболее вероятной скрытой последовательности до момента t зависит только от наблюдаемого события в момент t, и наиболее вероятной последовательности до момента t?1.

Данные аксиомы определяют использование в качестве модели алгоритма скрытой марковской модели (Hidden Markov Model) HMM [8], пример диаграммы переходов которой приведена на Рис. 1,

=(X, Y, P, Ps, П).

В данной модели

1) На множестве скрытых состояний модели X={xi}, i=, n-число состояний модели определяется скрытое состояние модели stS в момент t.

2) На множестве наблюдаемых значений Y={yi}, i=, m-число различных символов наблюдения моделью может порождаться последовательность наблюдаемых значений, представленная в виде O=o1o2...oT, где ot - символ дискретного алфавита V={vi}, состоящий из идентификаторов машинных команд vi, T - число символов в наблюдаемой последовательности.

3) Распределение вероятностей переходов между состояниями (матрица переходных вероятностей) P=Pij, где Pij=P[st+1=xjst=xi], 1j, in - вероятность перехода модели из состояния st=xi в момент времени t в состояние st+1=xj в следующий момент времени t+1.

4) Распределение вероятностей появления символов наблюдения в состоянии j, Ps=Pj(k), где Pj(k)=P[vkst=xj], 1jn, 1km.

5) Начальное распределение вероятностей состояний П={i}, i=P[s1=xi], где .

Рис. 1. Диаграмма переходов в HMM

В краткой форме HMM имеет вид =(P, Ps, П) и представляет собой дважды стохастический процесс, состоящий из пары случайных переменных {o1,..., ot, s1,..., st}, где ot - известные дискретные наблюдения, описывающие появление символов наблюдения (машинных команд), а st - «скрытые» дискретные величины, определяющие изменения состояния модели, но при этом не известно, сколько состояний и какие между ними связи (неизвестные параметры модели).

5. Стратегия синтеза алгоритма решения задачи

Принятая модель алгоритма определяет итеративную стратегию синтеза алгоритмов, которая сводится к преобразованию исходной модели =(P, Ps, П), приводящему к цели в виде оптимальной модели корректного алгоритма , путем итерационного пересчета параметров модели до схождения.

Постановка задачи. Известна наблюдаемая величина y(t) в виде последовательности YT=y0, y1,..., yТ-1 длины Т, порождаемая последовательностью O=o1o2...oT. Вероятность наблюдать y(t) равна P(YT)=, где сумма задаётся по всем возможным скрытым переменным x(t) в виде последовательности скрытых узлов XT=x0, x1,..., xТ-1. По имеющимся данным y(t) необходимо определить скрытые параметры наиболее вероятной последовательности состояний марковской цепи S=si1…siT.

Решение сформулированной задачи может быть достигнуто за три этапа, каждый из которых реализуется известным алгоритмом.

Первый этап: За T шагов в модели =(P, Ps, П) порождается последовательность наблюдений O1,T=o1,...,oT, причем в момент t для состояния s: Xi=i вероятность P(O1,t-1Xt=s) того, что во время переходов образовалась последовательность наблюдений O1,t-1, а P(Ot,TXt=s) - вероятность того, что после этого состояния наблюдается последовательность наблюдений Ot,T.

Ищется вероятность P(Xt=sO)=P(Xt=sO1,t-1Ot,T) того, что в момент t цепь будет в состоянии s.

1. Для произвольного состояния s в произвольный шаг t вероятность P(O1,tXt=si) того, что на пути к нему была произведена последовательность O1,t для следующих t можно вычислить рекуррентно:

P(O1,tXt=si)=

=.

Вероятность попасть в состояние s на t-ом шаге, учитывая, что после перехода произойдет событие ot будет равна вероятности быть в состоянии j на t-ом шаге, умноженной на вероятность перейти из состояния j в s, произведя событие ot для всех jS.

2. Вероятность того, что после произвольного состояния s будет произведена последовательность Ot+1,T определяются рекуррентно:

P(Ot,TXt=s)=.

3. Чтобы найти вероятность того, что будет произведена цепочка событий, P(O), нужно просуммировать произведение обеих вероятностей для всех состояний при произвольном шаге t:

P(O)=(O1,tXt=s)P(Ot,TXt=s),

а поскольку будущее марковской цепи не зависит от прошлого и вероятность наблюдения события Ot не зависит от прошлых наблюдений последовательности O1,t-1, то вероятность того, что в момент t цепь будет в состоянии s:

P(Xt=sO)=P(Xt=sO1,t-1Ot,T)=.

Данная задача решается с помощью алгоритма "вперед-назад" [9-11], который позволяет найти в скрытой марковской модели вероятность попадания в состояние s на t-ом шаге при последовательности наблюдений O и (скрытой) последовательности состояний X.

Второй этап: По заданной HMM с пространством состояний S={s1, s2,..., sK}, начальными вероятностями i нахождения в состоянии i и вероятностями Pi,j перехода из состояния i в состояние j, по наблюдаемым y1,..., yT и множества исходных информаций Jin ищется “оптимальная” наиболее правдоподобная последовательность состояний скрытых узлов S=s1...sT (путь Витерби), наиболее точно описывающую данную модель. Тогда наиболее вероятная последовательность состояний x1,..., xT задается рекуррентными соотношениями:

V1,k=P(y1k)k, Vt,k=P(ytk), (2)

где Vt,k - вероятность наиболее правдоподобной последовательности состояний, ответственной за появление первых t наблюдаемых символов, завершающейся в состоянии k. Путь Витерби ищется по состояниям x, удовлетворяющих уравнению (2), т.е.

xT=

xt-1=

Для решения данной задачи используют алгоритм Витерби (Andrew Viterbi, 1967 год), позволяющего на основе последовательности наблюдений получить наиболее правдоподобную последовательность скрытых состояний (путь Витерби) скрытой марковской модели [12-15].

Третий этап: По заданной выходной последовательности наблюдений O определяются неизвестные параметры HMM , максимизирующие вероятность наблюдений O

*=.

Причем число моментов времени r, в которых осуществляются наблюдения, устанавливается заранее и состоит из следующих шагов:

1) определение всех последовательностей состояний модели Si={si1,…, sir}, i=1,…, r проблеморазрешающей системы в заданные моменты времени;

2) оценка вероятностей P(Si) появления для каждой последовательности Si, i=1,…, r, выявленной на предыдущем шаге, путём вычисления произведений вероятностей переходов между состояниями модели в течение интервалов, ограниченных установленными контрольными моментами времени, а именно:

P(Si)=,

где Ps,i,t,t+1-вероятность перехода из состояния sit, в котором система пребывала в момент времени t, в состояние si,t+1, занятого в момент t+1;

3) вероятность появления наблюдаемой последовательности X={x1,…, xr} для последовательностей состояний Si, i=1,…, r

Pix=P(Si),

где Px,i,j-вероятность получения наблюдаемой характеристики xj при состоянии sij;

4) выбор наиболее вероятной последовательности состояний Smax{Si}i=1,...,r, соответствующей наибольшей вероятности

{P}x,max=Pix i =1,...,r.

Данный этап стратегии реализуется алгоритмом Баума-Велша (Baum - Welch algorithm) [10, 16].

Выводы

1. Содержательные аксиомы модели рандомизированного алгоритма допускают возможность использования в качестве модели алгоритма скрытой марковской модели (Hidden Markov Model) HMM, которая применима не только к исходным типовым алгоритмам, но и к корректирующим алгоритмам, а также и для синтезируемых композиций.

2. При вероятностной модели алгоритма появляется возможность управлять связями между переменными алгоритма, задавая гибкость алгоритма для обеспечения требуемой структурной и функциональной устойчивости программы, реализующей данный алгоритм.

3. Рандомизация алгоритма, повышая его гибкость и эффективность, не улучшает его риск по сравнению с соответствующим детерминированным алгоритмом.

4. Задача синтеза алгоритма на базе HMM заключается в том, чтобы по имеющимся наблюдаемым данным определяют скрытые параметры наиболее вероятной последовательности состояний.

5. На первом этапе стратегии при заданных параметрах модели =(P, Ps, П) и последовательности скрытых S и соответствующих наблюдаемых состояний О, определяется вероятность появления данных последовательностей. Так на первом шаге для модели и множества исходных данных Din определяется i=P(Din) и оценивается насколько хорошо модель согласована к исходными данными. Данная задача в такой постановке решается с помощью алгоритма "вперед-назад", который позволяет найти в HMM вероятность попадания в состояние si на t-ом шаге при последовательности наблюдений O и (скрытой) последовательности состояний S.

6. На втором этапе по заданной скрытой марковской модели с пространством скрытых состояний S={s1, s2,..., sK}, начальными вероятностями i нахождения в состоянии i и вероятностями Pi,j перехода из состояния i в состояние j, по наблюдаемым состояниям o1,..., oT ищется путь Витерби SV=s1...sT, наиболее точно описывающую данную модель, для чего естественно воспользоваться алгоритмом Витерби (Viterbi algorithm).

7. На третьем этапе стратегии осуществляется корректировка скрытых марковских моделей путем оптимизации параметров модели =(P, Ps, П) так, чтобы максимизировать P(O) при наблюдаемых данных O. Данный этап стратегии наиболее полно реализуется алгоритмом Баума-Велша (Baum - Welch algorithm).

Литература

вероятностный марковский модель

1. Филатов В.А., Козырь О.Ф. Модель поведения автономного сценария в задачах управления распределенными информационными ресурсами //Инженерный вестник Дона, 2013, № 3 URL: ivdon.ru/magazine/archive/ n3y2013/1771/.

2. Аль-Хулайди А.А. Разработка нового стохастического метода управления очередями заданий с использованием Марковских процессов для параллельных вычислений на кластере//Инженерный вестник Дона, 2011, №1 URL: ivdon.ru/magazine/archive/n1y2011/332/.

3. Mikhaylov A.A., Bazuyeva S.A. Probabilistic Approach to the Synthesis of Algorithm for Solving Problems//Modern Applied Science/Canadian Center of Science and Education. 2015. V. 9, № 5. pp. 125-132.

4. Рудаков К.В. Универсальные и локальные ограничения в проблеме коррекции эвристических алгоритмов // Кибернетика. 1987. № 2. С. 30-35.

5. Рудаков К.В. Полнота и универсальные ограничения в проблеме коррекции эвристических алгоритмов классификации//Кибернетика. 1987. № 3. С. 106-109.

6. Рудаков К.В. Симметрические и функциональные ограничения в проблеме коррекции эвристических алгоритмов классификации // Кибернетика. 1987. № 4. С. 73-77.

7. Рудаков К.В. О применении универсальных ограничений при исследовании алгоритмов классификации // Кибернетика. 1988. № 1. С. 1-5.

8. Рабинер Л.Р. Скрытые марковские модели и их применение в избранных приложениях при распознавании речи: Обзор//ТИЭР М: Наука, 1989. Выпуск 2. Том 77. С. 86-102.

9. Binder J., Murphy K. and Russell S. Space-Efficient Inference in Dynamic Probabilistic Networks//Int'l, Joint Conf. on Artificial Intelligence. 1997. V. 1, №5, pp. 1292-1296.

10. Lawrence R., Rabiner A. Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition//Proceedings of the IEEE. 1989. V. 77. № 2, February. pp. 257-286.

11. Lawrence R. Rabiner, Juang B.H. An introduction to hidden Markov models//IEEE ASSP Magazine. 1986. January. pp. 4-15.

12. Forney G.D., JR. The Viterbi Algorithm//Proceedings of the IEEE. 1973. V. 61, № 3, March. pp. 268 - 277.

13. Витерби А.Д., Омура Дж.К. Принципы цифровой связи и кодирования/Пер. с англ. под ред. К.Ш. Зигангирова. М.: Радио и связь. 1982. 536 с.

14. Золотарёв В.В., Овечкин Г.В. Помехоустойчивое кодирование. Методы и алгоритмы: Справочник /Под. ред. чл.-кор. РАН Ю. Б. Зубарева. М.: Горячая линия. Телеком. 2004. 126 с.

15. Морелос-Сарагоса Р. Искусство помехоустойчивого кодирования. Методы, алгоритмы, применение/пер. с англ. В. Б. Афанасьева. М.: Техносфера. 2006. 320 с.

16. Baum L.E. An inequality and associated maximization technique in statistical estimation for probabilistic functions of a Markov process//Inequalities. 1972. № 3. pp. 1-8.

Размещено на Allbest.ru

...

Подобные документы

  • Рассмотрение немарковской системы массового обслуживания с двумя типами заявок. Расчет значений асимптотических характеристик немарковской системы. Выяснение возможности описания системы с помощью марковской модели и асимптотических характеристик.

    курсовая работа [1,4 M], добавлен 22.08.2017

  • Описание алгоритма культурного обмена и проведение экспериментального исследования средней трудоемкости алгоритма случайного поиска. Основные идеи алгоритма и эффективность итерационных методов решения. Зависимость функции качества от длины генотипа.

    курсовая работа [373,3 K], добавлен 24.06.2012

  • Формулировка проблемы в практической области. Построение моделей и особенности экономико-математической модели транспортной задачи. Задачи линейного программирования. Анализ постановки задач и обоснования метода решения. Реализация алгоритма программы.

    курсовая работа [56,9 K], добавлен 04.05.2011

  • Составление математической модели задачи. Расчёт оптимального плана перевозок с минимальной стоимостью с использованием метода потенциалов. Оптимальный вариант специального передвижного оборудования для технического обеспечения управления производством.

    контрольная работа [135,3 K], добавлен 01.06.2014

  • Сущность трендовых моделей и их использование для прогнозов. Алгоритм построения прогнозной модели. Применение алгоритма на примере исследования информации об объемах сбыта мороженого "Пломбир". Определение величины сезонной компоненты в MS Excel.

    курсовая работа [317,6 K], добавлен 25.12.2011

  • Задача выбора оптимальной (с точки зрения минимизации стоимости) прокладки транспортных коммуникаций из исходного пункта во все пункты назначения. Создание модели в терминах теории графов, описание волнового алгоритма, алгоритма Дейкстры, их особенности.

    курсовая работа [214,3 K], добавлен 30.09.2009

  • Построение экономико-математической модели задачи, комментарии к ней и получение решения графическим методом. Использование аппарата теории двойственности для экономико-математического анализа оптимального плана задачи линейного программирования.

    контрольная работа [2,2 M], добавлен 27.03.2008

  • Цель математического моделирования экономических систем: использование методов математики для эффективного решения задач в сфере экономики. Разработка или выбор программного обеспечения. Расчет экономико-математической модели межотраслевого баланса.

    курсовая работа [1,3 M], добавлен 02.10.2009

  • Типовая структура организационно-экономической части дипломной работы. Разработка математической модели задачи и алгоритма ее решения. Методы расчета экономической эффективности пакета прикладных программ и внедрения новых методов расчета на ПЭВМ.

    методичка [58,0 K], добавлен 16.01.2013

  • Построение и обоснование математической модели решения задачи по составлению оптимального графика ремонта инструмента. Использование табличного симплекс-метода, метода искусственных переменных и проверка достоверности результата. Алгоритм решения задачи.

    курсовая работа [693,1 K], добавлен 04.05.2011

  • Построение модели планирования производства. Использование инструментального средства "Поиск решения" для решения задачи линейного программирования. Решение оптимальной задачи, с использованием методов математического анализа и возможностей MathCad.

    лабораторная работа [517,1 K], добавлен 05.02.2014

  • Построение математической модели, максимизирующей прибыль фирмы от реализации всех сделок в виде задачи линейного программирования. Сущность применения алгоритма венгерского метода. Составление матрицы эффективности, коэффициентов затрат и ресурсов.

    контрольная работа [168,7 K], добавлен 08.10.2009

  • Основные положения теории расписаний, постановка задачи минимизации средневзвешенного суммарного штрафа и методы ее решения. Разработка алгоритма решения данной задачи методами полного перебора и оптимальной вставки, составление программы на Delphi.

    курсовая работа [468,7 K], добавлен 10.04.2011

  • Обоснование, схема и описание бизнес-процесса организации. Идентификация законов распределения случайных величин. Разработка и описание моделирующего алгоритма для реализации программы имитационной модели. Разработка компьютерной программы моделирования.

    курсовая работа [265,3 K], добавлен 28.07.2013

  • Особенности формирования математической модели принятия решений, постановка задачи выбора. Понятие оптимальности по Парето и его роль в математической экономике. Составление алгоритма поиска парето-оптимальных решений, реализация программного средства.

    контрольная работа [1,2 M], добавлен 11.06.2011

  • Решение задач линейного программирования с применением алгоритма графического определения показателей и значений, с использованием симплекс-метода. Использование аппарата теории двойственности для экономико-математического анализа оптимального плана ЗЛП.

    контрольная работа [94,6 K], добавлен 23.04.2013

  • Проведение системного анализа и выделение проблем российской нефтедобычи, разработка путей их решения в соответствии с ситуацией и с использованием накопленного мирового опыта решения аналогичных проблем. Построение модели структуры добычи нефти.

    контрольная работа [356,5 K], добавлен 07.12.2013

  • Графический метод решения задачи оптимизации производственных процессов. Применение симплекс-алгоритма для решения экономической оптимизированной задачи управления производством. Метод динамического программирования для выбора оптимального профиля пути.

    контрольная работа [158,7 K], добавлен 15.10.2010

  • Проблема автоматизации расчёта сетевого графика. Вычисление критического пути с помощью ЭВМ. Табличный метод решения проблемы, метод графов. Составление алгоритма, написание программы и решение задачи. графический интерфейс пользователя, ввод данных.

    курсовая работа [39,7 K], добавлен 20.11.2008

  • Использование информационных технологий при решении задач нелинейной оптимизации. Определение оптимального ассортимента продукции. Линейные модели оптимизации в управлении. Использование мощностей оборудования. Размещение проектов на предприятиях.

    контрольная работа [560,8 K], добавлен 14.02.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.