Минимизация функций одной переменной

Постановка задачи одномерной минимизации и классификация одномерных функций. Алгоритм Свенна для поиска интервала унимодальности. Разработка алгоритма последовательной квадратичной аппроксимации. Расчет коэффициентов аппроксимации в Microsoft Excel.

Рубрика Математика
Вид курсовая работа
Язык русский
Дата добавления 19.06.2014
Размер файла 617,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

КУРСОВАЯ РАБОТА

На тему

Минимизация функций одной переменной

Содержание

1. Методы минимизации функций одной переменной

1.1 Необходимые сведения их математики

1.1.1 Постановка задачи одномерной минимизации

1.1.2 Классификация одномерных функций

1.1.3 Ряд Тейлора

1.1.5 Замечания относительно глобального минимума

1.2 Методы исключения интервалов

1.2.1 Метод деления пополам

Алгоритм Свенна для поиска интервала унимодальности

Алгоритм деления пополам

1.2.2 Метод золотого сечения

1.2.3 Сравнение методов исключения интервалов

1.3 Полиномиальная аппроксимация

1.3.1 Квадратичная аппроксимация

Алгоритм последовательной квадратичной аппроксимации

1.3.2 Кубическая аппроксимация

1.4 Методы с использованием производных

1.4.1 Метод Ньютона-Рафсона

1.4.2 Методы средней точки и секущих

1.4.3 Численная аппроксимация производных

Расчет коэффициентов аппроксимации в Microsoft Excel

Построение графиков в Excel и использование функции ЛИНЕЙН

Программа на языке Pascal

Схема алгоритма

Результаты расчета Pascal

Заключение

Список литературы

Методы минимизации функций одной переменной

аппроксимация одномерный функция унимодальность

1.1 Необходимые сведения из математики

1.1.1 Постановка задачи одномерной минимизации

Под одномерной минимизацией понимается раздел численных методов, связанных с вычислением (или оценкой) минимума одномерной функции действительной переменной, заданной, как правило, на некотором ограниченном отрезке найти min f(x)=f(x*), (1.1)

axb

где x*-искомая точка минимума на [a, b].

Заметим, что max f(x)= min f(-x), (1.2)

и поэтому при дальнейшем изложении мы будем говорить о задачах минимизации (если не оговорено особо).

Методы и алгоритмы одномерной минимизации занимают важное место в теории оптимизации в связи с тем, что:

в инженерной практике достаточно часто встречаются самостоятельные задачи одномерной минимизации;

задачи одномерной минимизации являются необходимой составной частью практически каждого метода многомерного поиска минимума.

1.1.2 Классификация одномерных функций

Одномерные функции принято классифицировать на непрерывные, разрывные и дискретные (рис.1.1).

f(x) f(x) f(x)

а ) непрерывная б) разрывная г) дискретная

Рис. 1.1 Примеры одномерных функций

В дополнение к перечисленным свойствам добавляются топологические свойства, которые отражают характерные черты их формы. Например различают:

монотонные функции;

унимодальные функции.

Введем некоторые определения, которые нам понадобятся в дальнейшем.

Определение. Функция f(x) монотонно возрастает (убывает), если для произвольных x1 и x2, таких что x1 x2 выполняется неравенство

f(x1) f(x2)

(или, соответственно, f(x1)f(x2) для убывающей функции).

Особый и весьма важный класс составляют унимодальные функции.

Определение. Функция f(x) называется унимодальной на отрезке axb тогда и только тогда, когда для некоторой точки ax*b найдутся такие x1 и x2, для которых из неравенств x*x1x2 следует

f(x*)f(x1)f(x2)

и, из неравенств x*x1x2 следует

f(x*)f(x1)f(x2).

Другими словами можно сказать, что функция унимодальна на отрезке [a, b], если найдется такая точка x* на этом отрезке, по обе стороны от которой функция f монотонно возрастает (рис.1.2).

Заметим, что именно унимодальные функции являются целью одномерной минимизации.

f(x) f(x)

а) б)

Рис. 1.2 Примеры унимодальных функций а) непрерывная унимодальная функция; б) разрывная унимодальная функция

1.1.3 Ряд Тейлора

Любую непрерывную функцию f можно разложить в окрестности некоторой точки x0 в степенной ряд, называемый рядом Тейлора:

, (1.3)

где Оn+1(x-x0)n+1 - сумма остаточных членов, степень приращения в которых равна (n+1) и выше.

Вводя соответствующие обозначения, ряд (1.3) будем записывать компактнее:

. (1.4)

Из уравнения (1.4) следует, что любую нелинейную функцию можно представить в окрестности любой допустимой точки x0 приближением в виде ряда Тейлора, причем точность такого приближения зависит от числа используемых членов ряда. Обычно ограничиваются тремя первыми членами ряда (1.4), т.е. аппроксимируя исходную функцию квадратической функцией.

1.1.4 Необходимые и достаточные условия экстремума функции одной переменной

В самом общем случае одномерная функция может иметь различные экстремальные точки, а также точку перегиба. Так на рис.1.3 изображена функция, которая содержит все практически важные стационарные точки.

f(x)

0 a b c d e f g h x

Рис. 1.3 Классификация стационарных точек a,h)глобальный максимум и минимум на отрезке [a,h]; b)-локальный минимум; с,g)-локальный максимум; d-e)-отрезок слабого минимума; f)-точка перегиба.

Рассмотрим основную теорему о необходимом условии наличия экстремальной точки для функции одной переменной:

Теорема. Для того, чтобы точка x* была точкой локального минимума (максимума) дважды дифференцируемой на [a, b] функции f(x) необходимо, чтобы df(x*)/dx = 0, (1.5)

d2f(x*)/dx2 0 ( 0). (1.6)

Доказательство. Предположим вначале, что x*-внутренняя точка минимума на [a, b], а =x-малая величина (отрицательная или положительная).

Запишем с помощью ряда Тейлора изменение функции f в окрестности анализируемой точки x*:

. (1.7)

Тогда очевидно, что

f(x)f(x*). (1.8)

Из неравенства (1.8) следует, что

. (1.9)

При достаточно малом первое слагаемое доминирует над остальными, а так как можно выбрать и положительным, и отрицательным, то неравенство (1.9) будет выполняться только в том случае, если

f'(x*)=0. (1.10)

Рассуждая аналогичным образом, нетрудно установить, что неравенство (1.10) будет справедливым только тогда, когда

f”(x*)0. (1.11)

Замечание. Эта же схема доказательства применима и в случае локального максимума, с той лишь разницей, что знак неравенства (1.9) требуется заменить на противоположный.

Вышеприведенная теорема дает только необходимые условия экстремума, т.е. в случае, когда они не выполняются, точка x* не может быть точкой локального минимума (максимума). С другой стороны, если эти условия выполняются, мы не имеем гарантии, что x* является точкой локального минимума (максимума).

Введем следующие важные определения:

Стационарной точкой называется точка x*, в которой f'(x*)=0.

Стационарная точка x* называется седловой точкой или точкой перегиба, если она не соответствует локальному экстремуму (минимуму или максимуму).

Для идентификации стационарной точки необходимо построить достаточные условия экстремума, которые даются следующей теоремой.

Теорема. Пусть в точке x* первые (n-1) производные функции f(x) обращаются в нуль, а производная порядка n отлична от нуля. Тогда

(1) если n-нечетное, то x*-точка перегиба;

(2) если n-четное, то x*-точка локального оптимума,

причем,

(а) если эта производная положительная, то x*-точка локального минимума;

(б) если эта производная отрицательная, то x*-точка локального максимума.

Доказательство. Используем снова разложение f(x) в ряд Тейлора в окрестности стационарной точки x* (2.4). Поскольку порядок первой отличной от нуля производной равен n, формулу (1 f(x).4) можно переписать в следующем виде:

. (1.12)

Если n - нечетное число, то правая часть (1.12) может принимать как положительные, так и отрицательные значения в зависимости от того, является ли величина положительной или отрицательной. Это означает, что в зависимости от знака разность f(x*+)-f(x*) либо положительная, либо отрицательная. Следовательно, функция не достигает в точке x* своего минимального или максимального значения, т.е. x* - точка перегиба.

Если n - четное число, то величина n всегда положительная, а знак правой части (1.12) определяется первым слагаемым т.к. - достаточно малая величина. Таким образом, если величина f(n)(x*) положительная, то f(x*+)-f(x*)>0 и точка x* соответствует локальному минимуму. Аналогичные рассуждения нетрудно провести также для случая локального максимума.

Пример. Классифицировать стационарные точки функции

f(x)=5x6-36x5+(165/2)x4-60x3+36,

определенной на всей действительной оси.

Можно показать, что первая производная этой функции после преобразований имеет вид

f'(x)=30x2(x-1)(x-2)(x-3),

обращаясь в нуль в точках x*=0,1,2,3, и, следовательно, эти точки являются стационарными.

Вторая производная функции равна

f”(x)=150x4-720x3+990x2-360x.

Вычислим значения второй производной и функции в стационарных точках (табл. 1.1).

Таблица 1.1

x

f(x)

f”(x)

0

1

2

3

36.0

27.5

44.0

5.5

0

60

-120

540

Отсюда следует вывод, что x=1,3 - точки локальных минимумов, а x=2 - точка локального максимума. Чтобы идентифицировать точку x=0, необходимо вычислить третью производную в этой точке:

f”'(x*)=(600x3-2160x2+1980x-360)|x=0 = -360.

Так как эта производная отлична от нуля и имеет нечетный порядок, то точка x=0 является не точкой оптимума, а точкой перегиба (рис.1.4)

Рис. 1.4 График исследуемой в примере функции

f(x)=5x6-36x5+(165/2)x4-60x3+36

1.1.5 Замечания относительно глобального минимума

Рассмотрим вкратце вопрос, касающийся определения глобального минимума (или максимума) функции одной переменной. Как правило такой вопрос возникает тогда, когда целевая функция изначально определена на некотором интервале. Поскольку глобальный оптимум в то же время является и локальным, можно вычислить все локальные оптимумы исследуемой функции и выбрать из них наилучший, используя метод перебора. Рассмотрим алгоритм решения, основанный на таком элементарном подходе.

Итак, пусть требуется:

минимизировать f(x)

при ограничении axb,

где a и b - установленные границы изменения значений переменной x.

Так как функция исследуется на заданном интервале, нетрудно заметить, что проверку наличия локального оптимума необходимо проводить не только в стационарных точках, но и в граничных точках интервала. Поэтому алгоритм поиска глобального минимума здесь очевиден:

Шаг 1. Приравнять df/dx=0 и найти все стационарные точки.

Шаг 2. Выбрать все стационарные точки, которые расположены в интервале [a,b], обозначив их как xi*, i=1,2,…,K.

Шаг 3. Найти наименьшее значение f(x) из множества:

f(a), f(x1), f(x2), …, f(xK), f(b),

т.е. к множеству всех стационарных точек мы добавили и граничные точки.

Замечание. При построении алгоритма мы не пытались классифицировать стационарные точки как точки локального минимума, максимума или точки перегиба, поскольку в задачах с ограничениями точка перегиба также может быть точкой локального минимума, если она совпадает с граничной точкой.

1.2 Методы исключения интервалов

1.2.1 Метод деления пополам

Изучаемые в данном разделе методы одномерного поиска можно применять только для унимодальных функций. В связи с этим алгоритм одномерного поиска включат в себя две основные части: алгоритм установления границ интервала унимодальности [a, b] и алгоритм локализации точки минимума.

Для установления границ интервала унимодальности [a, b] обычно используют эвристические процедуры, в которых выбираются некоторые пробные точки функции f, а затем, путем сравнения значений f находится точка, в которой функция начинает возрастать. Рассмотрим основные процедуры алгоритма Свенна.

Алгоритм Свенна для поиска интервала унимодальности

Вычислить f(x0), f(x0-), f(x0+), где x0-начальная точка, -некоторая постоянная.

Если f(x0-) f(x0) f(x0+), то -;

иначе перейти к 5.

Вычислить следующую пробную точку xk+1=xk+2(k).

Если f(xk+1) f(xk), перейти к 3;

иначе xk+1=b, xk-1=b. Стоп.

Положить ; перейти к 3.

После установления границ интервала унимодальности [a, b] можно применять различные методы поиска точки минимума x*. Прежде чем переходить к методу деления пополам, заметим, что наиболее простым и наименее эффективным является метод равномерного поиска, согласно которому весь интервал [a, b] разбивается на N точек, расположенных на одинаковом расстоянии друг от друга. Затем сравниваются значения функции f в этих пробных точках, и выбирается точка с минимальным значением f. Тогда, очевидно, эта точка является оценкой точки минимума x*.

Метод деления пополам (или метод трехточечного поиска на равных интервалах), как и другие методы поиска основывается на следующей теореме, которая называется теоремой исключения интервалов.

Теорема исключения интервалов. Пусть задана унимодальная функция f на некотором интервале [a, b], и ее минимум достигается в точке x*. Тогда, выбрав x1 и x2 так, чтобы a<x1<x2<b, и, сравнивая значения функции f в этих точках, можно сделать следующие выводы:

1.если f(x1)>f(x2), то точка минимума не лежит в интервале [a, x1];

2. если f(x1)<f(x2), то точка минимума не лежит в интервале [x1, b].

(Заметим, что при f(x1)=f(x2), то точка минимума лежит в интервале [x1, x2]).

Согласно теореме исключения, очевидно, можно сконструировать различные алгоритмы последовательного уменьшения начального интервала до требумой величины, в котором будет содержаться искомая точка минимума.

Алгоритм деления пополам

Пользователем задается требуемая точность локализации точки минимума x*.

1. Вычислить xm=(a+b)/2, L=b-a

2. Вычислить x1=a+L/4, x2=b-L/4, f(x1), f(x2);

3. Если f(x1)<f(xm), то b=xm, xm=x1; перейти к 6;

4. Если f(x2)<f(xm), то a=xm, xm=x2; перейти к 6;

5. Положить a=x1, b=x2;

Вычислить L=(b-a);

Если L , то закончить поиск;

иначе, перейти к 2.

1.2.2 Метод золотого сечения

Предыдущий алгоритм деления интервала пополам требует на каждой итерации вычисление целевой функции f(x) в двух новых пробных точках.

Поскольку местонахождение искомой точки минимума x* заранее неизвестно, имеет смысл предположить, что пробные точки x1 и x2 нужно выбирать так, чтобы использовать информацию о значении функции на предыдущем шаге поиска. Это означает, что точки нужно выбирать так, чтобы обеспечить уменьшение интервала в одном и том же отношении. Кроме того, в целях повышения скорости сходимости алгоритма необходимо также потребовать, чтобы указанное отношение было максимальным. Такая стратегия поиска называется минимаксной.

Исходя из этих требований, расположим пробные точки x1 и x2 так, как показано на рис.1.5а.

При таком симметричном расположении точек длина остающегося после исключения интервала всегда равна независимо от того, какое из значений функции в пробных точках оказывается меньшим.

Предположим, что исключается правый интервал [x2,1]. Тогда для сохранения симметрии поиска расстояние (1-) должно также составлять -ю часть длины интервала, которая равна . При таком выборе следующая пробная точка размещается на расстоянии, равном -й части длины интервала (рис.1.5б).

Отсюда следует, что нужно определять из уравнения

1-=2, (1.13)

решая которое, находим

=(-1),

= 0.6183…. (1.14)

В общем случае, на каждой итерации исключается (1-)-я часть интервала. Следовательно, после N вычислений функции f, начальный единичный интервал уменьшится до величины (N-1).

1.2.3 Сравнение методов исключения интервалов

Для сравнения методов исключения интервалов в качестве критерия сравнения принято выбирать относительное уменьшение исходного интервала E(N) за N вычислений значений f:

E(N)=LN/L1, (1.15)

где L1 - длина исходного интервала [a, b];

LN - длина конечного интервала.

В методе деления пополам длина текущего интервала LN равна половине предыдущего, и поэтому можно записать LN= L1(0.5)N/2, тогда

EМДП(N)=0.5N/2. (1.16)

Аналогичные рассуждения дают для метода золотого сечения следующие соотношения:

L(N)=L1(0.618)N-1 (1.17)

И

EМЗС(N)=0.618(N-1). (1.18)

Метод равномерного поиска, в котором сравнивают значения f в N равноотстоящих точках интервала [a, b], локализуют точку x* в конечном интервале равном

(x*-L1/(N+1)) x* (x*+L1/(N+1)),

Откуда

LN=2L1/(N+1) (1.19)

и эффективность метода равна

EМРП(N)=2/(N+1). (1.20)

В практической оптимизации пользователь обычно задает требуемую точность одномерного поиска.

Для того, чтобы перевести величину абсолютной точности в требуемое количество вычислений функции можно использовать следующие соотношения

NМДП = 2lnEМДП/ln0.5, (1.21)

NМЗС = 1 + lnEМЗС/ln0.618, (1.22)

NМРП = 2/EМРП - 1. (1.23)

Если оценивать эффективность методов одномерного поиска по количеству вычислений значений функции, то метод золотого сечения является наиболее экономичным.

1.3 Полиномиальная аппроксимация

1.3.1 Квадратичная аппроксимация

Основная идея методов аппроксимации заключается в том, что исходная функция f(x) описывается в виде некоторого полинома fa(x), достаточно хорошо приближающего исходную функцию. Затем ищется точка минимума x* полинома fa(x), которая является оценкой истинной точки минимума. Ясно, что точность такой оценки определяется тем, насколько хорошо подобрана аппроксимирующая функция.

Согласно теореме Вейерштрасса об аппроксимации, если функция непрерывна в некотором интервале, то ее с любой степенью точности можно аппроксимировать полиномом достаточно высокого порядка. Качество оценок точки минимума аппроксимирующего полинома можно повысить двумя способами: использованием полинома более высокого порядка и уменьшением интервала аппроксимации.

Практика показывает, что второй способ, вообще говоря, является более предпочтительным, поскольку построение аппроксимирующего полинома порядка выше третьего становится весьма сложной процедурой, тогда как уменьшение интервала в условиях, когда выполняется предположение об унимодальности функции, особой сложности не представляет.

Квадратичная аппроксимация является простейшим вариантом полиномиальной интерполяции, которая основана на том факте, что функция, принимающая минимальное значение во внутренней точке интервала, должна быть по крайней мере квадратичной.

Если задана последовательность точек x1, x2, x3 и известны соответствующие этим точкам значения функции f1, f2, f3, то можно определить постоянные величины a0, a1 и a2 таким образом, что значения квадратичной функции

q(x)=a0 + a1(x-x1)+a2(x-x1)(x-x2) (1.24)

совпадут со значениями f(x) в трех указанных точках. Перейдем к вычислению q(x) в каждой из трех заданных точек. Прежде всего, так как

f1=f(x1)=q(x1)=a0,

имеем a0=f1.

Далее, поскольку

f2=f(x2)=q(x2)=f1+ a1(x2-x1),

получаем

a1=(f2-f1)/(x2-x1).

Наконец, при x=x3

f3=f(x3)=q(x3)=f1+(f2-f1)/(x2-x1)(x3-x1)+a2(x3-x1)(x3-x2).

Разрешая последнее уравнение относительно a2, получаем

a2=.

Таким образом показано, что по трем заданным точкам и соответствующим значениям функции можно оценить параметры a0, a1 и a2 аппроксимирующего квадратичного полинома с помощью приведенных выше формул.

Если точность аппроксимации исследуемой функции в интервале [x1, x3] c помощью указанного полинома оказывается достаточно высокой, то в соответствии с предложенной стратегией поиска построенный полином можно использовать для оценивания координат точки минимума.

В данном случае, согласно необходимому условию экстремума, найдя первую производную полинома и приравняв ее нулю, получим

q'(x)= a1+a2(x-x2)+a2(x-x1)=0,

откуда искомая оценка минимума равна

xa*=(x2-x1)/2 - (a1/2a2).

Пример. Методом квадратичной аппроксимации найти точку минимума функции

f(x)= 2x2 + (16/x)

в интервале 1x5.

Пусть пробные точки равны x1=1, x2=3, x3=5, и соответствующие значения функции равны

f1=18.0, f2=23.33, f3=53.2.

Вычислим коэффициенты квадратичного приближения:

a1=2.67, a2=3.07,

что дает следующую оценку точки минимума

xa*=1.565.

Точный минимум исходной функции равен x*=1.5874.

Далее рассмотрим метод последовательного оценивания минимума с использованием квадратичной аппроксимации. Идея метода проста и заключается в последовательном применении квадратичной ап-проксимации на сужающемся интервале. Этот метод, разработанный Пауэллом, представляется следующим алгоритмом.

Алгоритм последовательной квадратичной аппроксимации

Задано: x1-начальная точка,

x-величина шага по оси x.

Вычислить x2=x1+x.

Вычислить f1=f(x1) и f2=f2(x2).

Если f1> f2, то x3=x1+2x;

иначе x3=x1-2x.

Вычислить f3=f(x3)

и найти

fmin=min{f1, f2, f3},

xmin-точка, которой соответствует fmin.

Вычислить xa* по трем точкам x1, x2 и x3 в соответствии с формулой квадратичной аппроксимации.

Вычислить [fmin-f(xa*)] и (xmin- xa*).

Если обе разности достаточно малы, то Стоп.

Выбрать "наилучшую" точку из xmin и xa* и две точки по обе стороны от нее. Пронумеровать эти точки в естественном порядке и перейти к 4.

Заметим, что при первой реализации шага 5 границы интервала, содержащего точку минимума, не обязательно оказываются установленными. При этом полученная точка xа* может находиться за точкой x3. Для того чтобы исключить возможность слишком большого экстраполяционного перемещения, следует провести после шага 5 дополнительную проверку и в случае, когда точка xа* находится слишком далеко от x3, заменить xа* точкой, координата которой вычисляется с учетом заранее установленной длины шага.

Пример. Методом Пауэлла минимизировать

f(x)= 2x3 + (16/x).

Пусть начальная точка x1=1 и длина шага x=1. Для проверки правила окончания поиска (или правила останова) будем использовать следующие параметры сходимости:

(разность значений x)/x 310-2,

(разность значений f)/f 310-3.

Итерация 1

Шаг 1. x2=x1+x=2.

Шаг 2. f(x1)=18, f(x2)=16.

Шаг 3. f(x1)> f(x2), следовательно, положить x3=1+2=3.

Шаг 4. f(x3)=22.33, Fmin=16, Xmin=x2=2.

Шаг 5. a1=(16-18)/(2-1)=-2,

a2=,

x=

f(x)=15.210.

Шаг 6. Проверка на окончание поиска:

> 0.003.

Следовательно, поиск продолжается.

Шаг 7. Выбираем x как "наилучшую" точку, а x1=1 и x2=2 - как точки, которые ее окружают. Обозначаем эти точки в ес-тественном порядке и переходим к итерации 2, которая на-чинается с шага 4.

Итерация 2.

Шаг 4. x1=1, f1=18,

x2=1.714, f2=15.210=Fmin, Xmin=x2=171,

x3=2, f3=16.

Шаг 5. a1=(15.21-18)/(1.714-1)=-3.908,

a2=,

x=

f(x)=15.142.

Шаг 6. Проверка на окончание поиска:

> 0.003.

Условие не выполняется, следовательно, поиск продолжается.

Шаг 7. Выбираем x как "наилучшую" точку, а x1=1 и x2=1.714 - как точки, которые ее окружают.

Итерация 3.

Шаг 4. x1=1, f1=18,

x2=1.65, f2=15.142=Fmin, Xmin=x2=1.65,

x3=1.714, f3=15.210.

Шаг 5. a1=(15.142-18)/(1.65-1)=-4.397,

a2=,

x=

f(x)=15.123.

Шаг 6. Проверка на окончание поиска:

< 0.003,

< 0.003.

Следовательно, поиск закончен.

1.3.2 Кубическая аппроксимация

В соответствии с рассматриваемым методом минимизируемая функция f аппроксимируется полиномом третьего порядка. Логическая схема метода аналогична схеме методов с использованием квадратичной аппроксимации. Однако в данном случае построение аппроксимирующего полинома проводится на основе меньшего количества точек, поскольку в каждой точке можно вычислять как значение функции, так и ее производной.

Работа алгоритма начинается в точке x1, задаваемой пользователем, а затем находится другая точка x2, такая, что производные f'(x1) и f'(x2) имеют разные знаки. Это означает, что стационарная точка x*, в которой f'(x*)=0, будет лежать в интервале между выбранными точками x1 и x2.

Аппроксимирующая кубическая функция записывается в виде:

fa(x)=a0+a1(x-x1)+a2(x-x1)(x-x2)+ a3(x-x1)2(x-x2). (1.25)

Параметры уравнения (1.25) подбираются таким образом, чтобы значения fa(x) и ее производной в точках x1 и x2 совпадали со значениями f(x) и f'(x) в этих точках. Первая производная fa(x) равна

fa'(x)=a1+a2(x-x1)+a2(x-x2)(x-x2)+a3(x-x1)2+2a3(x-x1)(x-x2).(1.26)

Коэффициенты a0, a1, a2 и a3 уравнения (1.26) определяются по известным значениям f(x1), f(x2), f'(x1) и f'(x2) путем решения следующей системы линейных уравнений:

f1 = f(x1)=a0,

f2 =f(x2)=a0+a1(x2-x1),

f1'=f'(x1)=a1+a2(x1-x2),

f2'=f'(x2)=a1+a2(x2-x1)+a3(x2-x1)2.

Заметим, что данная система легко решается рекурсивным методом. После того как коэффициенты найдены, действуя по аналогии со случаем квадратичной аппроксимации, можно оценить координату стационарной точки функции f c помощью аппроксимирующего полинома (1.25). При этом приравнивание к нулю производной (1.26) приводит к квадратному уравнению. Используя формулу для вычисления корней квадратного уравнения, запишем решение, определяющее стационарную точку аппроксимирующего кубического полинома, в следующем виде:

xa*=, (1.27)

где

=(f2'+w-z)/(f2'-f1'+2w),

z =3(f1-f2)/(x2-x1)+f1'+f2',

(z2-f1'f2')1/2, если x1<x2,

w =

-(z2-f1'f2')1/2, если x1<x2.

Формула для w обеспечивает надлежащий выбор одного из двух корней квадратного уравнения; для значений , заключенных в интервале от 0 до 1, формула (1.27) гарантирует, что получаемая точка xа* расположена между x1 и x2.

Затем снова выбираются две точки для реализации процедуры кубической аппроксимации - xа* и одна из точек x1 и x2, причем значения производной исследуемой функции в этих точках должны быть противоположны по знаку, и процедура кубичной аппроксимации повторяется.

1.4 Методы с использованием производных

1.4.1 Метод Ньютона-Рафсона

Все методы, рассмотренные в предыдущем разделе основываются на предположениях об унимодальности и в ряде случаев о непрерывности исследуемой целевой функции. Видимо, мы можем предположить, что если в дополнение к условию непрерывности ввести требование дифференцируемости функции, то эффективность поисковых процедур может быть существенно повышена за счет привлечения дополнительной информации о производной в пробных точках. Конечно, наиболее простым способом минимизации является аналитическое решение уравнения f'(x)=0. Но в случае сложной f(x) непосредственное получение такого решения бывает затруднительным, и поэтому нужно применять некоторые поисковые схемы, которые описаны ниже.

Метод, разработанный Ньютоном, а затем уточненный Рафсоном предполагает, что f(x) дважды дифференцируема. Работа алгоритма начинается в точке x1, которая представляет начальное приближение (или начальную оценку) искомой точки минимума, или корня уравнения f'(x)=0. Затем строится линейная аппроксимация функции f'(x) в точке x1, и точка, в которой аппроксимирующая линейная функция обращается в нуль, принимается в качестве следующего приближения.

Формализм метода заключается в следующем. Пусть xk является текущим приближением к стационарной точке. Тогда линейная аппроксимация fa' производной f'(x) в точке xk равна

fa'(x, xk)= f'(x)+ f''(xk)(x-xk) (1.28)

Приравнивая правую часть (1.28) нулю, получим следующее приближение:

xk+1 = xk-[f'(xk)/f''(xk)].

0 xk xk+2 xk+1 x

Размещено на http://www.allbest.ru/

Рис. 1.6 Метод Ньютона-Рафсона

На рис.1.6 дана геометрическая интерпретация метода Ньютона-Рафсона.

При всей своей простоте, метод Ньютона обладает существенным недостатком, который заключается в том, что его сходимость весьма чувствительна к выбору начальной точки поиска. Так, например, на рис.1.7 изображен случай, когда сходимость отсутствует:

f'(x)

0 x* x0 xk xk+1 xk+2 х

Рис.1.7 Случай отсутствия сходимости метода Ньютона-Рафсона

Рекомендации для выбора начальной точки, гарантирующие сходимость метода заключаются в следующем:

x0 должна быть достаточно близка к корню уравнения f'(x)=0;

производная f'(x0) не слишком близка к нулю;

производная f”(x0) не слишком велика.

1.4.2 Методы средней точки и секущих

Метод средней точки является эффективным методом уменьшения интервала неопределенности на основе информации, вычисленной только в одной пробной точке.

Алгоритм метода средней точки (метод Больцано)

Задать интервал унимодальности [a, b] и параметр сходимости .

Положить R=b, L=a; (при этом f'(a)<0 и f'(b)>0).

Вычислить z=(R+L)/2 и f'(z).

Если |f'(z)| , то Стоп;

иначе, если f'(z)<0, то L=z; перейти к 2;

иначе, R=z и перейти к 2.

Заметим, что логическая структура алгоритма основана на анализе только знака производной независимо от значений, которая эта производная принимает. С одной стороны это упрощает алгоритм, с другой стороны мы не используем информацию о величине производной, которая могла бы повысить эффективность поиска.

Метод секущих как раз и использует информацию не только о знаке производной, но и о величине этой производной. Предположим, что в процессе поиска стационарной точки функции f(x) в интервале унимодальности [a, b] обнаружены две точки L и R, в которых знаки производных различны. В этом случае алгоритм метода секущих позволяет аппроксимировать функцию f'(x) «секущей прямой» (или «хордой») и найти точку, в которой секущая графика f'(x) пересекает ось абсцисс (рис.1.8). Таким образом следующее приближение к стационарной точке x* определяется по формуле

z=.

Если модуль f'(z) не больше параметра сходимости , то поиск точки минимума завершен. В противном случае нужно выбрать одну из точек L или R, чтобы знаки производной в этой точке и точке z были различны, а затем повторить итрерацию. Например, в ситуации, изображенной на рис.1.8, в качестве этих точек должны быть выбраны точки z и R. Этот метод в ряде случаев позволяет исключать более половины интервала неопределенности.

f'(x)

L z x* R

Рис. 1.8 Метод секущих

Легко видеть, что в отличие от метода средней точки метод секущих основан на исследовании не только знака, но и значений производной в пробных точках и поэтому в ряде случаев позволяет исключить более половины интервала поиска.

1.4.3 Численная аппроксимация производных

В некоторых случаях аналитическое выражение для производных бывает недоступным для исследователя из-за сложности целевой функции. В этом случае можно обратиться к формулам численной аппроксимации производных, которые иногда называются конечно-разностными аппроксимациями.

Схема конечно-разностной аппроксимации вытекает из ряда Тейлора, если мы будем решать обратную задачу: аппроксимировать неизвестные значения производных в точке по известным значениям функции в окрестности некоторой точки. В одномерном случае из тейлоровского разложения в окрестности точки x0 дважды дифференцируемой функции f(x) следует, что оценка первой производной может быть записана в виде:

, (1.29)

где x=h здесь принято называть конечно-разностным интервалом.

Когда модуль |h| «достаточно» малая величина, то и ошибка аппроксимации (1.29) будет также малой. Формула (1.29) называется правой конечно-разностной аппроксимацией производной f'(x).

Аналогично для точки x-h имеем формулу левой конечно-разностной аппроксимации:

f'(x). (1.30)

Если в формулах (1.29)-(1.30) выполнить еще по одному шагу тейлоровского разложения, результатами будут равенства вида

f(x+h)f(x)+hf'(x),

f(x-h)f(x)-hf'(x).

Вычтем первое из второго и поделим полученную разность на h; это приведет к равенству

f'(x), (1.31)

называемому центральной конечно-разностной аппроксимацией для первой производной.

Заметим, что в (1.31) для расчета оценки производной требуются значения функции в двух точках, а не в одной, как для правой и левой аппроксимации. Такое привлечение дополнительной информации повышает точность оценки производной, и это-общее правило для численных методов оптимизации.

Чтобы проиллюстрировать применение конечно-разностных формул, рассмотрим функцию f(x)=x3, которая имеет производную f'(x)=3x2.

Правая аппроксимация дает в данном случае оценку f'(x), равную:

,

так что ошибкой отбрасывания будет 3xh+h2. Если же воспользоваться центральной аппроксимацией, то в качестве оценки величины 3x2 получим

,

и здесь ошибка есть просто h2.

Тейлоровское разложение функции f(x) позволяет строить формулы аппроксимации конечными разностями ее производных не только первого, но и более высоких порядков. Для этого запишем разложения до производных второго порядка включительно справа и слева от точки разложения x соответственно:

f(x+h)f(x)+hf'(x)+h2f”(x),

f(x-h)f(x)-hf'(x)+h2f”(x).

Сложив эти два равенства, получим требуемую разностную оценку второй производной:

. (1.32)

Разложение Тейлора позволяет также строить формулы конечно-разностной аппроксимации производных и высших порядков.

Приложение

На примере квадратичной аппроксимации рассмотрим минимизацию функций одной переменной.

Расчет коэффициентов аппроксимации в Microsoft Excel.

Функция y=f(x) задана таблицей 1

Таблица 1

Исходные данные

12.85

154.77

9.65

81.43

7.74

55.86

5.02

24.98

1.86

3.91

12.32

145.59

9.63

80.97

7.32

47.63

4.65

22.87

1.76

3.22

11.43

108.37

9.22

79.04

7.08

48.03

4.53

20.32

1.11

1.22

10.59

100.76

8.44

61.76

6.87

36.85

3.24

9.06

0.99

1.10

10.21

98.32

8.07

60.54

5.23

25.65

2.55

6.23

0.72

0.53

Требуется выяснить - какая из функций - линейная, квадратичная или экспоненциальная наилучшим образом аппроксимирует функцию заданную таблицей 1.

Решение.

Поскольку в данном примере каждая пара значений встречается один раз, то между и существует функциональная зависимость.

Для проведения расчетов данные целесообразно расположить в виде таблицы 2, используя средства табличного процессора Microsoft Excel.

Таблица 2

Расчет сумм

Поясним как таблица 2 составляется.

Шаг 1. В ячейки A2:A26 заносим значения .

Шаг 2. В ячейки B2:B26 заносим значения .

Шаг 3. В ячейку C2 вводим формулу =A2^2.

Шаг 4. В ячейки C3:C26 эта формула копируется.

Шаг 5. В ячейку D2 вводим формулу =A2*B2.

Шаг 6. В ячейки D3:D26 эта формула копируется.

Шаг 7. В ячейку F2 вводим формулу =A2^4.

Шаг 8. В ячейки F3:F26 эта формула копируется.

Шаг 9. В ячейку G2 вводим формулу =A2^2*B2.

Шаг 10. В ячейки G3:G26 эта формула копируется.

Шаг 11. В ячейку H2 вводим формулу =LN(B2).

Шаг 12. В ячейки H3:H26 эта формула копируется.

Шаг 13. В ячейку I2 вводим формулу =A2*LN(B2).

Шаг 14. В ячейки I3:I26 эта формула копируется.

Последующие шаги делаем с помощью автосуммирования .

Шаг 15. В ячейку A27 вводим формулу =СУММ(A2:A26).

Шаг 16. В ячейку B27 вводим формулу =СУММ(B2:B26).

Шаг 17. В ячейку C27 вводим формулу =СУММ(C2:C26).

Шаг 18. В ячейку D27 вводим формулу =СУММ(D2:D26).

Шаг 19. В ячейку E27 вводим формулу =СУММ(E2:E26).

Шаг 20. В ячейку F27 вводим формулу =СУММ(F2:F26).

Шаг 21. В ячейку G27 вводим формулу =СУММ(G2:G26).

Шаг 22. В ячейку H27 вводим формулу =СУММ(H2:H26).

Шаг 23. В ячейку I27 вводим формулу =СУММ(I2:I26).

Аппроксимируем функцию линейной функцией . Для определения коэффициентов и воспользуемся системой

Используя итоговые суммы таблицы 2, расположенные в ячейках A27, B27, C27 и D27, запишем систему в виде

решив которую, получим

и .

Таким образом, линейная аппроксимация имеет вид

.

Решение системы проводили, пользуясь средствами Microsoft Excel. Результаты представлены в таблице 3.

Таблица 3

Результаты коэффициентов линейной аппроксимации

В таблице 3 в ячейках A37:B38 записана формула {=МОБР(A33:B34)}.

В ячейках D37:D38 записана формула {=МУМНОЖ(A37:B38;C33:C34)}.

Далее аппроксимируем функцию квадратичной функцией . Для определения коэффициентов , и воспользуемся системой

Используя итоговые суммы таблицы 2,

расположенные в ячейках A27, B27, C27, D27, E27, F27 и G27 запишем систему в виде

решив которую, получим

, и

Таким образом, квадратичная аппроксимация имеет вид

Решение системы проводили, пользуясь средствами Microsoft Excel. Результаты представлены в таблице 4.

Таблица 4

Результаты коэффициентов квадратичной аппроксимации

В таблице 4 в ячейках E38:G40 записана формула {=МОБР(E33:G35)}.

В ячейках I38:I40 записана формула {=МУМНОЖ(E38:G40;H33:H35)}.

Теперь аппроксимируем функцию экспоненциальной функцией . Для определения коэффициентов и прологарифмируем значения и используя итоговые суммы таблицы 2, расположенные в ячейках A27, C27, H27 и I27 получим систему

где

Решив систему, найдем

, .

После потенцирования получим

Таким образом, экспоненциальная аппроксимация имеет вид

Решение системы проводили, пользуясь средствами Microsoft Excel. Результаты представлены в таблице 5.

Таблица 5

Результаты коэффициентов экспоненциальной аппроксимации

В таблице 5 в ячейках D45:E46 записана формула {=МОБР(D42:943)}.

В ячейках G45:G46 записана формула {=МУМНОЖ(D45:E46;F42:F43)}.

В ячейке G47 записана формула =EXP(G45).

Вычислим среднее арифметическое и по формулам:

Результаты расчета и средствами Microsoft Excel представлены в таблице 6.

Таблица 6

Вычисление средних значений X и Y.

В ячейке F49 записана формула =A26/25.

В ячейке F50 записана формула =B26/25.

Для того, чтобы рассчитать коэффициент корреляции и коэффициент детерминированности данные целесообразно расположить в виде таблицы 7, которая является продолжением таблицы 2.

Таблица 7

Вычисление остаточных сумм

Поясним как таблица 7 составляется.

Ячейки A2:A27 и B2:B27 уже заполнены (см. табл. 2).

Далее делаем следующие шаги.

Шаг 1. В ячейку J2 вводим формулу =(A2-$F$49)*(B2-$F$50).

Шаг 2. В ячейки J3:J26 эта формула копируется.

Шаг 3. В ячейку K2 вводим формулу =(A2-$F$49)^2.

Шаг 4. В ячейки K3:K26 эта формула копируется.

Шаг 5. В ячейку L2 вводим формулу =(B2-$F$50)^2.

Шаг 6. В ячейки L3:L26 эта формула копируется.

Шаг 7. В ячейку M2 вводим формулу =($D$37+$D$38*A2-B2)^2.

Шаг 8. В ячейки M3:M26 эта формула копируется.

Шаг 9. В ячейку N2 вводим формулу

=($I$38+$I$39*A2+$I$40*A2^2-B2)^2.

Шаг 10. В ячейки N3:N26 эта формула копируется.

Шаг 11. В ячейку O2 вводим формулу

=($G$47*EXP($G$46*A2)-B2)^2.

Шаг 12. В ячейки O3:O26 эта формула копируется.

Последующие шаги делаем с помощью автосуммирования .

Шаг 13. В ячейку J27 вводим формулу =СУММ(J2:J26).

Шаг 14. В ячейку K27 вводим формулу =СУММ(K2:K26).

Шаг 15. В ячейку L27 вводим формулу =СУММ(L2:L26).

Шаг 16. В ячейку M27 вводим формулу =СУММ(M2:M26).

Шаг 17. В ячейку N27 вводим формулу =СУММ(N2:N26).

Шаг 18. В ячейку O27 вводим формулу =СУММ(O2:O26).

Теперь проведем расчеты коэффициента корреляции по формуле

(только для линейной аппроксимации)

и коэффициента детерминированности по формуле

Результаты расчетов средствами Microsoft Excel представлены в таблице 8.

Таблица 8

Результаты расчета

В таблице 8 в ячейке D53 записана формула =J27/(K27*L27)^(1/2).

В ячейке D54 записана формула =1- M27/L27.

В ячейке D55 записана формула =1- N27/L27.

В ячейке D56 записана формула =1- O27/L27.

Анализ результатов расчетов показывает, что квадратичная аппроксимация наилучшим образом описывает экспериментальные данные.

Построение графиков в Excel и использование функции ЛИНЕЙН.

Рассмотрим результаты эксперимента, приведенные в исследованном выше примере.

Исследуем характер зависимости в три этапа:

Построим график зависимости.

Построим линию тренда (, , ).

Получим числовые характеристики коэффициентов этого уравнения.

Рис. 4.1 График зависимости y от x

Рис. 4.2 График линейной аппроксимации

Рис. 4.3 График квадратичной аппроксимации

Рис. 4.4 График экспоненциальной аппроксимации

Примечание: Полученное при построении линии тренда значение коэффициента детерминированности для экспоненциальной зависимости не совпадает с истинным значением , поскольку при вычислении коэффициента детерминированности используются не истинные значения , а преобразованные значения с дальнейшей линеаризацией.

Таблица 9

Программа на языке Pascal

Схема алгоритма.

Рис. 5.1 Блок-схема

program Kramer;

uses CRT;

const

n=25;

type

TArrayXY = array[1..2,1..n] of real;

TArray = array[1..n] of real;

var

SumX,SumY,SumX2,SumXY,SumX3,SumX4,SumX2Y,SumLnY,SumXLnY: real;

OPRlin,OPRkvadr,OPRa1,OPRa2,OPRa3:real;

a1lin,a2lin,a1kvadr,a2kvadr,a3kvadr,a1exp,a2exp,cexp:real;

Xsr,Ysr,S1,S2,S3,Slin,Skvadr,Sexp:real;

Kkor,KdetLin,KdetKvadr,KdetExp:real;

i:byte;

const

ArrayXY:TArrayXY=((12.85,12.32,11.43,10.59,10.21,9.65,9.63,9.22,8.44,8.07,7.74,7.32,7.08,6.87,5.23,5.02,4.65,4.53,3.24,2.55,1.86,1.76,1.11,0.99,0.72), (154.77

145.59,108.37,100.76,98.32,81.43,80.97,79.04,61.76,60.54,55.86,47.63,48.03,36.85,25.65,24.98,22.87,20.32,9.06,6.23,3.91,3.22,1.22,1.10,0.53));

begin

ClrScr;

SumX:=0.0;

SumY:=0.0;

SumXY:=0.0;

SumX2:=0.0;

SumX3:=0.0;

SumX4:=0.0;

SumX2Y:=0.0;

SumLnY:=0.0;

SumXLnY:=0.0;

{ Вычисление сумм x, y, x*y, x^2, x^3, x^4, (x^2)*y, Ln(y), x*Ln(y) }

for i:=1 to n do

begin

SumX:=SumX+ArrayXY[1,i];

SumY:=SumY+ArrayXY[2,i];

SumXY:=SumXY+ArrayXY[1,i]*ArrayXY[2,i];

SumX2:=SumX2+sqr(ArrayXY[1,i]);

SumX3:=SumX3+ArrayXY[1,i]*ArrayXY[1,i]*ArrayXY[1,i];

SumX4:=SumX4+sqr(ArrayXY[1,i])*sqr(ArrayXY[1,i]);

SumX2Y:=SumX2Y+sqr(ArrayXY[1,i])*ArrayXY[2,i];

SumLnY:=SumLnY+ln(ArrayXY[2,i]);

SumXLnY:=SumXLnY+ArrayXY[1,i]*ln(ArrayXY[2,i])

end;

{ Вычисление коэффициентов }

OPRlin:=0.0;

a1lin:=0.0;

a2lin:=0.0;

a1kvadr:=0.0;

OPRkvadr:=0.0;

a2kvadr:=0.0;

a2kvadr:=0.0;

a1exp:=0.0;

a2exp:=0.0;

OPRlin:=n*SumX2-SumX*SumX;

a1lin:=(SumX2*SumY-SumX*SumXY)/OPRlin;

a2lin:=(n*SumXY-SumX*SumY)/OPRlin;

OPRkvadr:=n*SumX2*SumX4+SumX*SumX3*SumX2+SumX2*SumX*SumX3- SumX2*SumX2*SumX2-n*SumX3*SumX3-SumX*SumX*SumX4;

a1kvadr:=(SumY*SumX2*SumX4+SumX*SumX2Y*SumX3+SumX2*SumXY*SumX3- SumX2*SumX2*SumX2Y-SumY*SumX3*SumX3-SumX*SumXY*SumX4)/OPRkvadr;

a2kvadr:=(n*SumXY*SumX4+SumY*SumX3*SumX2+SumX2*SumX*SumX2Y-SumX2*SumX2*SumXY-n*SumX3*SumX2Y-SumY*SumX*SumX4)/OPRkvadr;

a3kvadr:=(n*SumX2*SumX2Y+SumX*SumXY*SumX2+SumY*SumX*SumX3-SumY*SumX2*SumX2-n*SumXY*SumX3-SumX*SumX*SumX2Y)/OPrkvadr;

a2exp:=(n*SumXLnY-SumX*SumLnY)/OPRlin;

cexp:=(SumX2*SumLnY-SumX*SumXLnY)/OPRlin;

a1exp:=exp(cexp);

{ Вычисление средних арифметических x и y }

Xsr:=SumX/n;

Ysr:=SumY/n;

S1:=0.0;

S2:=0.0;

S3:=0.0;

Slin:=0.0;

Skvadr:=0.0;

Sexp:=0.0;

Kkor:=0.0;

KdetLin:=0.0;

KdetKvadr:=0.0;

KdetExp:=0.0;

for i:=1 to n do

begin

S1:=S1+(ArrayXY[1,i]-Xsr)*(ArrayXY[2,i]-Ysr);

S2:=S2+sqr(ArrayXY[1,i]-Xsr);

S3:=S3+sqr(ArrayXY[2,i]-Ysr);

Slin:=Slin+sqr(a1lin+a2lin*ArrayXY[1,i]-ArrayXY[2,i]);

Skvadr:=Skvadr+sqr(a1kvadr+a2kvadr*ArrayXY[1,i]+a3kvadr*ArrayXY[1,i]*ArrayXY[1,i]-ArrayXY[2,i]);

Sexp:=Sexp+sqr(a1exp*exp(a2exp*ArrayXY[1,i])-ArrayXY[2,i]);

end;

{ Вычисление коэффициентов корреляции и детерминированности }

Kkor:=S1/sqrt(S2*S3);

KdetLin:=1-Slin/S3;

KdetKvadr:=1-Skvadr/S3;

KdetExp:=1-Sexp/S3;

{ Вывод результатов }

WriteLn('Линейная функция');

WriteLn('a1=',a1lin:8:5);

WriteLn('a2=',a2lin:8:5);

WriteLn('Квадратичная функция');

WriteLn('a1=',a1kvadr:8:5);

WriteLn('a2=',a2kvadr:8:5);

WriteLn('a3=',a3kvadr:8:5);

WriteLn('Экспоненциальная функция');

WriteLn('a1=',a1exp:8:5);

WriteLn('a2=',a2exp:8:5);

WriteLn('c=',cexp:8:5);

WriteLn('Xcp=',Xsr:8:5);

WriteLn('Ycp=',Ysr:8:5);

WriteLn('Коэффициент корреляции ',Kkor:8:5);

WriteLn('Коэффициент детерминированности (линейная аппроксимация) ',KdetLin:2:5);

WriteLn('Коэффициент детерминированности (квадратическая аппроксимация) ',KdetKvadr:2:5);

WriteLn('Коэффициент детерминированности (экспоненциальная аппроксимация) ',KdetExp:2:5);

end.

Результаты расчета Pascal

Коэффициенты линейной функции

a1=-24.73516

a2=11.63471

Коэффициенты квадратичной функции

a1= 1.59678

a2=-0.62145

a3= 0.95543

Коэффициенты экспоненциальной функции

a1= 1.65885

a2= 0.40987

c= 0.50613

Xcp= 6.52320

Ycp=51.16040

Коэффициент корреляции 0.96196

Коэффициент детерминированности (линейная аппроксимация) 0.92537

Коэффициент детерминированности (квадратическая аппроксимация) 0.99409

Коэффициент детерминированности (экспоненциальная аппроксимация) 0.02691

Заключение

Сделаем заключение по результатам полученных данных:

1. Анализ результатов расчетов показывает, что квадратичная аппроксимация наилучшим образом описывает экспериментальные данные т.к. согласно таблице 8 коэффициент корреляции - 0,9620; Коэффициенты детерминированности линейной аппроксимации - 0,9253; квадратической аппроксимации - 0,994; экспоненциальной аппроксимация - 0,0269.

2. Сравнивая результаты, полученные при помощи функции ЛИНЕЙН видим что они полностью совпадают с вычислениями, проведенными выше. Это указывает на то, что вычисления верны.

3. Полученное при построении линии тренда значение коэффициента детерминированности для экспоненциальной зависимости не совпадает с истинным значением поскольку при вычислении коэффициента детерминированности используются не истинные значения y, а преобразованные значения ln(y) с дальнейшей линеаризацией.

4. Результаты полученные с помощью программы на языке PASCAL полностью совпадают со значениями приведенными выше. Это говорит о верности вычислений.

Список литературы

1. Самарский А.А., Гулин А.В. Численные методы: Учеб. пособие для вузов. М.: Наука, 1989.

2. Бахвалов Н.С. Численные методы. М.: Наука, 1975.

3. Д.Каханер, К.Моулер, С.Нэш. Численные методы и программное обеспечение. М.: Мир, 2001. 575 с.

4. Вержбицкий В.М. Численные методы. (линейная алгебра и нелинейные уравнения). М.: Высшая школа, 2000. 266 с.

5. Сборник задач по методам вычислений. (под ред. Монастырного П.И.). М.: Наука, 1994. 320 с.

Размещено на Allbest.ru

...

Подобные документы

  • Способы построения интерполяционных многочленов Лагранжа, основные этапы. Интерполирование функций многочленами Ньютона, способы построения графика. Постановка задачи аппроксимации функции одной переменной, предпосылки повышения точности расчетов.

    презентация [204,5 K], добавлен 18.04.2013

  • Определение МДНФ логической функции устройства различными методами (Квайна, Петрика, неопределенных коэффициентов и др.). Составление алгоритма метода минимизации функции и разработка его рабочих программ. Выполнение синтеза схемы логического устройства.

    курсовая работа [60,2 K], добавлен 21.11.2010

  • Нахождение экстремумов функций методом множителей Лагранжа. Выражение расширенной целевой функции. Схема алгоритма численного решения задачи методом штрафных функций в сочетании с методом безусловной минимизации. Построение линий ограничений.

    курсовая работа [259,9 K], добавлен 04.05.2011

  • Особенности метода аппроксимации табулированных функций. Рассмотрение преимуществ работы в среде математической программы Mathcad. Метод наименьших квадратов как наиболее распространенный метод аппроксимации экспериментальных данных, сферы применения.

    курсовая работа [1,2 M], добавлен 30.09.2012

  • Доказательство существования или отсутствия алгоритма для решения поставленной задачи. Определение алгоритмической неразрешимости задачи. Понятия суперпозиции функций и рекурсивных функций. Анализ схемы примитивной рекурсии и операции минимизации.

    курсовая работа [79,5 K], добавлен 12.07.2015

  • Методы последовательного поиска: деление отрезка пополам, золотого сечения, Фибоначчи. Механизмы аппроксимации, условия и особенности их применения. Методы с использованием информации о производной функции: средней точки, Ньютона, секущих, кубической.

    курсовая работа [361,5 K], добавлен 10.06.2014

  • Оценка неизвестных величин по результатам измерений, содержащим случайные ошибки, при помощи метода наименьших квадратов. Аппроксимация многочленами, обзор существующих методов аппроксимации. Математическая постановка задачи аппроксимации функции.

    курсовая работа [1,9 M], добавлен 12.02.2013

  • Сокращенные, тупиковые дизъюнктивные нормальные формы. Полные системы булевых функций. Алгоритм Квайна, Мак-Класки минимизации булевой функции. Геометрическое представление логических функций. Геометрический метод минимизации булевых функций. Карты Карно.

    курсовая работа [278,1 K], добавлен 21.02.2009

  • Преобразование коэффициентов полиномов Чебышева. Функции, применяемые в численном анализе. Интерполяция многочленами, метод аппроксимации - сплайн-аппроксимация, ее отличия от полиномиальной аппроксимации Лагранжем и Ньютоном. Метод наименьших квадратов.

    реферат [21,5 K], добавлен 27.01.2011

  • Ознакомление с историей появления метода золотого сечения. Рассмотрение основных понятий и алгоритма выполнения расчетов. Изучение метода чисел Фибоначчи и его особенностей. Описание примеров реализации метода золотого сечения в программировании.

    курсовая работа [416,0 K], добавлен 09.08.2015

  • Дифференциальное исчисление функции одной переменной: определение предела, асимптот функций и глобальных экстремумов функций. Нахождение промежутков выпуклости и точек перегиба функции. Примеры вычисления неопределенного интеграла, площади плоской фигуры.

    задача [484,3 K], добавлен 02.10.2009

  • Доказательство существования и единственности интерполяционного многочлена Лагранжа. Понятие лагранжевых коэффициентов. Способы задания наклонов интерполяционного кубического сплайна, его использование для аппроксимации функций на больших промежутках.

    презентация [251,7 K], добавлен 29.10.2013

  • Численные методы решения систем линейных уравнений: Гаусса, простой итерации, Зейделя. Методы аппроксимации и интерполяции функций: неопределенных коэффициентов, наименьших квадратов. Решения нелинейных уравнений и вычисление определенных интегралов.

    курсовая работа [322,7 K], добавлен 27.04.2011

  • Определение второго замечательного предела. Понятие бесконечно малых функций. Математическое описание непрерывности зависимости одной переменной величины от другой в точке. Точки разрыва функции. Свойства и непрерывность ее в интервале и на отрезке.

    презентация [314,4 K], добавлен 14.11.2014

  • Изучение булевых функций. Алгоритм представления булевых функций в виде полинома Жегалкина. Система функций множества. Алгебраические преобразования, метод неопределенных коэффициентов. Таблица истинности для определенного количества переменных.

    курсовая работа [701,9 K], добавлен 27.04.2011

  • Методы условной и безусловной нелинейной оптимизации. Исследование функции на безусловный экстремум. Численные методы минимизации функции. Минимизация со смешанными ограничениями. Седловые точки функции Лагранжа. Использование пакетов MS Excel и Matlab.

    лабораторная работа [600,0 K], добавлен 06.07.2009

  • Условия существования предела в точке. Расчет производных функции, заданной параметрически. Нахождение точки экстремума, промежутков возрастания и убывания функций, выпуклости вверх и вниз. Уравнение наклонной асимптоты. Точка локального максимума.

    курсовая работа [836,0 K], добавлен 09.12.2013

  • Основные правила расчета значений дифференциального уравнения. Изучение выполнения оценки погрешности вычислений, осуществления аппроксимации решений. Разработка алгоритма и написание соответствующей программы. Построение интерполяционного многочлена.

    курсовая работа [212,6 K], добавлен 11.12.2013

  • Решение задач вычислительными методами. Решение нелинейных уравнений, систем линейных алгебраических уравнений (метод исключения Гаусса, простой итерации Якоби, метод Зейделя). Приближение функций. Численное интегрирование функций одной переменной.

    учебное пособие [581,1 K], добавлен 08.02.2010

  • Задачи с параметрами и методы их решений. Использование свойств функций, параметра как равноправной переменной, симметрии аналитических выражений, "каркаса" квадратичной функции, теоремы Виета. Трансцендентные уравнения с параметром и методы их решений.

    дипломная работа [3,2 M], добавлен 06.11.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.