Принятие решений на примере задачи распознавания образов с использованием алгоритма "Дискриминантная функция"
Проведение исследования линейного дискриминантного анализа. Вычисление значений матриц ковариации. Изучение уравнения гиперплоскости в общем виде. Построение квадратичной дискриминантной функции. Существенная особенность распознавания с отказами.
Рубрика | Экономико-математическое моделирование |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 27.02.2020 |
Размер файла | 446,2 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Международный университет природы, общества и человека «Дубна»
Кафедра системного анализа и управления
Курсовая работа
Принятие решений на примере задачи распознавания образов с использованием алгоритма «Дискриминантная функция»
По курсу «Теория принятия решений»
Выполнила:
Хлупина А.А.
Дубна, 2007
Дискриминантный анализ -- это раздел математической статистики, содержанием которого является разработка методов решения задач различения (дискриминации) объектов наблюдения по определенным признакам.
Методы дискриминантного анализа находят применение в различных областях: медицине, социологии, психологии, экономике и т.д. При наблюдении больших статистических совокупностей часто появляется необходимость разделить неоднородную совокупность на однородные группы (классы). Такое расчленение в дальнейшем при проведении статистического анализа дает лучшие результаты моделирования зависимостей между отдельными признаками.
Дискриминантный анализ оказывается очень удобным и при обработке результатов тестирования отдельных лиц. Например, при выборе кандидатов на определенную должность можно всех опрашиваемых претендентов разделить на две группы: «подходит» и «не подходит».
Можно привести еще один пример применения дискриминантного анализа в экономике. Для оценки финансового состояния своих клиентов при выдаче им кредита банк классифицирует их на надежных и ненадежных по ряду признаков. Таким образом, в тех случаях, когда возникает необходимость отнесения того или иного объекта к одному из реально существующих или выделенных определенным способом классов, можно воспользоваться дискриминантным анализом.
Теоретическая часть
Дискриминантный анализ используется для решение задач распознавания в ситуациях, когда в материале обучения (МО) представлены объекты K образов (K=2,3,…), распределенные нормально.
Метод решения задачи.
Дискриминантный анализ основан на предположении, что объекты, составляющие каждый из образов, многомерно нормально распределены. Мы опираемся на эталонные объекты. Теоретически разделяются:
-- линейный дискриминантный анализ, когда матрицы ковариации для разных образов равны;
-- квадратичный дискриминантный анализ, когда матрицы ковариации для разных объектов различны.
Линейный дискриминантный анализ.
Рассмотрим случай, когда в МО имеется два образа. Оказывается, что при равных ковариационных матрицах поверхность с одной стороны, от которой больше вероятность принадлежности к одному из образов, а с другой к другому (критерий Байеса), является гиперплоскость, т.е. линейная поверхность размерности n-1 (n - размерность пространства). Уравнение гиперплоскости в общем виде можно записать следующим образом:
.
В данном случае эта поверхность вычисляется следующим образом:
где - n-мерный вектор столбец в пространстве свойств ;
- математическое ожидание (среднее) объектов 1-го образа;
- математическое ожидание (среднее) объектов 2-го образа;
- транспонирование;
- матрица коэффициентов ковариации.
Формула (1) называется уравнением линейной дискриминантной функции.
Коэффициенты ковариации вычисляются следующим образом:
,
где M - знак математического ожидания.
Коэффициенты ковариации тесно связан с коэффициентом корреляции:
,
где -- среднее квадратичное отклонение () i-го свойства;
-- среднее квадратичное отклонение () j-го свойства;
Дисперсия .
Дискриминантная плоскость разбивает все пространство на две части. При этом точки пространства, относимые к 1-му образу, при подстановки своих координат в дискриминантную функцию дадут , а точки 2-го образа -- .
Таким образом, подставляя координаты, интересующих нас объектов выборки, мы по дискриминантной функции определим, к какому из двух образов принадлежит объект (понятно, что с определенной долей вероятности). На рисунке (рис. 1) для двумерного случая это выглядит следующим образом:
Значение матриц ковариации вычисляются по формулам:
; .
Есть параметр, говорящий о качестве разбиения с помощью дискриминантной функции - это расстояние Махаланобиса:
.
Разбиение тем лучше, чем больше .
Квадратичный дискриминантный анализ.
Был рассмотрен случай, когда матрицы ковариации для разных образов равны, и для распознавания использовалась линейная дискиминантная функция. Теперь рассмотрим ситуацию, когда матрицы ковариаций разных образов не совпадают. Для различных ковариационных матриц байесовский критерий предлагает строить квадратичную дискриминантную функцию. Однако, на практике ее строят чрезвычайно редко, поскольку никогда нельзя с точностью сказать равны или нет ковариационные матрицы. Мы ведь имеем только оценки, так как работаем не со всей генеральной совокупностью объектов, а только с выборкой из нее. Поэтому обычно вычисляют усредненную ковариационную матрицу для двух образов:
,
где - число объектов в 1-ой выборке;
- число объектов во 2-ой выборке;
- ковариационная матрица для 1-го образа;
- ковариационная матрица для 2-го образа.
После этого применяется линейный дискриминантный анализ.
Распознавание с отказами.
Пусть имеется образов, где (т.е. известны эталоны для этих образов). Тогда можно построить линейную дискриминантную функцию для любой пары образов: линейный дискриминантный ковариация квадратичный
, где i, j - образы.
относится к i-му образу, если для всех j, или к области отказа, если такового i - нет.
Посмотрим как это выглядит на графике (рис. 2), где
D - гиперплоскости;
1, 2, 3 - образы;
4 - область отказа.
В область отказа попадают такие точки, для которых невозможно определить принадлежность к одному из образов. Другими словами точка отказа - это такая точка, координаты которой при подстановке в дискриминантную функцию дают следующие значения:
;
;
;
.
Дискриминантный анализ эффективно использовать при достаточно близком расположении образов и даже при небольшом их наложении.
Практика показала, что дискриминантный анализ хорошо работает и для случая, когда нет многомерного нормального распределения. При этом необходимо, чтобы распределение по каждому образу было все таки симметрично и унимодально. Правда, при этом алгоритм уже нельзя рассматривать как статистический, а можно говорить об эвристическом алгоритме распознавания образов.
Практическая часть
Постановка задачи.
Исследуем, какие свойства относят квартиру к одной из трех категорий: (1) 1-комнатной, (2) 2-комнатной или (3) 3-комнатной.
В данной задаче имеются 3 образа: 1 - 1-комнатная квартира, 2 - 2-комнатная квартира и 3 - 3-комнатная квартира и 3 свойства: общая площадь, жилая площадь и цена квартиры.
Известна часть представителей каждого образа и значения их свойств (табл. 1). Требуется отнести квартиры (МЭ) к каждому из образов (табл. 2).
Таблица 1.
Материал обучения |
||||
общ. площадь (кв.м.) |
цена (тысяч $) |
кол-во комнат |
жилая площадь |
|
44 |
50 |
1 |
32 |
|
29 |
50 |
1 |
22 |
|
31 |
58 |
1 |
20 |
|
28 |
55 |
1 |
23 |
|
40 |
54 |
1 |
31 |
|
48 |
49 |
1 |
40 |
|
44 |
48 |
1 |
37 |
|
36 |
51 |
1 |
28 |
|
26 |
60 |
1 |
18 |
|
29 |
57 |
1 |
19 |
|
41 |
56 |
1 |
36 |
|
27 |
59 |
1 |
18 |
|
47 |
61 |
1 |
39 |
|
34 |
53 |
1 |
20 |
|
47 |
49 |
1 |
36 |
|
28 |
40 |
1 |
15 |
|
49 |
54 |
1 |
32 |
|
54 |
62 |
1 |
42 |
|
52 |
59 |
1 |
43 |
|
34 |
47 |
1 |
23 |
|
46 |
59 |
1 |
35 |
|
41 |
54 |
1 |
26 |
|
36 |
56 |
1 |
27 |
|
32 |
49 |
1 |
23 |
|
28 |
51 |
1 |
16 |
|
39 |
58 |
1 |
27 |
|
30 |
54 |
1 |
20 |
|
48 |
63 |
1 |
39 |
|
44 |
51 |
1 |
31 |
|
29 |
45 |
1 |
21 |
|
52 |
57 |
1 |
44 |
|
47 |
56 |
1 |
39 |
|
46 |
58 |
1 |
38 |
|
39 |
59 |
1 |
24 |
|
47 |
60 |
1 |
35 |
|
43 |
61 |
1 |
30 |
|
42 |
51 |
1 |
29 |
|
32 |
50 |
1 |
18 |
|
36 |
57 |
1 |
22 |
|
44 |
66 |
1 |
35 |
|
56 |
72 |
2 |
40 |
|
57 |
79 |
2 |
41 |
|
59 |
80 |
2 |
43 |
|
58 |
85 |
2 |
42 |
|
69 |
83 |
2 |
53 |
|
60 |
77 |
2 |
50 |
|
64 |
88 |
2 |
52 |
|
73 |
91 |
2 |
60 |
|
56 |
90 |
2 |
42 |
|
60 |
100 |
2 |
49 |
|
60 |
89 |
2 |
50 |
|
68 |
94 |
2 |
54 |
|
64 |
97 |
2 |
51 |
|
66 |
81 |
2 |
53 |
|
57 |
75 |
2 |
55 |
|
67 |
89 |
2 |
56 |
|
65 |
96 |
2 |
50 |
|
71 |
94 |
2 |
59 |
|
68 |
91 |
2 |
58 |
|
65 |
94 |
2 |
49 |
|
72 |
86 |
2 |
60 |
|
77 |
89 |
2 |
61 |
|
60 |
88 |
2 |
48 |
|
64 |
99 |
2 |
51 |
|
70 |
91 |
2 |
58 |
|
79 |
96 |
2 |
62 |
|
67 |
98 |
2 |
56 |
|
64 |
93 |
2 |
51 |
|
58 |
94 |
2 |
43 |
|
63 |
101 |
2 |
45 |
|
57 |
94 |
2 |
42 |
|
74 |
110 |
2 |
62 |
|
60 |
118 |
2 |
42 |
|
73 |
112 |
2 |
57 |
|
69 |
120 |
2 |
47 |
|
71 |
93 |
2 |
57 |
|
70 |
99 |
2 |
56 |
|
60 |
89 |
2 |
51 |
|
79 |
94 |
2 |
65 |
|
69 |
123 |
2 |
50 |
|
100 |
130 |
3 |
80 |
|
120 |
149 |
3 |
101 |
|
88 |
150 |
3 |
62 |
|
93 |
145 |
3 |
73 |
|
87 |
173 |
3 |
63 |
|
101 |
165 |
3 |
81 |
|
87 |
127 |
3 |
61 |
|
94 |
189 |
3 |
74 |
|
84 |
156 |
3 |
70 |
|
118 |
191 |
3 |
99 |
|
100 |
183 |
3 |
84 |
|
97 |
179 |
3 |
74 |
|
118 |
178 |
3 |
100 |
|
115 |
184 |
3 |
95 |
|
123 |
187 |
3 |
106 |
|
93 |
182 |
3 |
74 |
|
92 |
167 |
3 |
73 |
|
99 |
154 |
3 |
78 |
|
109 |
185 |
3 |
95 |
|
103 |
132 |
3 |
96 |
Таблица 2
Материал экзамена |
||||
жилая площадь |
общ. площадь (кв.м.) |
цена (тысяч $) |
кол-во комнат |
|
16 |
26 |
57 |
0 |
|
26 |
34 |
48 |
0 |
|
40 |
49 |
52 |
0 |
|
39 |
48 |
48 |
0 |
|
21 |
33 |
45 |
0 |
|
15 |
26 |
45 |
0 |
|
18 |
29 |
50 |
0 |
|
21 |
30 |
47 |
0 |
|
35 |
48 |
58 |
0 |
|
15 |
26 |
50 |
0 |
|
20 |
32 |
51 |
0 |
|
21 |
33 |
52 |
0 |
|
37 |
53 |
44 |
0 |
|
24 |
36 |
54 |
0 |
|
28 |
37 |
44 |
0 |
|
20 |
30 |
45 |
0 |
|
21 |
36 |
48 |
0 |
|
34 |
45 |
54 |
0 |
|
37 |
48 |
47 |
0 |
|
26 |
39 |
49 |
0 |
|
19 |
31 |
52 |
0 |
|
49 |
65 |
96 |
0 |
|
25 |
39 |
57 |
0 |
|
24 |
42 |
58 |
0 |
|
23 |
41 |
49 |
0 |
|
43 |
52 |
49 |
0 |
|
23 |
34 |
55 |
0 |
|
22 |
39 |
58 |
0 |
|
33 |
48 |
50 |
0 |
|
26 |
40 |
50 |
0 |
|
28 |
37 |
44 |
0 |
|
27 |
38 |
50 |
0 |
|
37 |
49 |
50 |
0 |
|
40 |
52 |
55 |
0 |
|
14 |
26 |
45 |
0 |
|
35 |
47 |
47 |
0 |
|
37 |
49 |
58 |
0 |
|
41 |
53 |
53 |
0 |
|
32 |
45 |
56 |
0 |
|
33 |
46 |
59 |
0 |
|
50 |
62 |
97 |
0 |
|
52 |
65 |
117 |
0 |
|
62 |
77 |
103 |
0 |
|
60 |
74 |
94 |
0 |
|
37 |
48 |
57 |
0 |
|
64 |
78 |
73 |
0 |
|
54 |
70 |
122 |
0 |
|
65 |
76 |
118 |
0 |
|
64 |
74 |
116 |
0 |
|
55 |
67 |
92 |
0 |
|
40 |
56 |
75 |
0 |
|
51 |
65 |
78 |
0 |
|
61 |
76 |
95 |
0 |
|
56 |
68 |
80 |
0 |
|
62 |
75 |
93 |
0 |
|
59 |
71 |
102 |
0 |
|
58 |
70 |
121 |
0 |
|
50 |
64 |
92 |
0 |
|
54 |
71 |
104 |
0 |
|
49 |
62 |
99 |
0 |
|
55 |
67 |
81 |
0 |
|
65 |
74 |
87 |
0 |
|
48 |
65 |
119 |
0 |
|
44 |
58 |
107 |
0 |
|
59 |
72 |
106 |
0 |
|
66 |
78 |
122 |
0 |
|
50 |
64 |
73 |
0 |
|
60 |
75 |
93 |
0 |
|
51 |
67 |
74 |
0 |
|
61 |
73 |
114 |
0 |
|
51 |
65 |
112 |
0 |
|
89 |
106 |
151 |
0 |
|
42 |
60 |
80 |
0 |
|
56 |
67 |
94 |
0 |
|
45 |
58 |
81 |
0 |
|
44 |
60 |
111 |
0 |
|
61 |
76 |
112 |
0 |
|
41 |
56 |
90 |
0 |
|
49 |
60 |
100 |
0 |
|
54 |
69 |
89 |
0 |
|
95 |
113 |
155 |
0 |
|
90 |
107 |
178 |
0 |
|
79 |
93 |
185 |
0 |
|
89 |
106 |
133 |
0 |
|
84 |
98 |
169 |
0 |
|
100 |
117 |
143 |
0 |
|
88 |
104 |
130 |
0 |
|
98 |
115 |
187 |
0 |
|
101 |
118 |
168 |
0 |
|
102 |
119 |
159 |
0 |
|
95 |
115 |
162 |
0 |
|
87 |
103 |
140 |
0 |
|
85 |
100 |
172 |
0 |
|
104 |
122 |
171 |
0 |
|
94 |
112 |
148 |
0 |
|
49 |
61 |
84 |
0 |
|
90 |
113 |
144 |
0 |
|
70 |
84 |
162 |
0 |
|
72 |
90 |
176 |
0 |
|
70 |
93 |
137 |
0 |
На рис. 1 изображены объекты материала обучения и материала экзамена.
Рис. 1и 2 и между 2 и 3 образами.
Решение
1. Вычисляем математическое ожидание для каждого свойства, каждого образа:
M1 |
M2 |
M3 |
||
средняя общ.пл. |
39,2 |
65,5 |
101,0 |
|
средняя цена |
54,7 |
93,3 |
165,3 |
|
средняя жил.пл. |
28,825 |
51,775 |
81,95 |
Мi - математическое ожидание для i-ого образа.
M1-M2 |
M2-M3 |
M1+M2 |
M2+M3 |
M1-M3 |
M1+M3 |
||
средняя общ.пл. |
-26,2 |
-35,5 |
104,7 |
166,5 |
-61,8 |
140,3 |
|
средняя цена |
-38,6 |
-72,0 |
148,0 |
258,6 |
-110,6 |
219,975 |
|
средняя жил.пл. |
-22,95 |
-30,175 |
80,6 |
133,725 |
-53,125 |
110,775 |
2. Построим матрицы ковариации:
Матрица ковариации для 1 образа:
65,39475831 |
15,45126111 |
63,50792818 |
|
15,45126111 |
28,769375 |
16,368125 |
|
63,50792818 |
16,368125 |
69,294375 |
Матрица ковариации для 2 образа:
40,699375 |
24,9575 |
36,981875 |
|
24,9575 |
125,71 |
6,9175 |
|
36,981875 |
6,9175 |
44,124375 |
Матрица ковариации для 3 образа:
141,1983988 |
88,92908133 |
156,9474912 |
|
88,92908133 |
419,11 |
93,565 |
|
156,9474912 |
93,565 |
190,4475 |
3. Вычислим среднюю и обратную матрицы ковариации:
Средняя матрица ковариации для 1 и 2 образов
45,17612916 |
20,20438055 |
50,24490159 |
|
20,20438055 |
77,2396875 |
11,6428125 |
|
50,24490159 |
11,6428125 |
56,709375 |
Обратная матрица ковариации 1 и 2 образов
-1,544008944 |
0,203987709 |
1,326122653 |
|
0,203987709 |
-0,013589793 |
-0,177944457 |
|
1,326122653 |
-0,177944457 |
-1,120786964 |
Средняя матрица ковариации для 2 и 3 образов
63,70446628 |
46,28136044 |
76,97041373 |
|
46,28136044 |
223,51 |
35,8 |
|
76,97041373 |
35,8 |
92,89875 |
Обратная матрица ковариации 2 и 3 образов
-0,721628727 |
0,057188283 |
0,575860506 |
|
0,057188283 |
0,000236293 |
-0,04747389 |
|
0,575860506 |
-0,04747389 |
-0,44806476 |
Средняя матрица ковариации для 1 и 3 образов
90,66263848 |
39,94386785 |
94,65444918 |
|
39,94386785 |
158,8829167 |
42,10041667 |
|
94,65444918 |
42,10041667 |
109,67875 |
Обратная матрица ковариации 1 и 3 образов
0,112573908 |
-0,002847867 |
-0,096059856 |
|
-0,002847867 |
0,007078644 |
-0,0002594 |
|
-0,096059856 |
-0,0002594 |
0,092118241 |
4. Вычислим коэффициенты b и p
Для образов 1 и 2:
Для образов 2 и 3:
Для образов 1 и 3:
5. Вычисляем дискриминантную функцию и проводим распознавание.
В табл. 3 приведены результаты вычислений.
Таблица 3.
D(X)12 |
D(X)23 |
D(X)13 |
??? |
проверка на ошибки |
||||
15,90745 |
39 |
7,287869449 |
1 |
13,0744164 |
33,53826 |
50,73509 |
1 |
|
16,75062 |
39 |
11,03023955 |
1 |
17,45029061 |
40,11716 |
63,08892 |
1 |
|
10,09422 |
32 |
0,58090434 |
1 |
13,92636333 |
36,36845 |
53,12999 |
1 |
|
12,14217 |
34 |
3,421415011 |
1 |
15,36800246 |
39,85175 |
62,72821 |
1 |
|
18,94339 |
38 |
8,999483204 |
1 |
12,29444218 |
34,82638 |
53,43849 |
1 |
|
21,17611 |
41 |
13,33863465 |
1 |
11,57203918 |
33,57286 |
53,73797 |
1 |
|
18,02225 |
39 |
8,970578034 |
1 |
13,21374159 |
35,46803 |
57,26919 |
1 |
|
18,6783 |
40 |
12,42249946 |
1 |
14,79042276 |
37,19706 |
58,15642 |
1 |
|
8,44274 |
30 |
-6,79003466 |
отказ |
14,34005576 |
38,47371 |
57,4872 |
1 |
|
19,04042 |
40 |
10,3718665 |
1 |
14,88928878 |
37,58034 |
55,72701 |
1 |
|
16,71994 |
37 |
5,906457589 |
1 |
10,52881313 |
35,17265 |
56,0626 |
1 |
|
15,95341 |
37 |
4,846007804 |
1 |
14,57079697 |
38,07897 |
56,54398 |
1 |
|
13,15472 |
31 |
-4,026999682 |
отказ |
6,785758599 |
31,06148 |
47,08482 |
1 |
|
14,08097 |
35 |
2,258012078 |
1 |
15,47286513 |
35,65972 |
51,48703 |
1 |
|
17,584 |
38 |
10,93288725 |
1 |
12,34039945 |
33,04194 |
50,99663 |
1 |
|
19,67557 |
40 |
12,53972837 |
1 |
22,91901356 |
41,09119 |
63,07269 |
1 |
|
17,07277 |
36 |
2,60969881 |
1 |
10,38387063 |
29,42478 |
40,6788 |
1 |
|
10,88348 |
33 |
-0,876374984 |
отказ |
4,55486254 |
27,26883 |
38,94388 |
1 |
|
12,85529 |
33 |
1,875811947 |
1 |
6,086084975 |
29,53793 |
44,86657 |
1 |
|
15,34149 |
35 |
2,754013405 |
1 |
17,60672787 |
37,95879 |
58,25559 |
1 |
|
16,63219 |
38 |
5,780200117 |
1 |
8,408397047 |
31,00607 |
45,53019 |
1 |
|
-13,1292 |
14 |
-40,48654224 |
2 |
12,81299728 |
32,73962 |
46,55453 |
1 |
|
12,06737 |
33 |
-3,06229397 |
отказ |
12,79771792 |
35,71745 |
54,12017 |
1 |
|
11,19402 |
31 |
-9,334849453 |
отказ |
17,14524546 |
38,74827 |
60,14203 |
1 |
|
15,37766 |
33 |
-3,52757064 |
отказ |
18,07749299 |
38,76678 |
57,61527 |
1 |
|
10,35748 |
32 |
0,959676757 |
1 |
11,35424609 |
33,34446 |
48,32374 |
1 |
|
14,18962 |
36 |
3,668329109 |
1 |
15,83131757 |
37,95195 |
57,03998 |
1 |
|
12,0692 |
32 |
-6,864082637 |
отказ |
5,735082539 |
29,95349 |
44,36154 |
1 |
|
12,14583 |
31 |
-4,182162324 |
отказ |
12,74197898 |
32,85414 |
48,69445 |
1 |
|
14,71795 |
34 |
0,624085274 |
1 |
19,72897665 |
41,01506 |
64,98621 |
1 |
|
17,584 |
38 |
10,93288725 |
1 |
6,797372555 |
30,30428 |
47,12276 |
1 |
|
14,96776 |
36 |
4,766712626 |
1 |
8,880243344 |
32,11752 |
49,72917 |
1 |
|
11,37747 |
32 |
-1,440823442 |
отказ |
8,362205058 |
31,97352 |
48,98492 |
1 |
|
8,223613 |
30 |
-5,808880054 |
отказ |
11,35607879 |
32,23415 |
44,52195 |
1 |
|
21,3191 |
41 |
12,2691563 |
1 |
7,784860076 |
30,13582 |
43,40026 |
1 |
|
13,33767 |
33 |
1,273429757 |
1 |
8,858265504 |
30,97379 |
43,60582 |
1 |
|
7,960361 |
30 |
-6,18765247 |
отказ |
13,46904487 |
33,69294 |
50,00645 |
1 |
|
8,738503 |
30 |
-5,089268953 |
отказ |
17,43305935 |
37,05626 |
54,20129 |
1 |
|
10,31518 |
31 |
-4,202038933 |
отказ |
13,08553181 |
34,02543 |
48,17943 |
1 |
|
8,694378 |
30 |
-6,449195976 |
отказ |
5,811219192 |
30,6068 |
44,44987 |
1 |
|
-13,1101 |
16 |
-35,40069402 |
2 |
0,176657083 |
23,04462 |
27,79824 |
1 |
|
-22,5281 |
10 |
-49,7385334 |
2 |
-3,152705018 |
21,03872 |
23,17767 |
2 |
|
-20,3348 |
9 |
-49,17569317 |
2 |
-4,258621066 |
20,11768 |
21,65012 |
2 |
|
-15,6154 |
12 |
-41,3647437 |
2 |
-6,05492803 |
19,27057 |
19,15045 |
2 |
|
8,583898 |
31 |
-4,057724339 |
отказ |
-8,93392313 |
15,98801 |
15,1991 |
2 |
|
-8,00301 |
16 |
-30,77270213 |
2 |
-4,174535862 |
22,23441 |
29,37996 |
2 |
|
-25,9317 |
6 |
-58,24921737 |
2 |
-9,944638563 |
17,67087 |
18,84573 |
2 |
|
-26,9745 |
7 |
-53,33098806 |
2 |
-14,13756155 |
13,59199 |
11,79232 |
2 |
|
-25,5844 |
8 |
-50,14061014 |
2 |
-7,797827708 |
19,3468 |
19,25683 |
2 |
|
-12,6714 |
16 |
-34,76940666 |
2 |
-13,8557443 |
16,47528 |
14,66335 |
2 |
|
-1,10476 |
22 |
-23,82225064 |
2 |
-9,300204926 |
19,3814 |
22,25972 |
2 |
|
-5,72665 |
19 |
-27,66722024 |
2 |
-13,57904582 |
14,29609 |
11,27826 |
2 |
|
-16,5783 |
11 |
-43,96176799 |
2 |
-13,64589976 |
15,24026 |
12,43607 |
2 |
|
-7,88508 |
18 |
-28,11625927 |
2 |
-7,490451304 |
18,361 |
20,99553 |
2 |
|
-15,6706 |
12 |
-40,16900788 |
2 |
-3,446017023 |
26,06167 |
40,52378 |
2 |
|
-18,3003 |
12 |
-42,57132757 |
2 |
-11,53293369 |
16,69905 |
17,92056 |
2 |
|
-26,0766 |
8 |
-53,37795035 |
2 |
-13,27216796 |
14,55466 |
10,42337 |
2 |
|
-11,3672 |
16 |
-35,50707488 |
2 |
-14,88319245 |
13,85287 |
12,01593 |
2 |
|
-18,4396 |
10 |
-49,10542656 |
2 |
-12,86959094 |
16,17276 |
17,33624 |
2 |
|
-13,8214 |
15 |
-37,65687962 |
2 |
-12,27489919 |
14,73931 |
10,5406 |
2 |
|
-7,97283 |
18 |
-28,24251674 |
2 |
-11,80546822 |
15,41324 |
16,29567 |
2 |
|
-13,3404 |
15 |
-31,86387657 |
2 |
-14,2118655 |
11,82837 |
7,902211 |
2 |
|
-22,8104 |
9 |
-55,20315405 |
2 |
-8,587084644 |
19,03744 |
20,71411 |
2 |
|
-15,738 |
15 |
-41,60480237 |
2 |
-14,50017794 |
14,76475 |
11,24936 |
2 |
|
-20,2053 |
10 |
-46,48131658 |
2 |
-13,26238671 |
14,90777 |
14,26309 |
2 |
|
-29,2188 |
5 |
-57,70807323 |
2 |
-17,73762548 |
9,189969 |
1,745065 |
2 |
|
-3,25157 |
21 |
-24,23335594 |
2 |
-15,37718549 |
14,55929 |
12,58038 |
2 |
|
-15,3846 |
12 |
-42,30796458 |
2 |
-11,93734341 |
16,19126 |
14,80948 |
2 |
|
-4,41089 |
19 |
-28,36695473 |
2 |
-10,04217042 |
17,42166 |
14,87975 |
2 |
|
-24,1048 |
8 |
-50,62576342 |
2 |
-14,30011465 |
13,17663 |
5,182357 |
2 |
|
-20,2494 |
11 |
-47,84124361 |
2 |
-9,702781945 |
17,7633 |
15,34684 |
2 |
|
-50,3938 |
-13 |
-93,34141257 |
3 |
-22,73558331 |
9,023925 |
1,120986 |
2 |
|
-4,31203 |
19 |
-30,7963601 |
2 |
-20,54331372 |
10,15978 |
-3,50337 |
2 |
|
-13,6686 |
16 |
-34,88663557 |
2 |
-22,67851062 |
7,726651 |
-3,87654 |
2 |
|
-4,77534 |
21 |
-25,10812968 |
2 |
-23,88012583 |
5,446087 |
-13,1719 |
2 |
|
-17,8393 |
12<... |
Подобные документы
Применение дискриминантного анализа. Дискриминантные функции и их геометрическая интерпретация. Расчет коэффициентов дискриминантной функции. Классификация при наличии двух обучающих выборок. Взаимосвязь между дискриминантными переменными и функциями.
реферат [4,6 M], добавлен 08.05.2009Определение параметров линейной регрессии и корреляции с использованием формул и табличного процессора MS Excel. Методика расчета показателей парной нелинейной регрессии и корреляции. Вычисление значений линейных коэффициентов множественной детерминации.
контрольная работа [110,4 K], добавлен 28.07.2012Решение задач линейного программирования с применением алгоритма графического определения показателей и значений, с использованием симплекс-метода. Использование аппарата теории двойственности для экономико-математического анализа оптимального плана ЗЛП.
контрольная работа [94,6 K], добавлен 23.04.2013Решение задач при помощи пакета прикладных программ MatLab. Загрузка в MatLab матриц A и P. Нахождение оптимальной стратегии для заданных матриц с использованием критериев принятия решений в условиях неопределённости Вальда, Гурвица, Лапласа, Сэвиджа.
лабораторная работа [80,2 K], добавлен 18.03.2015Формулирование экономико-математической модели задачи в виде основной задачи линейного программирования. Построение многогранника решений, поиск оптимальной производственной программы путем перебора его вершин. Решение задачи с помощью симплекс-таблиц.
контрольная работа [187,0 K], добавлен 23.05.2010Разработка и принятие правильного решения как задачи работы управленческого персонала организации. Деревья решений - один из методов автоматического анализа данных, преимущества их использования и область применения. Построение деревьев классификации.
контрольная работа [91,6 K], добавлен 08.09.2011Построение математической модели, максимизирующей прибыль фирмы от реализации всех сделок в виде задачи линейного программирования. Сущность применения алгоритма венгерского метода. Составление матрицы эффективности, коэффициентов затрат и ресурсов.
контрольная работа [168,7 K], добавлен 08.10.2009Проведение анализа экономической деятельности предприятий отрасли: расчет параметров линейного уравнения множественной регрессии с полным перечнем факторов, оценка статистической значимости параметров регрессионной модели, расчет прогнозных значений.
лабораторная работа [81,3 K], добавлен 01.07.2010Порядок построения линейного регрессионного уравнения, вычисление его основных параметров и дисперсии переменных, средней ошибки аппроксимации и стандартной ошибки остаточной компоненты. Построение линии показательной зависимости на поле корреляции.
контрольная работа [75,1 K], добавлен 29.01.2010Построение модели планирования производства. Использование инструментального средства "Поиск решения" для решения задачи линейного программирования. Решение оптимальной задачи, с использованием методов математического анализа и возможностей MathCad.
лабораторная работа [517,1 K], добавлен 05.02.2014Выполнение кластерного анализа предприятий с помощью программы Statgraphics Plus. Построение линейного уравнения регрессии. Расчет коэффициентов эластичности по регрессионным моделям. Оценка статистической значимости уравнения и коэффициента детерминации.
задача [1,7 M], добавлен 16.03.2014Описание алгоритма культурного обмена и проведение экспериментального исследования средней трудоемкости алгоритма случайного поиска. Основные идеи алгоритма и эффективность итерационных методов решения. Зависимость функции качества от длины генотипа.
курсовая работа [373,3 K], добавлен 24.06.2012Построение уравнения регрессии, учитывающего взаимодействия факторов, проверка полученной модели на адекватность. Построение математической модели и нахождение численных значений параметров этой модели. Вычисление коэффициентов линейной модели.
курсовая работа [1005,0 K], добавлен 07.08.2013Проведение корреляционно-регрессионного анализа в зависимости выплаты труда от производительности труда. Построение поля корреляции, выбор модели уравнения и расчет его параметров. Вычисление средней ошибки аппроксимации и тесноту связи между признаками.
практическая работа [13,1 K], добавлен 09.08.2010Построение корреляционного поля между накоплениями и стоимостью имущества. Расчет коэффициентов линейного уравнения множественной регрессии, статистическая значимость уравнения. Точечный и интервальный прогноз накоплений. Парная и частная корреляция.
контрольная работа [145,3 K], добавлен 12.09.2013Примеры решения задач линейного программирования в Mathcad и Excel. Нахождение минимума функции f(x1, x2) при помощи метода деформируемого многогранника. Построение многофакторного уравнения регрессии для решения экономико-статистической задачи.
курсовая работа [1,3 M], добавлен 17.12.2011Нахождение области допустимых значений и оптимумов целевой функции с целью решения графическим методом задачи линейного программирования. Нахождение оптимальных значений двойственных переменных при помощи симплексного метода и теории двойственности.
контрольная работа [116,0 K], добавлен 09.04.2012Транспортная задача линейного программирования, закрытая модель. Создание матрицы перевозок. Вычисление значения целевой функции. Ввод зависимостей из математической модели. Установление параметров задачи. Отчет по результатам транспортной задачи.
контрольная работа [202,1 K], добавлен 17.02.2010Способы решения задач линейного программирования с вещественными числами симплекс-методом. Общие задачи, формы записи, максимизация и минимизация функции методом искусственного базиса. Пути поиска и исключения из базиса искусственных переменных.
контрольная работа [130,6 K], добавлен 09.02.2013Формулировка проблемы в практической области. Построение моделей и особенности экономико-математической модели транспортной задачи. Задачи линейного программирования. Анализ постановки задач и обоснования метода решения. Реализация алгоритма программы.
курсовая работа [56,9 K], добавлен 04.05.2011