Математические методы обработки и интерпретации результатов тестовых экспериментов

Структура и способы представления многомерных матриц. Основные операции над многомерными матрицами. Решение линейных многомерно-матричных уравнений на основе псевдообращения многомерной матрицы. Критерий согласия законов распределения А.Н. Колмогорова.

Рубрика Программирование, компьютеры и кибернетика
Вид курсовая работа
Язык русский
Дата добавления 15.01.2018
Размер файла 301,7 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

1. основы описания многомерных тестовых данных

1.1 Упорядоченные множества элементов. Структура и способы представления многомерных матриц

Наряду с понятием множества как совокупности неупорядоченных элементов важным понятием является понятие упорядоченного множества элементов. Многомерной матрицей (ММ) называется упорядоченная совокупность многоиндексных элементов i1i2…i, где i = 1,2,…n; . Целые положительные числа , NA = n1n2…n, n называются соответственно размерностью матрицы А, размером матрицы А, размером индекса i. Размерность показывает число индексов в обозначении элементов i1i2…i матрицы. Размер NA матрицы А указывает общее число элементов матрицы. Размер индекса n показывает, сколько значений (от 1 до n) пробегает соответствующий индекс.

Структура многомерных матриц определяется структурой их индексов. Структура индекса может быть столбцовой или строчной. Индексы, имеющие, например, строчную структуру (строчные индексы), показывают положение элементов внутри какого-либо столбца. При индексном представлении элементов матрицы целесообразно ставить знак «+» или «-» соответственно над столбцовым или строчным индексом. Например, di+j- - элементы обычной двухмерной (плоской) матрицы. Общее представление многомерной матрицы А имеет вид А = А(p,q), где р - число столбцовых индексов, q - число строчных индексов. Для получения индексного представления многомерной матрицы вводится помечивание индексов. Пометка начинается с последнего индекса, который при q0 принимается за строчный. Далее столбцовые и строчные индексы чередуются до тех пор, пока один из видов индексов не исчерпывается. При pq все оставшиеся индексы принимаются за столбцовые, при pq - за строчные. Числа p и q в сумме дают размерность матрицы А: p+q = . Если матрица А является функциональной, например зависит от времени t, от пространственных координат x, y и т.д., то структурные числа p и q следует отделять от аргументов точкой с запятой, например A = A(p,q;t,x,y). Для наглядного представления многомерной матрицы используют табличное представление. Табличное представление многомерной матрицы - это блочно-иерархическая таблица, отображающая на плоскости структуру матрицы и численные значения элементов. Иерархия согласована с иерархией индексов таким образом, что крайним левым индексам соответствуют наиболее крупные блоки. При этом столбцовые индексы изменяются в столбцах, а строчные - в строках. Примеры представления многомерных матриц приведены в таблице 1.1.

Таблица 1.1

Общее представление

Индексное представление

Табличное представление

А(0,1)

{-}

i =

i=1

i=2

a1

a2

А(1,2)

{}=

i, j, k =

i=1

i=1

i=2

i=2

k=1

k=2

k=1

k=2

j=1

a111

a112

a211

a212

j=2

a121

a122

a221

a222

j = 1

j = 2

B(1,1) = {} =

i = 1

3

2

i, j =

i = 2

7

4

1.2 Основные операции над многомерными матрицами

1.2.1 Умножение ММ на скаляр

При этом каждый элемент матрицы умножается на скаляр. Это можно представить в виде

A(p,q)*б = {б*{}}.

1.2.2 Сложение ММ

Суммировать (вычитать) можно только такие матрицы, которые имеют одинаковые размерности, структуру и размеры. При этом суммирование осуществляется поэлементно: если

C(p,q) = A(p,q)+B(p,q), то {} = {} + {}.

1.2.3 Транспонирование ММ

Операция обозначается верхним индексом «Т» и заключается в замене структуры индексов на противоположную и в последующем упорядочении индексов в соответствии с правилами помечивания. Например, если

A = A(1,2) = {}, то B = AT = B(2,1) = {},

так что =.

1.2.4 Свернутое произведение ММ

Оно образуется по следующим правилам:

1. Свертка индексов производится тогда и только тогда, когда первый сомножитель содержит строчные индексы, а второй - столбцовые, и размеры соответствующих индексов (столбцового и строчного) совпадают.

2. Свертка строчных индексов первого сомножителя по столбцовым индексам второго сомножителя производится в соответствии с их естественным порядком: первый строчный индекс первого сомножителя свертывается с первым столбцовым индексом второго сомножителя, второй - со вторым и т.д.

3. Свертка двух индексов заключается в том, что элемент результата образуется путем суммирования произведений элементов сомножителей по свернутому индексу. При этом два свернутых индекса обозначаются одинаково и теряют свою структуру.

1.2.5 Обращение ММ

Многомерная матрица В = А-1 называется обратной по отношению к матрице А = (р,р), если выполняются следующие соотношения:

А(р,р)В = ВА(р,р) = Е(р,р). (1.1)

Обратная многомерная матрица существует тогда и только тогда, когда определитель исходной гиперквадратной матрицы отличен от нуля. Численное обращение квадратной матрицы может осуществляться путем плоского обращения ее двумерного табличного представления.

Таким образом, общее правило получения обратной матрицы можно записать следующим образом.

1. Обратная матрица строится на основе обращения ее табличного представления.

2. Индексы обратной матрицы располагаются так же, как при транспонировании матрицы. Построенная таким образом матрица определяет структуру обратной матрицы, а значения элементов устанавливаются по табличному представлению обратной матрицы.

Многомерные обратные матрицы могут использоваться для представления решения линейных многомерно-матричных уравнений типа А(р,р)Х(р,0) = В(р,0), которое дается соотношением

Х(р,0) = А-1(р,р)В(р,0).

1.3 Решение линейных многомерно-матричных уравнений на основе псевдообращения многомерной матрицы

Многоиндексные задачи линейного оценивания можно формализовать в виде многомерно-матричных уравнений

Y(p,0) = H(p,q)X(q,0) + V(p,0) (1.2)

где X(q,0) - столбец оцениваемых характеристик или массивов; Y(p,0) - столбец наблюдений или измерений; H(p,q) - известная матрица преобразования; V(p,0) - столбец ошибок измерений.

Матрица H+(q,p) может быть выражена через сингулярное разложение матрицы H(p,q).

Прямое и обратное сингулярные преобразования многомерной матрицы имеют вид

, (1.3)

, (1.4)

где U(p,p), V(q,q) - многомерные ортогональные матрицы собственных элементов для матриц H(p,q)HT(p,q) и HT(p,q) H(p,q) соответственно; 1/2(p,q) - диагональная многомерная матрица сингулярных чисел H(p,q). Выражение для псевдообращения H(p,q) через сингулярное разложение запишется в виде

(1.5)

Псевдообращение диагональных элементов 1/2(p,q) означает вычисление их обратных значений, а для «нулевых» элементов (величина «нулевых» элементов меньше некоторого малого числа ) результат псевдообращения будет равен нулю. Основная трудность вычисления псевдообратной матрицы через сингулярное разложение заключается в нахождении матриц U(p,p), V(q,q). После определения многомерной псевдообратной матрицы псевдорешение многомерного уравнения (1.2) находится в виде

(1.6)

Это решение минимизирует норму

Y(p,0) - H(p,q)X(q,0).

2. ПРОВЕРКА ВЕРОЯТНОСТНЫХ ГИПОТЕЗ В УСЛОВИЯХ МАЛЫХ ВЫБОРОК

2.1 Теоретико-множественный подход к определению вероятности события

Для определения вероятности события с помощью данного подходя необходимо:

- уяснить существо и при необходимости дать словесную формулировку случайного события А, вероятность которого требуется нейти;

- построить область, точки которой интерпретируют все равновозможные события из определенной полной группы и найти ее размер - Sn;

- построить подобласть, все точки которой интерпретируют равновозможные события из определенной полной группы и благоприятствуют событию А; найти ее размер Sm;

- вычислить отношение .

Таким образом, для подсчета вероятностей при проведении экспериментальных исследований основными являются теоретико-множественный и частотный методы. В связи с этим рассмотрим алгоритм подсчета вероятности попадания точки в выпуклую область. Любую невыпуклую область можно представить в виде совокупности выпуклых областей. Например, задана невыпуклая область D (рис.2.1). Эту область можно дополнить до выпуклой добавлением следующей области F, которая является выпуклой. Совокупную область назовем G. Тогда задача сведется к нахождению вероятности попадания в область G и непопадания в область F.Возможен другой подход-разбиение исходной области на выпуклые подмножества.

Размещено на http://www.allbest.ru/

Рис.2.1. Представление невыпуклой области совокупностью выпуклых областей

Наиболее простым и удобным для практики в описании выпуклых множеств является задание системой линейных неравенств.

2.2 Метод гиперплоскостей для построения выпуклой области

Метод гиперплоскостей заключается в последовательном включении каждой граничной точки в выпуклую оболочку и в исключении гиперплоскостей, оказавшихся внутри области.

Размещено на http://www.allbest.ru/

Рис. 2.2. Множество допустимых точек

Вычислительная процедура построения области работоспособности по граничным точкам методом гиперплоскостей заключается в выполнении следующих операций.

1. Выбираются произвольным образом первые (N + I) граничные точки (на рис.2.2 для N = 2 точки 1, 2, 3) и строятся по ним (N + 1) гиперплоскости (для N = 2 прямые 1-2, 2-3, 3-1). Для каждой построенной гиперплоскости запоминаются координаты граничных точек, по которым она построена, и координаты ее вершины.

Вершиной данной гиперплоскости условимся называть ту точку из выбранных (N + 1) точек, через которую не проводится гиперплоскость (на рис.2.2 точки 1 и 2 являются соответственно вершинами гиперплоскостей 2-3 и 1-3).

2. Определяется для следующей, выбранной произвольно, граничной точки (точка 4) соответствующая ей генеральная прямая гиперплоскость (прямая 1-3). Генеральной гиперплоскостью данной граничной точки будем называть гиперплоскость, вершина которой и данная граничная точка расположены по разные от нее стороны.

Генеральных гиперплоскостей для данной граничной точки может быть несколько (для точки 5 прямые 1-4, 3-4), особенно при построении многомерных областей работоспособности. Поэтому поиск генеральной гиперплоскости осуществляется среди всех ранее построенных гиперплоскостей.

Отсутствие генеральной гиперплоскости для граничной точки означает, что точка находится внутри области, образованной ранее проведенными гиперплоскостями.

3. Выполняется п.1 для данной граничной точки и точек, через которые была ранее проведена ее генеральная плоскость, найденная в п.2. Затем в памяти ЭВМ стираются значения коэффициентов генеральной гиперплоскости, координаты ее вершины и точек, через которые она проведена. В противном случае область может быть построена неверно, так как генеральная гиперплоскость пересекает ее, а также может быть принята за генеральную гиперплоскость для последующих граничных точек.

Аналогичные действия выполняются для каждой генеральной гиперплоскости, если их для данной граничной точки несколько. При этом среди вновь проведенных гиперплоскостей будут одинаковые (на рис. 2.2 через точки 4 и 5 дважды проводится прямая 4-5), информация о которых должна стираться в памяти ЭВМ по тем же причинам, что и для генеральных гиперплоскостей.

4. Выбирается следующая по порядку граничная точка, и все повторяется с п.2.

После перебора всех граничных точек процесс построения области работоспособности заканчивается и производится определение знаков “” “” для системы линейных неравенств ).

Знаки неравенств “” и " " определяются в результате подстановки координат вершин гиперплоскости в уравнение гиперплоскости. При этом используется свойство вершин принадлежать области работоспособности. Символ "” соответствует отрицательному знаку результата подстановки, символ “” - положительному. Для удобства использования результатов построения области работоспособности все неравенства приводятся к виду “0”.

2.2.1 Построения гиперплоскости через заданные N граничных точек

Эта процедура занимает центральное место в данном алгоритме. Коэффициенты гиперплоскости (неравенства) определяются в результате решения системы линейных алгебраических уравнений (N + 1)-го порядка. Систему получают в результате составления уравнений гиперплоскостей, записав вместо переменных координаты N точек, через которые необходимо провести гиперплоскость:

------------------------------------

. (3)

Так как количество неизвестных коэффициентов (N + I), то необходимо одному из них задать произвольное значение, например a = 1, Однако в этом случае невозможно построить гиперплоскости, параллельную оси координат X.

Аналогично, если присвоить значение другому коэффициенту b = 1 уравнений (3), то предлагаемый подход будет неприменим для построения гиперплоскостей, параллельных соответствующим осям координат, а при задании k 0 - для построения гиперплоскостей, проходящих через начало координат.

С целью устранения второго недостатка вводятся (N + 1)-я переменная z и дополнительная точка (точка 4 на рис.4). Тогда построение гиперплоскости осуществляется в (N + 1)-м пространстве, а произвольное значение присваивается коэффициенту при переменной z. Координаты дополнительной точки (точка 4) необходимо выбирать такими, чтобы ни одна из гиперплоскостей не была параллельна оси координат (N + 1)-й переменной z. Это требование выполняется, если значение хотя бы одной из координат дополнительной точки (не считая координаты по оси z) меньше минимального или больше максимального значения соответствующей координаты множества граничных точек. Значения остальных координат задаются произвольно.

В результате решения (N + 1)-го порядка (3) определяются значения коэффициентов (N + 1)-й гиперплоскости. Исключение из уравнений гиперплоскостей дополнительной переменной позволяет получить область в N-мерном пространстве (заштрихованная область на рис.2.3).

Размещено на http://www.allbest.ru/

Рис 2.3. Графическое представление дополнительной точки

2.3 Некоторые важные распределения случайных величин

2.3.1 Нормальное распределение (закон Гаусса)

Нормальное распределение возникает в тех случаях, когда складывается много независимых случайных величин , причем эти величины сравнимы по порядку своего влияния на рассеивание суммы.

Плотность вероятности

где ; .

Для вычисления функции распределения F(x) часто используется табулированная функция

которая называется функцией Лапласа. Функция Лапласа обладает свойствами, которые целесообразно учитывать при расчетах 1) Ф(0) = 0; 2) -Ф(-х) = Ф(х) (нечетная функция); 3) Ф(+) = 0,5 и, значит Ф(-) = -0,5.

.

Если не принимать во внимание событий, происходящих с вероятностями не более 0,0027, то можно практически ограничить диапазон возможных значений нормальной случайной величины(-3до+3). (правило «трех сигма»). Значения функции приведены в табл. 2.1, 2.2.

Значения плотности стандартного нормального распределения

.

Таблица 2.1

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1,0

1,1

1,2

1,3

1,4

1,5

1,6

1,7

1,8

1,9

2,0

0,3989

0,3970

0,3910

0,3810

0,3683

0,3521

0,3332

0,3123

0,2897

0,2661

0,2420

0,2179

0,1942

0,1714

0,1497

0,1295

0,1109

0,0941

0,0790

0,0656

0,0540

2,1

2,2

2,3

2,4

2,5

2,6

2,7

2,8

2,9

3,0

3,1

3,2

3,3

3,4

3,5

3,6

3,7

3,8

3,9

4,0

0,0440

0,0355

0,0283

0,0224

0,0175

0,0136

0,0104

0,0079

0,0060

0,0044

0,0033

0,0024

0,0017

0,0012

0,0009

0,0006

0,0004

0,0003

0,0002

0,0001

Значения функции Лапласа .

Таблица 2.2
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,2
1,5
0,00000
0,03983
0,07926
0,11791
0,15542
0,19146
0,22575
0,25804
0,28814
0,31594
0,34134
0,38493

0,43319

2,0
2,5
2,6
2,7
2,8
2,9
3,0
3,5
4,0
4,5
4,6
4,8

5,0

0,47725
0,49379
0,49534
0,49653
0,49744
0,49813
0,49865
0,49977
0,499968
0,499997
0,49999978
0,49999992

0,49999997

2.3.2 Распределение (распределение хи-квадрат или Пирсона)
Формальная модель - случайные величины подчинены нормированному нормальному распределению, причем переменных независимы, остальные линейно связаны с этими переменными.
Тогда случайная величина
подчинена - распределению с числом степеней свободы .

Пример -распределения дан на рис. 2.4 (плотность распределения) и рис. 2.5 (функция распределения).

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Рис. 2.4. Плотность распределения Рис. 2.5. Функция распределения

В таблице 2.3 для -распределения приведены значения , полученные из условия .

Таблица 2.3
-распределение

0,99

0,95

0,2

1
2
3
4
5
10
15
20
25

30

6,35
9,21
11,345
13,277
15,086
23,209
30,578
37,566
44,314

50,892

3,841
5,991
7,815
9,488
11,070
18,307
24,996
31,410
37,652

43,773

0,064
0,446
1,005
1,649
2,343
6,179
10,307
14,578
18,940

23,364

Для -распределение достаточно хорошо представляется нормальным законом. Распределение широко используется при статистических расчетах для оценки точности определения дисперсии, для оценки точности согласия различных законов распределения.
2.3.3 t-распределение Стьюдента
Формальная модель - случайные величины подчинены нормальному распределению с нулевым средним и произвольной дисперсией . Величина не зависит от остальных , а среди имеется линейно независимых величин.
Тогда случайная величина
подчинена t-распределению с числом степеней свободы .
При увеличении числа степеней свободы t-распределение приближается к нормированному гауссовскому распределению ( практически при ).

Пример t-распределения Стьюдента дан на рис. 2.6 (плотность распределения) и рис. 2.7 (функция распределения).

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Рис,2.6 t-распределение Стьюдента Рис,2.7 t-распределение

(плотность распределения) (функция распределения)

В таблице 2.4 для t-распределения приведены значения , полученные из условия .

Таблица 2.4
t-распределение

0,99

0,95

0,9

1
2
3
4
5
6
7
8
9
10
15
20
25
30

40

31,821
6,965
4,541
3,747
3,365
3,143
2,998
2,896
2,821
2,764
2,602
2,528
2,485
2,457

2,423

6,314
2,92
2,353
2,132
2,015
1,943
1,895
1,86
1,833
1,812
1,753
1,725
1,706
1,697

1,684

3,078
1,886
1,638
1,533
1,476
1,44
1,415
1,397
1,383
1,372
1,341
1,325
1,316
1,31

1,303

Распределение Стьюдента находит широкое применение при статистической оценке параметров распределения, при статистической проверке вероятностных гипотез при неизвестной дисперсии .
матрица многомерный распределение уравнение
2.3.4 F-распределение Фишера
Формальная модель - случайные величины и подчинены нормальному закону распределения с нулевым средним и произвольной дисперсией .
Величины не зависят от . Кроме того, пусть среди имеется , а среди - линейно независимых величин.
Тогда случайная величина
подчинена F-распределению с числами степеней свободы числителя и знаменателя .

Пример F-распределения Фишера дан на рис. 2.8 (плотность распределения)

Размещено на http://www.allbest.ru/

рис. 2.8. Плотность распределения

В таблице 2.5 для F-распределения приведены значения , полученные из условия .

Таблица 2.5

Значение F (распределение Фишера) при вероятности

Число степеней свободы для большей дисперсии

5

20

60

120

1

2

3

4

5

6

7

8

9

10

20

30

40

60

120

230

19,3

9,01

6,26

5,05

4,39

3,97

3,69

3,48

3,33

2,7

2,53

2,45

2,37

2,29

248

19,45

8,66

5,80

4,56

3,87

3,44

3,15

2,94

2,77

2,12

1,93

1,84

1,75

1,66

252,2

19,48

8,57

5,69

4,43

3,74

3,30

3,01

2,79

2,62

1,95

1,74

1,64

1,53

1,43

253,3

19,49

8,55

5,66

4,40

3,70

3,27

2,97

2,75

2,58

1,90

1,68

1,58

1,47

1,35

Распределение Фишера находит применение при проверке оценок дисперсий, при статистической проверке вероятностных гипотез о качестве различных моделей случайных процессов.

2.4 Варианты одномерного статистического контроля

При проверке статистических гипотез используется понятие нулевой (прямой) и альтернативной (обратной) гипотез. Прямая гипотеза (Н0) является основной и обычно содержит утверждение об отсутствии различий между сравниваемыми величинами. Альтернативная гипотеза (H1) представляется конкурирующей по отношению к нулевой и принимается после того, как отвергнута основная.

Удобно разделить ошибки, допускаемые при проверке гипотез, на два основных, типа:

1) Отклонение гипотезы Н0, когда она верна, - ошибка первого рода. Ее принято обозначать через б принимается равной 0,05 или 0,01, хотя, конечно, можно использовать и другие значения б. Число (1- б) называют коэффициентом доверия или доверительной вероятностью.

2) Принятие гипотезы Н0, когда верна какая-либо другая гипотеза, - ошибка второго рода. Вероятность ошибки второго рода принято обозначать через в.

Взаимосвязь вероятностей б и в можно представить таблицей 2.6.

Таблица 2.6

Ошибки 1-го и 2-го рода

Условия

Решения

Принять H0

Принять H1

СправедливаH0

Правильное

б-вероятность ошибка 1 рода

СправедливаH1

в-вероятность ошибки 2 рода

Правильное

2.4.1 Проверка гипотезы о математическом ожидании контролируемого параметра большой партии изделий с нормальным законом распределения и известной дисперсией по выборке малого объема (n1 =10)

Гипотеза H0:

Гипотеза H1:

Вид выборки: любая - большая, малая.

Закон распределения: нормальный.

, (2.1)

где известна.

Статистика - формируемая случайная величина с известным законом распределения:

Закон распределения статистики U нормальный, mu =0; уu =1.

Условия принятия H0 : U < Uкр.

Определение величины Uкр показано на рис.2.9.

Рис.2.9

(2.2)

Sкр обозначает величину площади.

2.4.2 Проверка гипотезы о математическом ожидании контролируемого параметра большой партии изделий, с нормальным законом распределения и неизвестной дисперсией по выборке малого объема (n 1 =10)

Гипотеза H0 :

(2.3)

Гипотеза H1 :

Вид выборки: любая - большая, малая.

Закон распределения - (1), где неизвестна.

Статистика:

(2.4)

(2.5)

Закон распределения статистики U - распределение Стьюдента с n=(n1-1) степенями свободы.

Условие принятия гипотезы H0 : U < Uкр.

2.4.3 Проверка гипотезы о математическом ожидании контролируемого параметра большой партии изделий с произвольным законом распределения по выборке большого объема (n 1 =40)

Гипотеза H0 :

Гипотеза H1 :

Вид выборки: большая.

Закон распределения: произвольный.

Статистика-(2.4), (2.5).

Закон распределения статистики U нормальный закон, mu=0; уu=1.

Условия принятия H0: U < Uкр.

Для иллюстрации можно использовать рис.2.9.

2.4.4 Проверка гипотезы о средних значениях контролируемого параметра больших партий изделий с нормальным законом распределения и известными дисперсиями по двум малым выборкам

(n1 =10; n2 =15 )

Гипотеза H0:

(2.6)

Гипотеза H1:

Вид выборки: любая - большая, малая.

Закон распределения - для независимых случайных величин x,y нормальные законы распределения с известными дисперсиями уx2, уy2.

Статистика:

Закон распределения статистики U - нормальный закон, mu=0; уu2=1.

Условия принятия H0: U < Uкр.

Для иллюстрации можно использовать рис.1.

2.4.5 Проверка гипотезы о средних значениях контролируемого параметра двух больших партий изделий с нормальным законом распределения и неизвестными дисперсиями по двум малым выборкам (n 1 =10; n 2 =15)

гипотеза H0: , определяемые соотношениями (2.6).

Гипотеза H1:

Вид выборки: малая.

Закон распределения - для независимых случайных величин x,y нормальные законы распределения с известными дисперсиями уx2, уy2(в лабораторной работе уx2= уy2 ).

Статистика:

(2.7)

(2.8)

(2.9)

Закон распределения статистики U - распределение Стьюдента с n=n1+n2-1 степенями свободы .

Условия принятия H0: U < Uкр.

Для иллюстрации можно использовать рис.2.9.

2.4.6 Проверка гипотезы о средних значениях контролируемого параметра двух больших партий изделий с произвольным законом распределения по выборкам большого объема (n1 =40; n2 =40)

Гипотеза H0: , определяемые соотношениями (2.6).

Гипотеза H1:

Вид выборки: большая.

Закон распределения: произвольный.

Статистика: определяется соотношениями (2.7), (2.8), (2.9).

Закон распределения статистики U - нормальный, mu=0; уu2=1.

Условия принятия H0: U < Uкр.

Для иллюстрации можно использовать рис.2.9.

2.4.7 Проверка гипотезы о средних значениях контролируемого параметра двух больших партий изделий с произвольным законом распределения по двум малым выборкам (n1 =40; n2 =40)

Гипотеза H0: , определяемые соотношениями (2.6).

Гипотеза H1:

Вид выборки: малая.

Закон распределения : произвольный.

Статистика: Z=x-y; n=n1=n2.

(2.10)

где

Закон распределения статистики U - распределение Стьюдента с n=n1-1 степенями свободы.

Условия принятия H0: U < Uкр.

Для иллюстрации можно использовать рис.2.9.

2.4.8 Проверка гипотезы о дисперсиях контролируемого параметра двух больших партий изделий с нормальным законом распределения и неизвестными дисперсиями по двум малым выборкам малого объема

(n1 =10; n2 =10 )

Гипотеза H0:, оценка которых определяется по формулам (2.8), (2.9).

Гипотеза H1:

Вид выборки: любая - большая, малая.

Закон распределения - нормальное распределение.

Статистика:

1. (основная статистика)

2.

Статистика 2 часто используется при табулировании.

Закон распределения статистики U:

1) F-распределение Фишера с числом степеней свободы числителя K1=(n1-1) и знаменателя K2=(n2-1).

2) F-распределение Фишера с числом степеней свободы числителя (большей дисперсии) Ki=ni-1 и знаменателя Kj=nj-1.

Условие принятия H0:

(рис.2.10.)

K1=(n1-1) для числителя,

K2=(n2-1) для знаменателя.

Рис.2.10

2.4.9 Проверка гипотезы о дисперсии контролируемого параметра большой партии изделий с нормальным законом распределения по выборке малого объема (n1 =10)

Гипотеза H0:, оценка определяется по формулам (2.8).

Гипотеза H1:

Вид выборки: любая - большая, малая.

Закон распределения - нормальное распределение.

Статистика:

, (2.11)

где определяется формулой (2.6).

Закон распределения статистики U - ч2-распределение (закон Пирсона) с числом степеней свободы k=n1-1.

Условие принятия гипотезы H0:

ч12<ч2< ч22 (2.12)

Графическое представление дано на рис.2.10

Рис. 2.11

2.5 Варианты многомерного статистического контроля

2.5.1 Проверка гипотезы о векторе математического ожидания контролируемых параметров большой партии изделий с нормальным законом распределения и известной ковариационной матрицей по выборке малого объема (n1=40)

Гипотеза H0:,

где - оценка вектора выборочного среднего;

где - вектор математического ожидания.

Гипотеза Н1:

Вид выборки: любая - большая, малая.

Закон распределения: многомерный нормальный закон распределения. Его плотность записывается в виде

,

где , - определитель матрицы K.

, .

Статистика:

Закон распределения статистики U -распределение с числом степеней свободы k = n.

Доверительную область можно получать в n-мерном пространстве в виде

Эта область представляет собой эллипсоид (в двумерном случае - эллипс).

Пример 2.1. По данным контрольных замеров деталей (табл.), изготовленных на десяти станках (n1=10), проверить гипотезу с уровнем значимости о соответствии средних измеряемых параметров деталей X1, X2, X3 (n=3) контрольным значениям ; ;.

Ковариационная матрица считается известной

Исходная информация для сравнения параметров

Таблица 2.7

Номер

изделия

№ станка

1

2

3

4

5

6

7

8

9

10

X1

3

4

5

5

5

5

6

7

10

10

X2

1,2

1,2

1,4

1,2

1,2

1,5

1,5

1,3

1,7

1,6

X3

2,1

2,8

3,2

4,5

4,8

4,9

5,5

6,5

8,5

4

Решение. Исходя из условия задачи требуется проверить гипотезу H0:

получим неравенство , т.е. гипотеза Н0 отвергается с вероятностью ошибки 0,05.

Таким образом, средние уровни измеряемых параметров деталей не соответствуют контрольным цифрам.

2.5.2 Проверка гипотезы о векторе математического ожидания контролируемых параметров большой партии изделий с нормальным законом распределения и неизвестной ковариационной матрицей по выборке малого объема (n1=40)

В отличие от случая 2.5.2 используется статистика Хоттелинга:

,

где - выборочная ковариационная матрица с элементами

,

где - значение параметра i в v эксперименте.

Закон распределения статистики - F - распределение с n (для числителя) и n1-1 (для знаменателя) степенями свободы.

Доверительную область можно получить в n-мерном пространстве в виде

Это снова эллипсоид.

Пример 2.2. В условиях предыдущего примера решить задачу при неизвестной ковариационной матрице.

Решение. Требуется проверить гипотезу H0: против H1: .

Прежде всего находим оценку ковариационной матрицы:

.

Значение функции F - распределения .

Получаем соотношение , которое говорит о том, что гипотеза Н0 и в этом случае отвергается с вероятностью 0,05.

2.5.3 Проверка гипотезы о средних значениях n контролируемых параметров двух больших партий изделий с нормальным законом распределения и известной ковариационной матрицей по выборке малого объема (n1=40; n2=40)

Гипотеза H0:,

Гипотеза H1: .

Вид выборки: любая - большая, малая.

Закон распределения: многомерные нормальные законы распределения

, .

Статистика:

.

Закон распределения статистики U -распределение с числом степеней свободы k = n.

Доверительная область определяется условием

.

Эта область представляет собой эллипсоид.

2.5.4 Проверка гипотезы о средних значениях “n” контролируемых параметров двух больших партий изделий с нормальным законом распределения и неизвестной ковариационной матрицей по выборке малого объема (n1=40; n2=40)

В отличие от случая 2.5.3 используется статистика:

,

.

Здесь , -ковариационные матрицы партий №1,№2.

Закон распределения статистики U - F-распределение с n (для числителя) и (n1 + n2 - n -1) (для знаменателя) степенями свободы.

Доверительную область получим из условия:

.

Как и ранее, это снова эллипсоид.

2.6.Критерий согласия законов распределения А.Н. Колмогорова

На практике и в данной лабораторной работе возможны ситуации, когда при обработке данных о распределении ничего неизвестно, поэтому желательно иметь критерии согласия, свободные от конкретного закона распределения. Таким критерием является критерий согласия Колмогорова. В качестве меры близости взято максимальное значение модуля разности между статистической функцией распределения и соответствующей теоретической функцией распределения F(x).

Схема применения критерия Колмогорова может быть представлена последовательностью шагов:

1. Находится .

2. Определяется величина . В лабораторной работе за n будем считать величину выборки, использованной для построения .

3. По таблице «Функция распределения Колмогорова» находится вероятность .

Если вероятность F(y) мала, например, , то гипотезу о соответствии двух законов распределений следует считать правдоподобной, совместимой с опытными данными. Таблица формируется программно в лабораторной работе.

Функция распределения Колмогорова

Таблица 2.7

Y

0

1

2

3

4

5

6

7

8

9

0,3

0,0000

0000

0000

0001

0002

0003

0005

0008

0013

0019

4

0028

0040

0055

0073

0097

0126

0160

0200

0247

0300

0,5

0,0360

0428

0503

0585

0675

0772

0876

0986

1103

1228

6

1357

1492

1632

1777

1927

2080

2236

2396

2558

2722

7

2888

3055

3223

3391

3560

3728

3896

4064

4230

4295

8

4559

4720

4880

5038

5194

5347

5497

5645

5790

5933

9

6073

6209

6343

6473

6601

6725

6846

6964

7079

7191

1,0

0,7300

7406

7508

7608

7704

7798

7889

7976

8061

8143

1

8223

8300

8374

8445

8514

8580

8644

8706

8765

8723

2

8878

8981

8987

9030

9076

9121

9164

9206

9245

9282

3

9319

9387

9389

9418

9449

9478

9505

9531

9557

9580

4

9603

9646

9651

9665

9684

9702

9718

9734

9750

9764

1,5

0,9778

9791

9803

9814

9826

9836

9846

9855

9864

9873

6

9880

9888

9894

9901

9908

9914

9919

9924

9929

9934

7

9938

9942

9946

9950

9953

9956

9959

9962

9965

9967

8

9969

9971

9973

9975

9977

9979

9980

9981

9983

9984

9

9985

9986

9987

9988

9989

9990

9991

9992

9993

9994

3. ОПЕРАТИВНОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ МОДЕЛИ РЕГРЕССИИ ПРИ НАЛИЧИИ АНОМАЛЬНЫХ РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ

В реальных системах обработки информации оценки вектора регрессионных коэффициентов b для модели

, (3.1.)

где X[m] - вектор наблюдаемых линейно независимых факторов;

b - вектор неизвестных и подлежащих оценке параметров;

[m] - помеха типа белого шума, приходится проводить в условиях аномальных измерений (АИ) Y(l), l ().

3.1 Метод выделения результата АИ

В основу алгоритма положен итеративный метод решения на основе метода наименьших модулей. При этом оценка , полученная на основе N результатов измерения, имеет вид

(3.2)

где

(3.3)

(3.4)

где - оценка m-го измерения выходного сигнала.

Начальные значения R[m]=1; соответствуют определению параметров по методу наименьших квадратов (МНК). Далее вычисления оценок по формулам (3.2) - (3.4) проводятся итерационно до тех пор, пока изменения оценок за одну итерацию не достигнут заданной малой величины. При этом наименьший весовой коэффициент R[l] указывает на наиболее грубое l-измерение.

3.2 Построение модели регрессии при наличии сильной корреляции независимых факторов

Наличие корреляции независимых факторов в модели (3.1) и определение оценок вектора на основе соотношения (3.2) приводят к неустойчивости решения.

В этом случае при выполнении операции обращения матрицы в выражении (3.2) следует применять псевдообращение (параграф 1.3)

(3.5)

Дальнейшая итерационная процедура выделения результата АИ, описанная выше, остается без изменений. Процедура требует настройки алгоритма псевдообращения на величину грубости псевдообращения. Практическая проверка алгоритма показала, что некоторое увеличение степени загрубления способствует сокращению числа циклов итерационного процесса выявления АИ.

3.3 Многомерная кластеризация при построении регрессионных моделей

Предположим, что рассматриваемая совокупность случайной величины Х неоднородна (рис.3.1) и в нее входят, например, три группы совокупностей случайной величины с существенно различными параметрами распределений (математическим ожиданием и средним квадратическим отклонением).

Рис. 3.1. Кластеризация однородных групп

Истинные зависимости y=y(x) для этих групп совокупности показаны на рис. 3.1. Там же пунктиром показана линия регрессии y на x, построенная для совокупности всех групп. Таким образом, обработка неоднородной совокупности теми же методами, какие применимы для однородных, могут привести к серьезным ошибкам.

3.3.1 Кластеризация конечного множества элементов на основе кратчайшего остовного дерева. Алгоритм Прима

По заданному графу заполняется матрица весов W(N, N). Веса несуществующих ребер предполагаются сколь угодно большими. Образуется массив P(N) меток вершин графа (столбцов матрицы весов). Алгоритм решения задачи заключается в последовательном заполнении массива меток столбцов и состоит из следующих этапов.

Предварительный этап. Обнуляется массив P(N) меток столбцов таблицы. Произвольно выбранному столбцу присваивается значение метки, равная его номеру.

Этап, повторяющийся N-1 раз (общий этап). В строках, номера которых равны номерам помеченных столбцов, находится минимальный элемент среди элементов непомеченных столбцов. Столбец, в котором находится минимальный элемент, помечается меткой, номер которой равен номеру его строки. В случае, если минимальных элементов несколько, то выбирается любой. После помечивания очередного столбца элементу, симметричному относительно главной диагонали (для многомерного графа с ”транспонированными индексами”), присваивается сколь угодно большое значение.

Заключительный этап. Ребра, включенные в минимальное остовное дерево, определяются по меткам столбцов. Вес остовного дерева задается суммой весов входящих в него ребер.

Кластеризация множества элементов производится путем удаления части ребер графа по критерию минимальной суммарной дисперсии классов. Пример расчета на MS Excel показан на рис.3.2

рис.3.2. Пример разбиения множества элементов на однородные группы

Содержание отчета по разделам лабораторного практикума

1.Краткое описание алгоритма ( основные соотношения).

2.Результаты решения задачи ( привести последовательность решения с пояснениями каждого этапа ).

3.Выводы (соответствие теоретических и экспериментальных результатов).

Библиографический список

1Айвазян С.А.,Мхитарян В.С. Прикладная статистика и основы эконометрики.Учебник для вузов.-М.:Юнити,1998.-1022с.

2.Гласс Дж,Стенли Дж. Статистические методы в педагогике и психологии.-М.:Прогресс,1976.-496 c.

3.Менделевич В.Д. Клиническая и медицинская психология -М.:2002.-592 c.

4. Владимирский Б.М., Горстко А.Б., Ерусалимский Я.М. Математика. Обший курс. СПб:Лань, 2002.-960с

Размещено на Allbest.ru

...

Подобные документы

  • Понятие матрицы, определение ее составных частей и границ, обосновывающие теории. Арифметические операции над матрицами, способы их представления в Mathcad. Формирование уравнений цепи на основе теории графов. Характеристика топологических матриц графа.

    учебное пособие [982,4 K], добавлен 03.05.2010

  • Основные операции над матрицами. Формирование матрицы из файла. Ввод матрицы с клавиатуры. Заполнение матрицы случайными числами. Способы формирования двухмерных массивов в среде программирования С++. Произведение определенных элементов матрицы.

    курсовая работа [537,0 K], добавлен 02.06.2015

  • Mathcad и его основные понятия. Возможности и функции системы в матричных исчислениях. Простейшие операции с матрицами. Решение систем линейных алгебраических уравнений. Собственные векторы. Разложение Холецкого. Элементарная теория линейных операторов.

    курсовая работа [2,2 M], добавлен 25.11.2014

  • Использование ранжированных переменных в программном пакете Mathcad. Создание матриц без использования шаблонов матриц, описание операторов для работы с векторами и матрицами. Решение систем линейных и нелинейных уравнений с помощью функций Mathcad.

    контрольная работа [964,6 K], добавлен 06.03.2011

  • Понятия систем линейных уравнений и матриц. Решение общей системы линейных уравнений по методу Гаусса. Системные требования, методы установки, удаления и работы с программой. Методы защиты от неверного ввода данных. Тестирование и опытная эксплуатация.

    курсовая работа [751,0 K], добавлен 25.02.2011

  • Особенности работы с массивами с помощью MS Excel. Вычисление определителей матриц, произведения матриц и матрицы на вектор. Скалярное произведения найденных векторов. Поиск обратных матриц. Решение системы линейных уравнений, проверка найденных решений.

    лабораторная работа [270,9 K], добавлен 05.06.2015

  • Принципы разработки и пример работы программы, реализующей основные операции алгебры матриц: сложение, вычитание, умножение, транспонирование, а также умножение матрицы на число. Функциональные модели и блок-схемы решения задачи операций над матрицами.

    курсовая работа [956,7 K], добавлен 25.01.2010

  • Разработка программы для решения системы линейных уравнений методом Крамера и с помощью расширенной матрицы на языке С++. Описание метода Крамера. Структура программы: заголовочные файлы, типы данных, переменные, идентификаторы, операторы, массивы.

    курсовая работа [32,3 K], добавлен 19.01.2009

  • Решение системы линейных уравнений с матричными элементами и свободными членами с использованием метода Гаусса с выбором главного элемента, основанного на приведении матрицы системы к треугольному виду с помощью нахождения элементов главной диагонали.

    лабораторная работа [71,1 K], добавлен 10.12.2014

  • Общее понятие о линейных уравнениях и их системах. Разработка программного продукта в среде Delphi 7 для решения методом Крамера квадратных систем линейных алгебраических уравнений с ненулевым определителем основной матрицы. Описание конкретных примеров.

    курсовая работа [193,7 K], добавлен 07.07.2013

  • Понятие определителя матрицы, математические и алгоритмические основы его расчета, функциональные модели, блок-схемы и программная реализация. Сущность метода Гаусса для решения систем линейных алгебраических уравнений и вычисления определителя матрицы.

    контрольная работа [455,2 K], добавлен 18.01.2010

  • График функции плотности распределения Парето. Алгоритм обработки выборки. Построение гистограммы относительных частот. Программа для автоматизации обработки, в которую заложены алгоритмы обработки выборки и возможность быстрого получения результата.

    курсовая работа [1,3 M], добавлен 19.03.2012

  • Численные методы решения задач. Решение алгебраических и трансцендентных уравнений. Уточнение корня по методу половинного деления. Решение систем линейных уравнений методом итераций. Методы решения дифференциальных уравнений. Решение транспортной задачи.

    курсовая работа [149,7 K], добавлен 16.11.2008

  • Разработка программного продукта на языке Delphi 7.0. Матричный метод решения однородных и неоднородных систем линейных уравнений. Разработка интерфейса. Тестирование и описание объектов программы. Описание процесса вычисления определителей матриц.

    курсовая работа [366,1 K], добавлен 04.02.2015

  • Решение системы линейных алгебраических уравнений методом Гаусса с выборкой ведущего элемента. Изучение особенности программной реализации алгоритма, составленной средствами разработки Microsoft Visual Studio. Проведение сложения и умножения двух матриц.

    курсовая работа [702,6 K], добавлен 22.03.2015

  • Постановка задачи, математические и алгоритмические основы решения системы линейных алгебраических уравнений. Решение системы данных уравнений методом Гаусса с выбором главного элемента по столбцу. Функциональные модели и блок-схемы решения задачи.

    курсовая работа [428,9 K], добавлен 25.01.2010

  • Преобразование матрицы системы линейных алгебраических уравнений (СЛАУ) с помощью алгоритма Гаусса. Решение задачи методом простой итерации. Создание блок-схемы и текста программы для решения СЛАУ, реализованной на языке программирования Turbo Pascal.

    курсовая работа [1,2 M], добавлен 15.06.2013

  • Алгебра матриц: задание численных и символьных элементов вектора и матрицы с и без применения шаблонов, использование векторных и матричных операторов и функций. Операции умножения и деления вектора и матрицы друг на друга и на скалярные числа.

    практическая работа [107,0 K], добавлен 05.12.2009

  • Процедура сложения и вычитания матриц (с учетом коэффициента перед матрицами). Основные концепции языка Turbo Pascal. Фортран как один из пионеров программирования Дейкстрой. Первый компилятор Паскаля на платформах DEC. Основные стандарты языка.

    контрольная работа [21,6 K], добавлен 08.03.2011

  • Системы линейных алгебраических уравнений. Решение систем уравнений графическим способом. Разработка программного кода модуля, реализующего приближенное решение систем линейных уравнений графическим способом. Отладка программного модуля "Метод Гаусса".

    курсовая работа [858,5 K], добавлен 01.12.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.