Оценка регрессионных уравнений

Ошибки коэффициентов уравнений регрессии, анализ остаточной дисперсии. Взаимокоррелирующие аргументы, выбор аргументов в уравнении регрессии при их взаимной корреляции в лесном хозяйстве. Зависимость высоты дерева от качества условий местопроизрастания.

Рубрика Математика
Вид реферат
Язык русский
Дата добавления 29.03.2018
Размер файла 140,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ОЦЕНКА РЕГРЕССИОННЫХ УРАВНЕНИЙ

Содержание

1. Ошибки регрессионных уравнений

2. Оценки коэффициентов уравнений регрессии

3. Остаточная дисперсия и ее анализ

4. Взаимокоррелирующие аргументы. Выбор аргументов в уравнении регрессии при их взаимной корреляции в лесном хозяйстве

1. Ошибки регрессионных уравнений

Установить наличие связи между зависимой и независимой (независимыми) переменными, конечно, важно, но недостаточно. В наше время исследователь, вооруженный современным компьютером, имеющим мощное программное оснащение (например, систему «MathCAD») за несколько минут получает коэффициенты заданного уравнения. Сегодня для исследования на первый план выходит задача оценки и интерпретации полученных уравнений. Вызвано это тем, что все регрессионные уравнения дают некоторое приближение к тому закону или закономерности, которая существует в природе. Уравнение регрессии характеризует эту закономерность с некоторыми ошибками. Они вызваны в основном недостатками в экспериментальном материале, а иногда и невысоким качеством модели.

Может оказаться, что выборка не охватывает все особенности изучаемого явления, бывают ошибки измерений, на величину исходных данных влияют случайные причины и т.д. Но бывают ошибки и иного рода. Мы не всегда знаем причинно-следственную связь изучаемых явлений, иногда неправильно подбираем форму связи, выражаемую конкретным уравнением. Например, немецкий ученый проф. Продан еще в 60-е годы прошлого века отметил, что уравнение параболы второго порядка у = а+bх+сх2, которое в то время часто использовали для описания хода роста древостоев по высоте, является слишком “жестким”: оно занижает значения высот в молодом возрасте и завышает их для спелых и перестойных древостоев. Поэтому очень важно установить, насколько вычисленная линия регрессии достоверна, т.е. найти основную ошибку регрессионного уравнения.

2. Оценки коэффициентов уравнений регрессии

Подобно коэффициенту корреляции и ряду других статистических показателей, коэффициент регрессии всегда определяется на основе выборочной совокупности. Значит, он является выборочным показателем, само же конкретное уравнение регрессии также может быть названо выборочным. Уравнение истинной линии регрессии будет выглядеть следующим образом:

у = + х

Параметры а и b выборочного уравнения регрессии служат для оценки истинных значений и , т.е. их значений в генеральной совокупности.

Нулевой гипотезой является отсутствие связи, т.е. признание того, что коэффициент регрессии (b) не отличаются от нуля. Для того, чтобы иметь право отбросить нулевую гипотезу, необходимо установить достаточную достоверность этого коэффициента b по отношению b к t критерию Стьюдента, что может быть сделано путем сопоставления b с его ошибкой

b/t = b р / b). (15.1)

О достоверности b можно судить по величине ошибки b, а также оценить и степень близости b к .

Поскольку в определении линии регрессии участвуют два параметра а и b, следует отдельно рассмотреть, как могут они варьировать в выборочных совокупностях, взятых из одной и той же генеральной совокупности.

Теоретическая линия регрессии обычно расположена под большим или меньшим углом по отношению к оси абсцисс. Этот угол определяется величиной (коэффициентом) b. В геометрическом смысле b есть тангенс угла между линией регрессии и осью абсцисс (или ординат - если рассматривать вторую линию регрессии). При отсутствии регрессии b =0. Тогда линия регрессии у по х должна идти горизонтально по отношению к оси абсцисс, а линия регрессии х по у - вертикально. Место их пересечения соответствует средним значениям обоих признаков. Таким образом, каждая линия регрессии обязательно пройдет через точку К (рисунок 15.1), координаты которой , .

Рисунок 15.1 Доверительные границы для выборочной линии регрессии АВ

Это важно для понимания возможной колеблемости линии регрессии. Так как b имеет ошибку b, то, очевидно, значения выборочных b могут находиться в границах, определяемых этой ошибкой. Это значит, что угол наклона линии регрессии может быть или большим, или меньшим.

Как показано на рисунке 15.1, линия регрессии АВ пересекает точку К и имеет угол наклона по отношению к горизонтали ВКК1. Но истинная линия регрессии заключена внутри пары углов, образованных пересечением линий А1В1 и А2В2. Если углы В1К и В2К построены по верхней и нижней границам b с учетом только одной ошибки, то вероятность нахождения истинной линии регрессии в этих границах равна 0,68.

Однако уравнение регрессии имеет еще свободный член а. Он определяет величину отрезка, отсекаемого на оси у линией регрессии АВ. Величина а также имеет свои границы колеблемости, поэтому линия регрессии при том же значении b, т.е. при том же угле наклона ее к оси абсцисс, может проходить или несколько ниже линии АВ, или несколько выше. Так как надо учитывать оба параметра уравнения регрессии, то установление доверительных границ для линии регрессии не так просто. В общем можно считать, что границы доверительного интервала представляют собой кривые линии типа гипербол (линии MN и ОР на рисунке 15.1). Это значит, что по мере отдаления от средней точки (, ) они расширяются. Крайние точки, по которым строится линия регрессии, обладают большей ошибкой.

Однако при проведении специальных опытов можно добиться достаточно больших n на всех частях интервала изменений х (или соответственно у) и принять, что дисперсия отдельных значений у (или х) будет примерно одинаковой на всех частях интервала. В таком случае можно применять сравнительно простые методы для оценки достоверности коэффициента и линии регрессии.

Основой для определения возможной вариации линии регрессии является сумма квадратов отклонений фактических значений уi от вычисленных теоретически i по тем же значениям ряда хi.

Формула для определения основной ошибки регрессии у по х, т.е. у х (если регрессия х по у, то записывается х у) следующая

(15.2)

(15.3)

Здесь N-2 - число степеней свободы. В данном случае число степеней свободы определяется как N -2, потому что при вычислении отклонений используются две величины уi и i, а не одна, как это делалось при анализе вариационного ряда, когда число степеней свободы определялось как N -1.

Поясним изложенное примером вычисления основной ошибки регрессионного уравнения прямой, описывающей зависимость изменения высоты от диаметра в молодых сосновых древостоях. Исходные данные приведены в таблице 15.1.

Таблица 15.1 - Диаметры и высоты в молодых древостоях сосны

Д

Н

Отклонения

Пределы прохождения линии

п/п

i)

i)

i

уi -i

i -i)2

регрессии при достоверности

0,68 (1)

0,95 (2)

0,997(3)

1

3,9

4,8

5,1

-0,3

0,09

4,79-5,41

4,47-5,73

4,16-6,04

2

5,0

6,0

5,8

0,2

0,04

5,49-6,11

5,17-6,43

4,86-6,74

3

5,5

6,4

6,3

0,1

0,01

5,99-6,61

5,67-6,93

5,36-7,24

4

6,0

6,1

6,7

-0,6

0,36

6,39-7,01

6,07-7,33

5,76-7,64

5

6,5

7,1

7,1

0

0

6,79-6,41

6,47-7,73

6,16-8.04

6

6,8

7,7

7,3

0,4

0,16

6,99-7,61

6,67-7,93

6,36-8,24

7

7,4

7,6

7,9

-0,3

0,09

7,59-8,21

7,27-8,53

6,96-8,84

8

7,7

8,2

8,0

0,2

0,04

7,69-8,31

7,37-8,63

7,06-8,94

9

8,2

8,2

8,5

-0,3

0,09

8,19-8,81

7,87-9,13

7,56-9,44

10

8,9

9,1

9,0

0,1

0,01

8,69-9,31

8,37-9,63

8,06-9,94

11

9,7

9,7

9,7

0

0

9,39-10,11

9,07-10,33

8,76-10,64

75,1

80,9

81,4

-0,5

0,89

-

-

-

Среднее

6,87

7,35

7,40

-

-

-

-

-

Уравнение прямой, соответствующее данным таблицы 15.1. равно

у = 1,9+0,8 х (15.4)

Подставив значения из табл. 15.1 в (15.2) и (15.3), получим

Здесь величина имеет такое же значение как и в вариационном ряду. В пределах одной отклонения распределяются вверх и вниз от линии регрессии в 68% случаев. В 95% они лежат в пределах 2, а в 99,7% случаев отклонения от теоретической линии регрессии составляют величину 3, т.е. в нашем примере это 0,942 м. Пределы изменения i при разной величине основного отклонения (1, 2, 3) показаны в графах 7-9 таблицы 15.1. На рисунке 15.2 наглядно видна математическая сущность основной ошибки регрессии - это та зона, ограниченная сверху и снизу значениями, соответствующими , 2 и 3, внутри которой с заданной вероятностью могут располагаться искомые величины в генеральной совокупности.

Рисунок 15.2 Математическая сущность основной ошибки регрессии

Мы помним из предыдущей главы, что коэффициент регрессии Rp = r. По данным таблицы 15.1. вычисляем величины r, у и х (таблица 15.2).

Таблица 15.2 - Вычисление статистик распределения и связи по исходным данным таблицы 15.1.

№ п/п

хi

yi

К1i-

К2=yi-

К1К2

1

3,9

4,8

-2,97

-2,55

8,82

6,50

7,57

2

5,0

6,0

-1,87

-1,35

3.50

1,82

2,52

3

5,5

6,4

-1,37

-0,95

1,88

0,90

1,30

4

6.0

6,1

-0,87

-1,25

0,76

1,56

1,09

5

6,5

7,1

-0,37

0,25

0,14

0,06

0,09

6

6,8

7,7

-0,07

0,35

0,05

0,12

0,02

7

7,4

7,6

0,53

0,25

0,28

0,06

0,13

8

7,7

8,2

0,83

0,85

0,69

0,72

0,71

9

8,2

8,2

1,33

0,85

1,77

0,72

1,13

10

8,9

9,1

2,03

1,75

4,12

3,06

3,55

11

9,7

9,7

2,83

2,35

8,01

5,52

6,65

75,1

80,9

0,03

0,05

30,02

21,04

24,76

Среднее

6,87

7,35

-

-

-

-

-

х =

y =

r =

Тогда Rp = 0,985

Теперь найдем ошибку коэффициента регрессии

Небольшая величина ошибки говорит о достоверности линии регрессии.

Это проверяется по формуле

t =

По специальным таблицам t-критерия Стьюдента (приложение Е) находим, что критическая величина t при числе степеней свободы 9 равна 5,04 при р=0,001, т.е. вычисленное значение t превышает р при 0,001. Поэтому нулевая гипотеза о том, что коэффициент регрессии в генеральной совокупности () равен 0, должна быть отброшена.

Вычисленное уравнение достоверно.

3. Остаточная дисперсия и ее анализ

Для корректного решения вопроса об адекватности принятой модели, описывающей некоторую закономерность, недостаточно знать ее основную ошибку и определить значимость коэффициентов уравнения. Очень большое значение имеет анализ остаточной дисперсии. Правда, часто этот анализ биологи и лесоводы не делают, т.к. он труден. Просто предполагается, что остаточные величины, которые выходят за пределы уравнения регрессии, т.е. те значения хi, что вызваны случайными причинами (их обычно называют просто остатками) распределены нормально и не влияют на результат. Но при строгом исследовании, которое и должны выполнять выпускники университета, делать анализ остатков необходимо. Опишем эту работу в интерпретации К. Е. Никитина и А. З. Швиденко.

Для названного анализа рассмотрим три величины, а именно , где = (уi -), здесь - общее среднее зависимой переменной у, т.е. - сумма квадратов отклонений уi от средней.

,

здесь i - значения уi, вычисленные по уравнению регрессии, т.е. - сумма квадратов отклонений, обусловленных регрессией у по х.

,

т.е. - остаточная сумма квадратов отклонений, объясняемая иными причинами, чем зависимость у от х. Эти три суммы квадратов отклонений находятся в соотношении

= + (15.5)

Это выражение представляет разложение общей суммы квадратов отклонений на две составляющие: обусловленную регрессией и остаточную, объясняющуюся иными причинами, чем зависимость у от х. Очевидно, что чем наша модель лучше описывает изучаемую зависимость, тем меньшей должна быть остаточная сумма квадратов и тем ближе к единице коэффициент детерминации r2=/. Поэтому в основу оценки уравнения регрессии может быть положен анализ дисперсий с учетом того, что сумме соответствует N -1 степень свободы, - имеет одну степень свободы, поскольку является единственной функцией от уi, а имеет N -2 степени свободы, так как в соответствии с (15.5) (N -1)=( N -2)+1. Сумма квадратов отклонений, деленная на число степеней свободы, дает соответствующую оценку дисперсии, еще именуемый средний квадрат отклонений.

Обозначим оценку дисперсии, обусловленной регрессией, через . Если применяемая модель адекватна, то = 2, в противном случае > 2. Оценка остаточной дисперсии =/( N -2). Если в генеральной совокупности связь между величинами х и у линейна, то является несмещенной оценкой дисперсии 2 ошибок i или, что то же самое, дисперсии величины , обозначенной через . Если связь нелинейна, т.е. модель выбрана неверно, то последнее утверждение неверно. Исходная таблица для анализа линейного уравнения регрессии имеет вид (таблица 15.3).

Таблица 15.3 - Исходные данные для анализа дисперсий регрессионного уравнения

Источник

Сумма квадратов

Число степеней свободы

Оценка исперсии

Регрессии

1

Остаточная

N -2

Общая

N -1

При названных выше предпосылках регрессионного анализа и при условии, что истинный коэффициент регрессии 1=0, отношение

(15.6)

подчиняется F-распределению с 1 и N -2 степенями свободы. Если расчетное значение F превышает табличное F1- [1; (N -2)], то гипотезу Н0 : 1 =0 отклоняют с уровнем значимости . Табличную величину F берут из приложения Ж.

Предположив, что линейная модель адекватна, можно вывести формулы основных ошибок коэффициентов b0 и b2 и уравнения регрессии в целом, а также построить доверительные интервалы для истинных 0 и 1. Применив формулу основной ошибки функций нескольких случайных величин, можно получить

, (15.7)

где - оценка дисперсии 2, т.е. величина mb1 зависит как от остаточной дисперсии, так и от суммы .

Отсюда следует, что для увеличения надежности выборочного коэффициента регрессии следует брать по возможности больший интервал хmax -xmin.

Доверительные интервалы для 1 имеют вид

b1 - t1-/2 (N -2) mb1 1 b1 + t1-/2 (N -2) mb1, (15.8)

где t1-/2 (N -2) - табличное значение t для двустороннего уровня значимости и при числе степеней свободы k= N -2.

Для проверки гипотезы Н0 : 1 =* против альтернативы Н0 : 1 * достаточно убедиться, что * находится в доверительном интервале (15.8), если же это не так, то альтернативную гипотезу отвергают.

Основную ошибку b0 находят из формулы

. (15.9)

доверительные интервалы

b0 - t1-/2 (N -2) mb1 0 b0 + t1-/2 (N -2), (15.10)

а проверку гипотезы Н0 : 0 =* против Н : 0 * проводят аналогично коэффициенту регрессии b0.

Основная ошибка уравнения линейной регрессии у = есть ошибка каждого расчетного значения , т.е. условного среднего для некоторого хk. Ее определяют по формуле

Если хk =, то ошибка имеет наименьшее значение и возрастает при увеличении разности хk - . Основная ошибка уравнения регрессии указывает ту зону, которая в 68 случаях из 100 накрывает истинное значение k. Удвоенная ошибка соответствует приближенно доверительной вероятности 0,95 и т.д.

Для примера при проведении описанных расчетов возмем исходные данные, показанные в таблице 15.4. Для определения суммы квадратов воспользуемся следующими формулами

Приведенные формулы получены непосредственными преобразованиями соответствующих сумм квадратов.

Таблица 15.4 - Исходные данные для регрессионного анализа

Источник

Сумма

квадратов

Число степеней свободы н

Оценки дисперсии

(средний квадрат)

Регрессии

148,31

1

148,31

Остаточная

14,00

N-2=9

1,556

Общая

162,31

N-1=10

Вычисленное значение F-критерия равно 148,31 / 1,556 = 95,3. Если =0,05, F0,05 при числе степеней свободы 1 и 9 (приложение Ж) равно 5,12, следовательно Fвыч>Fтабл, то гипотезу Н0 : 1 =0 отвергают с уровнем значимости =0,05.

Вычислим основные ошибки (15.7) и (15.8) и доверительные интервалы для =0,05 при 5%-ном уровне значимости. Для нахождения соответствующих t-коэффициентов получаем mb1=(1,556/236,97)1/2 =0,081; 0,791-0,081 2,26 1 0,791+0,081 2,26, или 0,608 1 0,974, т.е. с вероятностью 0,95 истинный коэффициент регрессии находится между 0,608 и 0,974. Если взять для проверки альтернативную гипотезу со значением * из этого интервала, то такая Н не может быть отклонена. Аналогичные рассуждения относительно b0 предоставляем студентам для самостоятельного решения.

Ранее рассматривался коэффициент детерминации r2, вычисляемый (если линейная модель верна) как отношение суммы квадратов, обусловленной регрессией, к общей сумме квадратов и измеряющий ту часть изменчивости зависимой переменной у, которая определяется зависимостью у от х. В нашем примере r2 =148,31/162,31 = 0,913, т.е. на 91% изменчивость у зависит от изменения х.

Соответствие модели исходным данным можно оценить по графику, нанеся исходные точки и вычисленное уравнение регрессии. Для линейного уравнения с одной переменной такой путь вполне приемлем, но если модель сложная (много переменных, сложный вид зависимости), то для суждения об адекватности требуются объективные статистические критерии. Обычно для этой цели применяют F-критерий. Следует подчеркнуть, что во всех случаях, когда имеется возможность проверить адекватность, эта процедура необходима. регрессия лесной хозяйство корреляция

Если модель адекватна, то остаточная сумма квадратов объясняется только дисперсией ошибок 1 2; в противном случае дополнительно включает сумму квадратов, порожденную неадекватностью, т.е. сумму квадратов расстояний между вычисленным и истинным уравнением регрессии. Для адекватной модели различие между оценкой

дисперсии неадекватности и оценкой дисперсии ошибок 2 объясняется только случайными причинами, т.е. отношение

F = (15.14)

должно быть незначимым при выбранном уровне значимости. Для применения (15.14) необходима оценка 2, которая, как правило, неизвестна. Вычислить ее можно только в тех случаях, когда есть параллельные наблюдения при хi; тогда разброс yij при одинаковых i дает оценку дисперсии 2, так как все остальные влияния, кроме случайной изменчивости i, исключаются. Поэтому сумму квадратов, по которой оценивают 2, называют суммой квадратов, связанной с чистой ошибкой, мы ее обозначим через .

Анализ остатков, полученных для различных моделей, позволяет выбрать наилучшую модель. Основные вопросы, на которые должен быть получен ответ следующие:

1) подтверждение нормальности распределения остатков;

2) постоянство дисперсии 2 и независимость ее от величины хi;

3) адекватность модели на всех отрезках интервала изменения зависимой переменной или возможность ее улучшения добавлением нелинейных членов.

Остатки можно исследовать при помощи специальных критериев. Однако вполне достаточные результаты дает графический анализ, использующий общий график остатков (для суждения о нормальности i), графики зависимости остатков от хi, i и др. Если модель адекватна, то точки i должны располагаться в полосе, параллельной оси абсцисс на графиках зависимости i от хi и уi (или i). Некоторая субъективность заключений при этом, понятно, остается. В настоящее время полные лицензионные программы матобеспечения для ПК включают анализ остатков. Поэтому эту процедуру надо обязательно применять при проведении регрессионного анализа. Про необходимость проведения анализа остатков в своих работах неоднократно упоминают проф. О.А. Атрощенко, А.З. Швиденко и др.

4. Взаимокоррелирующие аргументы. Выбор аргументов в уравнении регрессии при их взаимной корреляции в лесном хозяйстве

Если мы определяем функцию от нескольких аргументов, то надо знать как влияет каждый аргумент, его значимость, что мы разобрали выше. Но остается вопрос о необходимом количестве аргументов. На первый взгляд может показаться, что чем больше аргументов, тем точнее вычисление функции, так как учитывается большее количество влияющих факторов.

Например, если мы изучаем зависимость высоты дерева от качества условий местопроизрастания, то можем взять в качестве аргумента количество физической глины в горизонтах А1, С. Если же эти аргументы дополним процентом гумуса в горизонтах А1 и А2, то прогноз функции будет точнее. Можем добавить увлажненность, скажем записать глубину уровень грунтовых вод (УГВ), что даст еще большее уточнение. Но бесконечно добавлять аргументы нельзя. Во-первых, это просто сложно реализуется, особенно на стадии эксперимента. Главное же - аргументы могут быть взаимно коррелированы. Так, если у нас УГВ расположен на глубине 1,0 м, то нет смысла брать процент влаги в горизонте С. Эти два аргумента взаимозависимы. Такое же явление мы наблюдаем в ранее приведенном примере по определению коэффициента формы q2. Ранее использовали выражение q2 = f(H,Д), но позже (после исследований Ф.П. Моисеенко) поняли, что достаточно будет принять q2 = f(H).

Все дело здесь в том, что аргументы в уравнении регрессии не должны коррелировать друг с другом. Так УГВ и процент физической глины в горизонте А, если и коррелируют, то слабо. Поэтому применение их обоих оправдано. Но уже увлажненность горизонта С прямо зависит от УГВ. Взаимно коррелируют диаметр и высота дерева.

Применение множественного регрессионнного анализа предполагает наличие некоррелированных аргументов. В случае, если аргументы регрессии коррелированы, что часто бывает в лесоводственных исследованиях, то коэффициенты, стоящие при них (а, b, ... ) определяются в зависимости друг от друга и тоже коррелированы. Корреляция между коэффициентами регрессии искажает оценку индивидуального изменения каждого аргумента на величину функции. Это значит, что вычисленные коэффициенты а, b, ... не определены строго, а могут взаимно изменяться: увеличивается а, тогда уменьшается b и т.д.

Взаимосвязь между аргументами находится через внутреннюю меру определенности dbH = 1 - (1 - rji), которая лежит в пределах от 0 до 1. Здесь rji - коэффициент корреляции между аргументами j и i.

При увеличении dbH возрастает неопределенность относительно коэффициентов регрессии. Границу для dbH, где интерпретация отдельных факторов еще возможна, определяют из условий задачи и сути изучаемого явления. При dbH 0,5 коэффициенты регрессии искажены не очень сильно и поддаются интерпретации.

Выбор конкретных аргументов в уравнении регрессии определяется из условий задания. В первую очередь делается логический анализ и выбираются те аргументы, которые лучше соответствуют биологическим и лесоводственным особенностям и законам. Среди выбранных аргументов, если они взаимокоррелированы, оставляют те, где большие частные коэффициенты корреляции х - у0. Два аргумента, корреляция между которыми больше чем 0,5, не должны быть в одном уравнении. Без ущерба для результата вычислений один из них опускается.

Размещено на Allbest.ru

...

Подобные документы

  • Значения коэффициента регрессии (b) и сводного члена уравнения регрессии (а). Определение стандартной ошибки предсказания являющейся мерой качества зависимости величин Y и х с помощью уравнения линейной регрессии. Значимость коэффициента регрессии.

    задача [133,0 K], добавлен 21.12.2008

  • Сортировка размера пенсии по возрастанию прожиточного минимума. Параметры уравнений парных регрессий. Значения параметров логарифмической регрессии. Оценка гетероскедастичности линейного уравнения с помощью проведения теста ранговой корреляции Спирмена.

    контрольная работа [178,0 K], добавлен 23.11.2013

  • Основные методы измерения деревьев. Наука о математических методах систематизации. Определение дисперсии случайной величины. Выборочное исправленное среднее квадратическое отклонение. Метод наименьших квадратов. Свойства параболической регрессии.

    курсовая работа [840,1 K], добавлен 15.06.2011

  • Алгебраический расчет плотности случайных величин, математических ожиданий, дисперсии и коэффициента корреляции. Распределение вероятностей одномерной случайной величины. Составление выборочных уравнений прямой регрессии, основанное на исходных данных.

    задача [143,4 K], добавлен 31.01.2011

  • Методика и основные этапы расчета параметров линейного уравнения парной регрессии с помощью программы Excel. Анализ качества построенной модели, с использованием коэффициента парной корреляции, коэффициента детерминации и средней ошибки аппроксимации.

    лабораторная работа [22,3 K], добавлен 15.04.2014

  • Нахождение выборочной средней и дисперсии. Построение гистограммы продолжительности телефонных разговоров и нормальной кривой Гаусса. Нахождение групповых средних и коэффициента корреляции. Выборочные характеристики и параметры уравнений регрессии.

    контрольная работа [87,8 K], добавлен 30.11.2013

  • Построение уравнения регрессии. Оценка параметров линейной парной регрессии. F-критерий Фишера и t-критерий Стьюдента. Точечный и интервальный прогноз по уравнению линейной регрессии. Расчет и оценка ошибки прогноза и его доверительного интервала.

    презентация [387,8 K], добавлен 25.05.2015

  • Методы составления закона распределения случайной величины. Вычисление средней арифметической и дисперсии распределения. Расчет средней квадратической ошибки бесповторной выборки. Построение эмпирических линий регрессии, поиск уравнения прямых регрессий.

    контрольная работа [77,6 K], добавлен 20.07.2010

  • Построение модели множественной регрессии теоретических значений динамики ВВП, определение средней ошибки аппроксимации. Выбор фактора, оказывающего большее влияние. Построение парных моделей регрессии. Определение лучшей модели. Проверка предпосылок МНК.

    курсовая работа [352,9 K], добавлен 26.01.2010

  • Описание способов нахождения коэффициентов регрессии модели полнофакторного эксперимента. Проверка многофакторных статистических гипотез на однородность ряда дисперсий, значимость и устойчивость математических коэффициентов множественной корреляции.

    контрольная работа [1,2 M], добавлен 05.08.2010

  • Cтатистический анализ зависимости давления. Построение диаграммы рассеивания и корреляционной таблицы. Вычисление параметров для уравнений линейной и параболической регрессии, выборочных параметров. Проверка гипотезы о нормальном распределении признака.

    курсовая работа [613,3 K], добавлен 24.10.2012

  • Знакомство с уравнениями линейной регрессии, рассмотрение распространенных способов решения. Общая характеристика метода наименьших квадратов. Особенности оценки статистической значимости парной линейной регрессии. Анализ транспонированной матрицы.

    контрольная работа [380,9 K], добавлен 05.04.2015

  • Цели линейной модели множественной регрессии (прогноз, имитация, сценарий развития, управление). Анализ эконометрической сущности изучаемого явления на априорном этапе. Параметризация и сбор необходимой статистической информации, значимость коэффициентов.

    контрольная работа [68,7 K], добавлен 21.09.2009

  • Понятие и содержание равносильных уравнений, факторы их оценивания. Теорема о равносильности уравнений и ее доказательство. Причины и пути приобретения посторонних корней при разрешении данных уравнений. Нахождение и сравнение множества решений.

    презентация [16,0 K], добавлен 26.01.2011

  • Проверка адекватности линейной регрессии. Вычисление выборочного коэффициента корреляции. Обработка одномерной выборки методами статистического анализа. Проверка гипотезы значимости с помощью критерия Пирсона. Составление линейной эмпирической регрессии.

    задача [409,0 K], добавлен 17.10.2012

  • Решение дифференциальных уравнений с разделяющимися переменными, однородных, линейных уравнений первого порядка и уравнений допускающего понижение порядка. Введение функций в решение уравнений. Интегрирование заданных линейных неоднородных уравнений.

    контрольная работа [92,7 K], добавлен 09.02.2012

  • Предпосылки корреляционного анализа - математико-статистического метода выявления взаимозависимости компонентов многомерной случайной величины и оценки их связи. Точечные оценки параметров двумерного распределения. Аппроксимация уравнений регрессии.

    контрольная работа [648,3 K], добавлен 03.04.2011

  • Исследование зависимости потребления бензина в городе от количества автомобилей с помощью методов математической статистики. Построение диаграммы рассеивания и определение коэффициента корреляции. График уравнения линейной регрессии зависимости.

    курсовая работа [593,2 K], добавлен 28.06.2009

  • Классификация гиперболических уравнений в общей классификации уравнений математической физики. Классификация уравнений: волновое, интегро-дифференциальные, уравнение теплопроводности. Методы решения в зависимости от видов гиперболических уравнений.

    контрольная работа [249,3 K], добавлен 19.01.2009

  • Общий вид системы линейных уравнений и ее основные понятия. Правило Крамера и особенности его применения в системе уравнений. Метод Гаусса решения общей системы линейных уравнений. Использование критерия совместности общей системы линейных уравнений.

    контрольная работа [35,1 K], добавлен 24.06.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.