Описательная статистика

Ряды наблюдений и их характеристики. Эмпирические распределения случайной величины. Случайные ошибки измерения и производные. Алгебра линейной регрессии, обозначения и определения. Модель линейной регрессии, формы уравнения и автокорреляция ошибок.

Рубрика Математика
Вид курс лекций
Язык русский
Дата добавления 27.10.2015
Размер файла 429,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

и

(M In)a = 0, a/a = 1.

В этом случае матрица ковариации ошибкок переменных имеет вид 2In. Если матрица ковариации ошибок есть 2, то применяется регрессия в метрике -1:

.

Для доказательства проводится преобразование в пространстве переменных с помощью матрицы C, такой, что , после которого матрица ковариации ошибок переменных приобретает вид 2In, и становится возможным применить обычную ортогональную регрессию.

Ортогональная регрессия при принятых гипотезах приводит к состоятельным оценкам параметров.

6.2 Фиктивные переменные

С помощью фиктивных или псевдо- переменных, принимающих дискретные, обычно, целые значения, в регрессию включают качественные факторы.

Уточнение обозначений:

Z - Nn-матрица наблюдений за “обычными” независимыми факторами;

- n-вектор-столбец параметров регрессии при этих факторах;

;

0 = .

В этих обозначениях уравнение регрессии записывается следующим образом:

.

Пусть имеется один качественный фактор, принимающий два значения (например: “мужчина” и “женщина”, если речь идет о модели некоторой характеристики отдельных людей, или “годы войны” и “годы мира” - в модели, построенной на временных рядах наблюдений, которые охватывают периоды войны и мира, и т.д.). Ставится вопрос о том, влияет ли этот фактор на значение свободного члена регрессии.

2-матрица наблюдений за качественным фактором (матрица фиктивных переменных): равен единице, если фактор в i-м наблюдении принимает 1-е значение, и нулю в противном случае; равен единице, если фактор в i-м наблюдении принимает 2-е значение, и нулю в противном случае.

- 2-х компонентный вектор-столбец параметров при фиктивных переменных.

Исходная форма регрессии с фиктивными переменными:

.

Поскольку сумма столбцов матрицы равна Z0, оценка параметоров непосредственно по этому уравнению невозможна.

Проводится преобразование фиктивных переменных одним из двух спасобов.

а) В исходной форме регрессии исключается один из столбцов матрицы фиктивных переменных, в данном случае - первый.

- матрица фиктивных переменных без первого столбца;

= .

Тогда эквивалентная исходной запись уравнения имеет вид:

+ ,

и после умножения матрицы справа на вектор параметров получается запись уравнения регресии в которой отсутствует линейная зависимость между факторами-регрессорами:

,

где .

После оценки этих параметров можно определить значения исходных параметров 0 и , предполагая, что сумма параметров при фиктивных переменных (в данном случае 1 + 2) равна нулю, т.е. влияние качественного фактора приводит к колебаниям вокруг общего уровня свободного члена:

.

б) Предполагая, что сумма параметров при фиктивных переменных равна нулю, в исходной форме регрессии исключается один из этих параметров, в данном случае - первый.

- вектор-стобец параметров при фиктивных переменных без первого элемента;

C .

Эквивалентная исходной запись уравнения принимает форму:

,

и после умножения матрицы C слева на матрицу наблюдений за фиктивными переменными получается запись уравнения регрессии, в которой также отсутствует линейная зависимость между регрессорами:

.

После оценки параметров этого уравнения недостающаяся оценка параметра 1 определяется из условия 1 = 2.

Качественный фактор может принимать больше двух значений. Так, в классической модели выделения сезонных колебаний он принимает 4 значения в случае поквартальных наблюдений и 12 значений, если наблюдения проводились по месяцам. Матрица в этой модели имеет размерность, соответственно, N4 или N12.

Пусть в общем случае качественный фактор принимает k значений. Тогда: матрица имеет размерность Nk, вектор-столбец - размерность k, матрицы и ZF - N (k1), вектора-столбцы и - k1;

k(k+1) матрица , k(k1) матрица ; .

Можно показать, что

, или ,

где - (k1)(k1)-матрица, состоящая из единиц; и далее показать, что результаты оценки параметров уравнения с фиктивными переменными при использовании обоих указанных подходов к устранению линейной зависимости факторов-регрессоров одинаковы.

После оценки регрессии можно применить t-критерий для проверки значимости влияния качественного фактора на свободный член уравнения.

Если k слишком велико и приближается к N, то на параметры при фиктивных переменных накладываются более жесткие ограничения (чем равенство нулю их суммы). Так, например, если наблюдения проведены в последовательные моменты времени, и вводится качественный фактор “время”, принимающий особое значение в каждый момент времени, то , и обычно предполагается, что значение параметра в каждый момент времени (при фиктивной переменной каждого момента времени) больше, чем в предыдущий момент времени на одну и ту же величину. Тогда роль матрицы C играет N-вектор-столбец T, состоящий из чисел натурального ряда, начиная с 1, и , где T - скаляр. Уравнение регрессии с фактором времени имеет вид (эквивалентная исходной форма уравнения при использовании способа “б” исключения линейной зависимости фиктивных переменных):

.

Метод фиктивных переменных можно использовать для проверки влияния качественного фактора на коэффициент регрессии при любом обычном факторе. Исходная форма уравнения, в которое вводится качественный фактор для параметра j, имеет следующий вид:

,

где -й столбец матрицы Z,

- k-вектор-столбец параметров влияния качественного фактора на j;

в векторе j-я компонента теперь обозначается - средний уровень параметра j;

- операция прямого произведения столбцов матриц.

Замечание

Прямое произведение матриц AB, имеющих размерность, соответственно, mAnA и mBnB есть матрица размерности (mAmB)(nAnB) следующей структуры:

Прямое произведение матриц обладает следующими свойствами:

(AB)(CD) = (AC)(BD), если произведения AC и BD имеют смысл,

.

Прямое произведение столбцов матриц применимо к матрицам, имеющим одинаковое число строк, и осуществляется путем проведения операции прямого произведения последовательно с векторами-строками матриц.

Приоритет прямого произведения матриц выше, чем обычного матричного произведения.

При использовании способа “а” эквивалентная исходной форма уравнения имеет вид (форма “а”):

,

где - матрица Z без j-го столбца,

- вектр без j-го элемента;

а в случае применения способа “б” (форма “б”):

.

Все приведенные выше структуры матриц и соотношения между матрицами и векторами сохраняются.

В уравнение регрессии можно включать более одного качественного фактора. В случае двух факторов, принимающих, соответственно, k1 и k2 значения, форма “б” уравнения записывается следующим образом:

,

где вместо “F” в качестве индекса качественного фактора используется его номер.

Это уравнение может включать фиктивные переменные совместного влияния качественных факторов (взаимодействия фактров). В исходной форме компонента совместного влияния записывается следующим образом:

,

где - k1k2-вектор-столбец /,

а - параметр при фиктивной переменной, которая равна 1, если 1-й фактор принимает i1-е значение, а 2-й фактор - i2-е значение, и равна 0 в остальных случаях (вектором-столбцом наблюдений за этой переменной является (k1(i1-1)+i2)-й столбец матрицы ).

Как и прежде, вектор параметров, из которого исключены все компоненты, линейно выражаемые через остальные, обозначается . Он имеет размерность (k11)(k21) и связан с исходным вектором параметров таким образом:

,

где C1 и C2 - матрицы размерности k1(k1-1) и k2(k2-1), имеющие описанную выше структуру (матрица C).

Теперь компоненту совместного влияния можно записать следующим образом:

,

а уравнение, включающее эту компоненту (форма “б”)

.

В общем случае имеется L качественных факторов, j-й фактор принимает kj значений. Пусть упорядоченное множество {1,2,...,L} обозначается F, а J - его подмножества. Общее их количество, включая пустое подмножество, равно 2L. Каждому такому подмножеству взаимно однозначно соответствует число, например, в системе исчисления с основанием , и их можно упорядочить по возрастанию этих чисел. Если пустое подмножество обозначить 0, то можно записать J = 0,1,...,L,{1,2},...,{1,L},{2,3},...,{1,2,3},...,F. Тогда уравнение регрессии записывается следующим образом:

,

где при j > 0; C0 = 1. Выражение означает, что j принимает значения последовательно с 1-го по последний элемент подмножества J.

Очевидно, что приведенная выше запись уравнения для L = 2 является частным случаем данной записи.

Если p(J) - количество элементов в подмножестве J, то

или - J-е эффекты, эффекты p(J)-го порядка, при p(J) = 1 - главные эффекты, при p(J) > 1 - эффекты взаимодействия, эффекты совместного влияния или совместные эффекты.

или J - параметры соответствующих J-х эффектов или также сами эти эффекты.

6.3 Дисперсионный анализ

Рассматривается частный случай уравнения регрессии с фиктивными переменными, когда оно включает только такие (фиктивные) переменные, и для каждого сочетания значений факторов имеется одно и только одно наблюдение за изучаемой переменной. Тогда и уравнение имеет вид:

,

в котором отсутствует вектор ошибок , т.к. при учете эффектов всех порядков их сумма в точности равняется X.

Матрица Z имеет размерность NN и она не вырождена. Поэтому = Z1X. Но чтобы получить общие результаты, имеющие значение и для частных моделей, в которых эффекты высоких порядков принимаются за случайную ошибку, ниже используется техника регрессионного анализа.

Это - регрессионная модель полного (учитываются эффекты всех порядков) одномерного (изучаемая переменная единственна) многофакторного дисперсионного анализа без повторений (для каждого сочетания значений фактров есть одно наблюдение).

Обычному линейному индексу компонент вектора X можно поставить в соответствие мультииндекс I, принимающий значения из множества , так что, если I = {i1,i2,...,iL}, то , и - при этом - обозначения xi и xI эквивалентны. При таком соответствии обычного индекса и мультииндекса в линейной последовательности значений мультииндекса быстрее меняются его младшие компоненты (с большим порядковым номером).

,

если j > 0, и N0 = 1 - количество столбцов в матрице ;

,

если j > 0, и = 1 - количество столбцов в матрице ; очевидно, что ;

- мультииндекс с множеством значений ;

I = IF.

Mb = m - система нормальных уравнений,

где M - NN-матрица, b и m - N-вектора-столбцы и, как обычно, .

При выбранном порядке следования значений факторов от наблюдения к наблюдению (быстее меняют свои значения более младшие факторы)

где j есть , если , или , в противном случае. Тогда

где j есть , если , или , в противном случае, и далее

, если , т.е. переменные разных эффектов ортогональны друг другу,

, M0 = 1;

,

где - NJ-вектор-столбец средних по сочетаниям значений факторов J с мультииндексом компонент IJ (является средним значением x по тем наблюдениям, в которых 1-й фактор из множества J принимает i1-е значение, 2-й - i2-е значение и т.д.); .

M - блочно-диагональная матрица {MJ}, m - вектор-столбец {mJ}.

После решения системы нормальных уравнений и перехода к “полным” векторам параметров эффектов получается следующее:

,

где (как и прежде, ), B0 = 1.

Параметры разных эффектов (разных по J) не зависят друг от друга, и исключение из уравнения некоторых из них не повлияет на значения параметров оставшихся эффектов.

Чтобы получить более “прозрачные” формулы для определения парметров эффектов, следует ввести понятие сопоставимых векторов этих параметров.

Если , то

- NJ-вектор-столбец параметров -го эффекта, сопоставимый с вектором : он имеет ту же размерность, что и , и каждая компонента вектора повторена в нем раз - так, что любой компоненте вектора в векторе соответствует компонента , для которой является подмножеством тех же элементов , что и по отношению к J.

В этом выражении для сопоставимых векторов параметров эффектов

,

где j равен , если , или , в противном случае (, ).

Эти матрицы обладают следующим свойством: , откуда получается выражение

для рекурентного расчета параметров эффектов (например, если известны , то ).

При J = F это выражение представляет собой другую форму записи основного уравнения регрессии:

, т.е. .

- основное тождество дисперсионного анализа, показывающее распределение общей дисперсии изучаемой величины по факторам и их взаимодействиям,

где - дисперсия, объясненная совместным влиянием факторов J; представляет собой сумму квадратов с степенями свободы.

Все эти дисперсии не зависят друг от друга. Если совместное влияние факторов так же существенно (или не существенно) как и факторов J, то статистика

(предполагается, что она больше единицы)

имеет -распределение (предполагается, что x нормально распределено). Этот факт можно использовать для проверки гипотез о сравнительной существенности факторов и их взаимодействий.

Обычно эффекты высоких порядков отождествляют со случайной ошибкой. Уравнение регрессии приобретает свою обычную форму и можно воспользоваться t- и F-критериями для проверки значимости отдельных факторов и их взаимодействий. Важно, что оценки оставшихся в уравнении эффектов при этом не меняются.

Переходя к более общему и более сложному случаю модели дисперсионного анализа с повторениями, полезно вспомнить следующее. Если в модели регрессионного анализа

несколько строк матрицы Z одинаковы, то можно перейти к сокращенной модели, в которой из всех этих строк оставлена одна, а в качестве соответствующей компоненты вектора X взято среднее по этим наблюдениям с одинаковыми значениями независимых факторов. Т.е. совокупность наблюдений с одинаковыми значениями независимых факторов заменяется одним групповым наблюдением. При исходной гипотезе E() = 2I дисперсия остатка по этому наблюдению равна ng2, где ng - количество замененных наблюдений, и значения переменных в групповом наблюдении должны быть умножены на (в соответствии с ОМНК). Значения оценок параметров по исходной и сокращенной модели будут одинаковыми, но полная () и остаточная (e/e) суммы квадратов в исходной модели будут больше, чем в сокращенной на сумму квадратов отклонений переменных x по исключенным наблюдениям от своей средней.

Пусть теперь рассматривается регрессионная модель одномерного однофакторного дисперсионного анализа с повторениями:

.

Фактор принимает k значений, и для каждого i-го значения существует ni наблюдений (ni повторений), т.е. исходная совокупность X разбита по какому-то признаку на k групп, причем сначала в ней идут наблюдения по 1-й группе, потом - по 2-й и т.д.

; - Nk-матрица структуры .

Всем повторениям в матрице Z соответствуют одинаковые строки, поэтому можно перейти к сокращенной модели.

- среднее и - дисперсия по i-й группе;

- суммарная дисперсия по группам. Сокращенная модель имеет следующий вид:

.

При естественном требовании , которое эквивалентно = 0, матрица C имеет вид и .

- объясненная дисперсия, равная полной дисперсии в сокращенной модели.

Полная дисперсия в исходной модели распадается на две части:

- объясненную и остаточную, или в терминах дисперсионного анализа - межгрупповую и внутригрупповую дисперсии, которые имеют, соответственно, k и Nk1 степеней свободы. Применяя F-критерий, можно оценить статистическую значимость использования данной группировки в целом или выделения отдельных групп.

Теперь рассматривается общий случай L-факторной модели.

В этом случае N больше NF на общее число повторений по всем сочетаниям значений факторов. Пусть

nI - число наблюдений при I-м сочетании значений факторов;

;

xI - среднее значение и - дисперсия наблюдений при I-м сочетании;

- суммарная внутригрупповая или остаточная дисперсия для исходной модели с NNF1 степенями свободы.

Сокращенная модель имеет вид:

,

где n - диагональная NF-матрица {nI};

X - NF-вектор-столбец {xI};

Z, - аналогичны L-факторной модели без повторений.

Пусть далее

,

-матрица , в частности - диагональная NJ- матрица , где - количество наблюдений при IJ-м сочетании значений факторов J ();

-матрица ,

-вектор-столбец ,

где - NJ-вектор-столбец средневзвешенных x по сочетаниям значений факторов J.

Матрица M и вектор m системы нормальных уравнений для b составляются естественным образом из блоков и mJ.

Формулы для MJ (в данном случае MJJ), mJ и XJ, приведенные для модели без повторений, являются частным случаем этих формул при .

полная дисперсия в сокращенной модели или объясненная дисперсия в исходной модели.

Разные эффекты могут оставаться ортогональными ( при ) в одном специальном случае, когда каждый более младший фактор делит все выделенные до него подгруппы в одинаковых пропорциях, т.е. (в частности, когда количество повторений nI для всех сочетаний I одинаково). В этом случае для ортогональности эффектов достаточно матрицы выбрать так, чтобы . Эти требования удовлетворяются, если данные матрицы обладают описанной выше (для однофакторной модели с повторениями) структурой:

, где .

Такие матрицы обобщают структуру матриц модели без повтрений.

Для этого специального случая можно построить формулы решения задачи дисперсионного анализа, обобщающие приведенные выше формулы для модели без повторений.

В общем случае указанный выбор матриц обеспечивает равенство нулю только . Особым выбором CJ (p(J)>1) можно добиться равенства нулю еще некоторых блоков общей матрицы M.

Матрица CJ не обязательно должна равняться прямому произведению по . Она должна быть размерности и иметь ранг , т.е., например, обладать структурой , где cJ - -матрица. Поэтому для определения этой матрицы необходимо иметь условий. Поскольку

,

нужное количество условий содержат требования

для всех , включая пустое множество (C0 = 1).

Таким образом, матрицы CJ всегда можно определить так, чтобы эффекты нулевого и высшего порядков были ортогональны друг с другом и с остальными эффектами, и, в частности, .

Дисперсия в общем случае не делится на факторные дисперсии, как это было в модели без повторений; точно в ней выделяется только дисперсия эффектов высшего порядка (при указанном выборе CJ):

,

и для нее непосредственно можно проверить нулевую гипотезу с помощью F-критерия

.

Нулевые гипотезы для остальных факторных дисперсий имеют вид J = 0, и в числителе F-статистики помещается величина

,

где - соответствующий блок матрицы M1,

а в знаменателе или - если нулевая гипотеза для не отвергается.

7. Оценка параметров систем уравнений

7.1 Невзаимозависимые системы

, - k-вектора-строки центрированных значений изучаемых (эндогеных) переменных и их случайных ошибок; E() = 0, E(/) = 2;

- n-вектор-строка центрированых значений независимых факторов (экзогенных переменных);

A - nk-матрица коэффициентов регрессии;

- система уравнений регрессии;

- та же система по N наблюдениям; в каждом наблюдении матожидание ошибок равно нулю, их матрица ковариации одинакова (равна 2) и они не скоррелированы по наблюдениям.

,

где , т.е. факт скоррелированности ошибок разных изучаемых переменных () не создает дополнительных проблем, и уравнения системы могут оцениваться по отдельности с помощью обычного МНК.

Пусть для коэффициентов матрицы A имеются априорные ограничения, и эта матрица имеет, например, следующую структуру:

,

где ai - ni-вектор-столбец коэффициентов в i-м уравнении (для i-й изучаемой переменной); . Т.е. для каждой изучаемой переменной имеется свой набор объясняющих факторов с Nni-матрицей наблюдений (), и система уравнений записывается как совокупность внешне не связанных между собой уравнений:

, .

Поскольку ошибки скоррелированы, правильная оценка параметров регрессии дается решением следущих уравнений:

,

где - элемент матрицы -1.

Эта оценка совпадает с обычной МНК-оценкой , если матрица диагональна.

7.2 Взаимозависимые или одновременные уравнения

Проблема идентификации.

Уравнения регрессии записываются в форме без свободного члена.

X - Nk-матрица наблюдений за изучаемыми переменными x;

Z - N(n+1)-матрица наблюдений за независимыми факторами z;

B - kk-матрица параметров регрессии при изучаемых переменных; и ll = 1 - условия нормализации, т.е. предполагается, что в конечном счете в левой части l-го уравнения остается только l-я переменная, а остальные изучаемые переменные переносятся в правую часть;

A - (n+1)k-матрица параметров регрессии при независимых факторах;

- Nk-матрица значений случайных ошибок по наблюдениям;

xB = zA + , или XB = ZA + - структурная форма системы уравнений регрессии;

x = zAB1 + B1, или X = ZAB1 + B1 - приведенная форма системы;

D = AB1 - (n+1)k-матрица параметров регрессии приведенной формы. Для их оценки используется МНК: .

DB A = 0 или WH = 0,

где (n+1)(n+k+1)-матрица ,

(n+k+1)k-матрица ,

- условия для оценки параметров структурной формы.

В общем случае этих условий недостаточно. Необходимы дополнительные условия. Пусть для параметров l-го уравнения имеется дополнительно r l условий:

R lh l = 0,

где R l - r l(n+k+1)-матрица дополнительных условий;

- (n+k+1)-вектор-столбец параметров l-го уравнения - l-й столбец матрицы H.

- общие условия для определения структурных параметов l-го уравнения, где Wl - (n+r l+1)(n+k+1)-матрица.

Они позволяют определить искомые параметры с точностью до постоянного множителя (с точностью до выполнения условий нормализации ll = 1), если ранг матрицы Wl равен n+k. Для этого необходимо, чтобы ; необходимо и достаточно, чтобы ранг матрицы R lH равнялся k1.

l-е уравнение не идентифицировано, если; оно точно идентифицировано, если и ранг Wl равен n+k; сверхидентифицировано, если и строки Rl линейно не зависмы.

Обычно строки матрицы Rl являются ортами, т.е. дополнительные ограничения исключают некоторые переменные из структурной формы. Тогда, если kl и n l - количества, соответственно, изучаемых переменных и независимых факторов в l-м уравнении, то для его идентификации необходимо, чтобы .

Дальнейшее изложение ведется в предположении, что строки матрицы Rl - орты.

7.3 Оценка параметров отдельного уравнения

Xl - Nkl-матрица наблюдений за изучаемыми переменными xl, входящими в l-е уравнение;

Xl - N-вектор-столбец наблюдений за l-й переменной x l;

- N(kl1)-матрица Xl без столбца Xl наблюдений за ;

l - kl-вектор-столбец параметров при изучаемых переменных в l-м уравнении;

l - (kl1)-вектор-столбец l с обратным знаком и без l-го элемента (без элемента ll = 1);

Z l - N(n l+1)-матрица наблюдений за независимыми факторами zl, входящими в l-е уравнение;

l - (n l+1)-вектор-столбец параметров при этих факторах;

l - N-вектор-столбец остатков l в l-м уравнении по наблюдениям;

или - l-е уравнение регрессии.

Применение обычного МНК к этому уравнению дает в общем случае смещенные оценки.

Если данное уравнение точно идентифицировано, то для оценки его параметров можно использовать косвенный метод (КМ) наименьших квадратов. С помощью МНК оцениваются параметры приведенной формы системы уравнений, через которые однозначно выражаются структурные параметры данного уравнения. Можно записать уравнения для этой оценки. Действительно, условия

эквивалентны

,

где - klk-матрица, полученная из Ik вычеркиванием нужных строк;

- аналогичная (n l+1)(n+1)-матрица для Al.

Тогда для Bl и Al, удовлетворяющим требуемым условиям, выполняется следующее:

,

и требования WHl = 0 можно записать в форме (переходя к обозначениям оценок соответствующих величин)

, (т.к. и )

или ,

где (n+1)-вектор-столбец (l-й столбец матрицы D);

(n+1)(kl1)-матрица (матрица, составленная из столбцов матрицы D, соответствующих переменным ).

Это - система уравнений для нахождения искомых параметров. Она имеет единственное решение в случае точной идентификации уравнения, т.е., если ее матрица

квадратна, размерности n+1 и не вырождена (необходимое и достаточное условие точной идентификаци уравнения).

Для сверхидентифицированного уравнения можно применить двухшаговый метод (2М) наименьших квадратов.

На 1-м шаге с помощью МНК оцениваются параметры приведенной формы для переменных :

,

где Vl - N(kl-1)-матрица остатков по уравнениям;

и определяются расчетные значения этих переменных (“очищенные” от ошибок):

.

На 2-м шаге с помощью МНК оцениваются искомые параметры структурной формы из уравнения:

.

Можно определить единый оператор 2М-оценивания. Поскольку

и ,

этот оператор записывается так (1-я форма оператора):

,

или в более “прозрачной” - 2-й форме (учитывая, что ):

.

Если уравнение не идентифицировано, то обращаемая матрица в данном операторе вырождена. Если уравнение точно идентифицировано, то 2М-оценка совпадет с КМ-оценкой.

Для сверхидентифицированного уравнения можно использовать также метод наименьшего дисперсионного отношения (МНДО). Строгое обоснование его применимости вытекает из метода максимального правдоподобия.

Пусть bl в уравнении X lbl = Z la l + e l оценено, и X lbl рассматривается как единая эндогенная переменная. В результате применения МНК определяются:

,

,

.

Теперь находится остаточная сумма квадратов при условии, что все экзогенные переменные входят в l-е уравнение. Она равна

, где .

Тогда bl должны были бы быть оценены так, чтобы

.

(иначе было бы трудно понять, почему в этом уравнении присутствуют не все экзогенные переменные).

Решение этой задачи приводит к следующим условиям:

,

из которых f находится как минимальный корень соответствующего характеристического уравнения, а bl определяется с точностью до постоянного множителя (с точностью до нормировки bll = 1).

В общем случае f > 1, но . Если данное уравнение точно идентифицировано, то f = 1, и МНДО-оценки совпадают с КМ- и 2М-оценками.

Оператор

позволяет получить так называемые оценки k-класса (не путать с k - количеством эндогенных переменных в системе).

При k = 0, они являются обычными МНК-оценками для l-го уравнения; при k = 1, это - 2М-оценки; при k = f, - МНДО-оценки. 2М-оценки занимают промежуточное положение между МНК- и МНДО-оценками (т.к. f > 1). Исследования показывают, что эффективные оценки получаются при k < 1.

7.4 Оценка параметров всех (идентифицированных) уравнений

Из приведенной формы системы уравнений следует, что

,

и далее , т.е. в общем случае все эндогенные переменные скоррелированы с ошибками во всех уравнениях. Это является основным препятствием для применения обычного МНК ко всем уравнениям по отдельности.

Но в случае, если в матрице B все элементы, расположенные ниже главной диагонали, равны нулю (т.е. в правой части l-го уравнения могут появляться только более младшие эндогенные переменные , и последней компонентой любого вектора xl является xl), а в матрице , наоборот, равны нулю все элементы, расположенные выше главной диагонали или эта матрица диагональна, то l не скоррелирован с переменными при любом l. Это - рекурсивная система, и для оценки ее параметров можно применять МНК к отдельным уравнениям.

Для оценки параметров всех идентифицированных уравнений системы можно применить трехшаговый метод (3М) наименьших квадратов.

Предпологается, что идентифицированы все k уравнений:

,

где .

При условии, что матрица ковариации ошибок эндогенных переменых 2 одинакова во всех наблюдениях (гипотеза гомоскедастичности)

.

В уравнении (*)

рассматривается как вектор n+1 наблюдений за одной эндогенной переменной, а - как матрица n+1 наблюдений за nl+kl+1 экзогенными переменными. Поскольку матрица ковариации остатков по этому уравнению равна (т.е. отлична от 2IN), для получения оценок cl параметров l нужно использовать ОМНК:

.

Это - еще одна (3-я) форма записи оператора 2М-оценивания.

Первые два шага 3М совпадают с 2М, но цель их не в получении оценок cl, а в том, чтобы оценить el, и затем получить оценки W матрицы 2:

.

Теперь все уравнения (*) записываются в единой системе:

(**) ,

или

,

где Y - соответствующий k(n+1)-вектор-столбец наблюдений за изучаемой переменной;

Q -

-матрица наблюдений за экзогенными переменными;

- - вектор-столбец параметров регрессии;

- k(n+1)-вектор столбец остатков по наблюдениям.

Легко проверить, что матрица ковариации остатков удовлетворяет следующему соотношению:

,

где - операция прямого умножения матриц.

Для нее имеется оценка: k(n + 1)k(n + 1)-матрица .

Эта матрица отлична от , поэтому на 3-м шаге 3М-оценивания к единой системе (**) применяется ОМНК и получается окончательная оценка c параметров :

В таком виде оператор 3М-оценивания используется для всех сверхидентифицированных уравнений. Для точно идентифицированных уравнений он имеет более сложную форму. Но для таких уравнений всегда можно применить КМ-оценивание.

Размещено на Allbest.ru

...

Подобные документы

  • Методы составления закона распределения случайной величины. Вычисление средней арифметической и дисперсии распределения. Расчет средней квадратической ошибки бесповторной выборки. Построение эмпирических линий регрессии, поиск уравнения прямых регрессий.

    контрольная работа [77,6 K], добавлен 20.07.2010

  • Знакомство с уравнениями линейной регрессии, рассмотрение распространенных способов решения. Общая характеристика метода наименьших квадратов. Особенности оценки статистической значимости парной линейной регрессии. Анализ транспонированной матрицы.

    контрольная работа [380,9 K], добавлен 05.04.2015

  • Значения коэффициента регрессии (b) и сводного члена уравнения регрессии (а). Определение стандартной ошибки предсказания являющейся мерой качества зависимости величин Y и х с помощью уравнения линейной регрессии. Значимость коэффициента регрессии.

    задача [133,0 K], добавлен 21.12.2008

  • Построение уравнения регрессии. Оценка параметров линейной парной регрессии. F-критерий Фишера и t-критерий Стьюдента. Точечный и интервальный прогноз по уравнению линейной регрессии. Расчет и оценка ошибки прогноза и его доверительного интервала.

    презентация [387,8 K], добавлен 25.05.2015

  • Исследование сходимости рядов. Степенной ряд интеграла дифференциального уравнения. Определение вероятности событий, закона распределения случайной величины, математического ожидания, эмпирической функции распределения, выборочного уравнения регрессии.

    контрольная работа [420,3 K], добавлен 04.10.2010

  • Случайные величины. Функция и плотность распределения вероятностей дискретной случайной величины. Сингулярные случайные величины. Математическое ожидание случайной величины. Неравенство Чебышева. Моменты, кумулянты и характеристическая функция.

    реферат [244,6 K], добавлен 03.12.2007

  • Проверка адекватности линейной регрессии. Вычисление выборочного коэффициента корреляции. Обработка одномерной выборки методами статистического анализа. Проверка гипотезы значимости с помощью критерия Пирсона. Составление линейной эмпирической регрессии.

    задача [409,0 K], добавлен 17.10.2012

  • Цели линейной модели множественной регрессии (прогноз, имитация, сценарий развития, управление). Анализ эконометрической сущности изучаемого явления на априорном этапе. Параметризация и сбор необходимой статистической информации, значимость коэффициентов.

    контрольная работа [68,7 K], добавлен 21.09.2009

  • Определение вероятности для двух несовместных и достоверного событий. Закон распределения случайной величины; построение графика функции распределения. Нахождение математического ожидания, дисперсии, среднего квадратичного отклонения случайной величины.

    контрольная работа [97,1 K], добавлен 26.02.2012

  • Элементы линейной алгебры. Дифференциальное и интегральное исчисление функции одной переменной. Биномиальный закон распределения. Комбинаторные формулы. Статистическое определение вероятности. Формула полной вероятности. Дискретные случайные величины.

    творческая работа [686,3 K], добавлен 30.04.2009

  • Определение дифференциальной функции распределения f(x)=F'(x) и математического ожидания случайной величины Х. Применение локальной и интегральной теоремы Лапласа. Составление уравнения прямой линии регрессии. Определение оптимального плана перевозок.

    контрольная работа [149,6 K], добавлен 12.11.2012

  • Статистическое описание и выборочные характеристики двумерного случайного вектора. Оценка параметров линейной регрессии, полученных по методу наименьших квадратов. Проверка гипотезы о равенстве средних нормальных совокупностей при неизвестных дисперсиях.

    контрольная работа [242,1 K], добавлен 05.11.2011

  • Вероятность попадания случайной величины Х в заданный интервал. Построение графика функции распределения случайной величины. Определение вероятности того, что наудачу взятое изделие отвечает стандарту. Закон распределения дискретной случайной величины.

    контрольная работа [104,7 K], добавлен 24.01.2013

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Непрерывная случайная величина и функция распределения. Математическое ожидание непрерывной случайной величины. Среднее квадратичное отклонение. Кривая распределения для непрерывной случайной величины. Понятие однофакторного дисперсионного анализа.

    контрольная работа [165,5 K], добавлен 03.01.2012

  • Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.

    реферат [146,5 K], добавлен 19.08.2015

  • Определение типа кривой по виду уравнения, уравнение с угловым коэффициентом, в отрезках и общее уравнение. Определение медианы, уравнения средней линии в треугольнике. Вопросы по линейной алгебре. Решение системы уравнения при помощи обратной матрицы.

    контрольная работа [97,5 K], добавлен 31.10.2010

  • Определение вероятности наступления события по формуле Бернулли. Построение эмпирической функции распределения и гистограммы для случайной величины. Вычисление коэффициента корреляции, получение уравнения регрессии. Пример решения задачи симплекс-методом.

    контрольная работа [547,6 K], добавлен 02.02.2012

  • Понятие случайной величины, а также ее основные числовые характеристики. Случайная величина, подчиняющаяся нормальному закону распределения. Кривые плотности вероятности. Использование генератора случайных чисел. Изображение векторов в виде графика.

    лабораторная работа [301,4 K], добавлен 27.05.2015

  • Вычисление математического ожидания, дисперсии, функции распределения и среднеквадратического отклонения случайной величины. Закон распределения случайной величины. Классическое определение вероятности события. Нахождение плотности распределения.

    контрольная работа [38,5 K], добавлен 25.03.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.