Описательная статистика
Ряды наблюдений и их характеристики. Эмпирические распределения случайной величины. Случайные ошибки измерения и производные. Алгебра линейной регрессии, обозначения и определения. Модель линейной регрессии, формы уравнения и автокорреляция ошибок.
Рубрика | Математика |
Вид | курс лекций |
Язык | русский |
Дата добавления | 27.10.2015 |
Размер файла | 429,2 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
и
(M In)a = 0, a/a = 1.
В этом случае матрица ковариации ошибкок переменных имеет вид 2In. Если матрица ковариации ошибок есть 2, то применяется регрессия в метрике -1:
.
Для доказательства проводится преобразование в пространстве переменных с помощью матрицы C, такой, что , после которого матрица ковариации ошибок переменных приобретает вид 2In, и становится возможным применить обычную ортогональную регрессию.
Ортогональная регрессия при принятых гипотезах приводит к состоятельным оценкам параметров.
6.2 Фиктивные переменные
С помощью фиктивных или псевдо- переменных, принимающих дискретные, обычно, целые значения, в регрессию включают качественные факторы.
Уточнение обозначений:
Z - Nn-матрица наблюдений за “обычными” независимыми факторами;
- n-вектор-столбец параметров регрессии при этих факторах;
;
0 = .
В этих обозначениях уравнение регрессии записывается следующим образом:
.
Пусть имеется один качественный фактор, принимающий два значения (например: “мужчина” и “женщина”, если речь идет о модели некоторой характеристики отдельных людей, или “годы войны” и “годы мира” - в модели, построенной на временных рядах наблюдений, которые охватывают периоды войны и мира, и т.д.). Ставится вопрос о том, влияет ли этот фактор на значение свободного члена регрессии.
2-матрица наблюдений за качественным фактором (матрица фиктивных переменных): равен единице, если фактор в i-м наблюдении принимает 1-е значение, и нулю в противном случае; равен единице, если фактор в i-м наблюдении принимает 2-е значение, и нулю в противном случае.
- 2-х компонентный вектор-столбец параметров при фиктивных переменных.
Исходная форма регрессии с фиктивными переменными:
.
Поскольку сумма столбцов матрицы равна Z0, оценка параметоров непосредственно по этому уравнению невозможна.
Проводится преобразование фиктивных переменных одним из двух спасобов.
а) В исходной форме регрессии исключается один из столбцов матрицы фиктивных переменных, в данном случае - первый.
- матрица фиктивных переменных без первого столбца;
= .
Тогда эквивалентная исходной запись уравнения имеет вид:
+ ,
и после умножения матрицы справа на вектор параметров получается запись уравнения регресии в которой отсутствует линейная зависимость между факторами-регрессорами:
,
где .
После оценки этих параметров можно определить значения исходных параметров 0 и , предполагая, что сумма параметров при фиктивных переменных (в данном случае 1 + 2) равна нулю, т.е. влияние качественного фактора приводит к колебаниям вокруг общего уровня свободного члена:
.
б) Предполагая, что сумма параметров при фиктивных переменных равна нулю, в исходной форме регрессии исключается один из этих параметров, в данном случае - первый.
- вектор-стобец параметров при фиктивных переменных без первого элемента;
C .
Эквивалентная исходной запись уравнения принимает форму:
,
и после умножения матрицы C слева на матрицу наблюдений за фиктивными переменными получается запись уравнения регрессии, в которой также отсутствует линейная зависимость между регрессорами:
.
После оценки параметров этого уравнения недостающаяся оценка параметра 1 определяется из условия 1 = 2.
Качественный фактор может принимать больше двух значений. Так, в классической модели выделения сезонных колебаний он принимает 4 значения в случае поквартальных наблюдений и 12 значений, если наблюдения проводились по месяцам. Матрица в этой модели имеет размерность, соответственно, N4 или N12.
Пусть в общем случае качественный фактор принимает k значений. Тогда: матрица имеет размерность Nk, вектор-столбец - размерность k, матрицы и ZF - N (k1), вектора-столбцы и - k1;
k(k+1) матрица , k(k1) матрица ; .
Можно показать, что
, или ,
где - (k1)(k1)-матрица, состоящая из единиц; и далее показать, что результаты оценки параметров уравнения с фиктивными переменными при использовании обоих указанных подходов к устранению линейной зависимости факторов-регрессоров одинаковы.
После оценки регрессии можно применить t-критерий для проверки значимости влияния качественного фактора на свободный член уравнения.
Если k слишком велико и приближается к N, то на параметры при фиктивных переменных накладываются более жесткие ограничения (чем равенство нулю их суммы). Так, например, если наблюдения проведены в последовательные моменты времени, и вводится качественный фактор “время”, принимающий особое значение в каждый момент времени, то , и обычно предполагается, что значение параметра в каждый момент времени (при фиктивной переменной каждого момента времени) больше, чем в предыдущий момент времени на одну и ту же величину. Тогда роль матрицы C играет N-вектор-столбец T, состоящий из чисел натурального ряда, начиная с 1, и , где T - скаляр. Уравнение регрессии с фактором времени имеет вид (эквивалентная исходной форма уравнения при использовании способа “б” исключения линейной зависимости фиктивных переменных):
.
Метод фиктивных переменных можно использовать для проверки влияния качественного фактора на коэффициент регрессии при любом обычном факторе. Исходная форма уравнения, в которое вводится качественный фактор для параметра j, имеет следующий вид:
,
где -й столбец матрицы Z,
- k-вектор-столбец параметров влияния качественного фактора на j;
в векторе j-я компонента теперь обозначается - средний уровень параметра j;
- операция прямого произведения столбцов матриц.
Замечание
Прямое произведение матриц AB, имеющих размерность, соответственно, mAnA и mBnB есть матрица размерности (mAmB)(nAnB) следующей структуры:
Прямое произведение матриц обладает следующими свойствами:
(AB)(CD) = (AC)(BD), если произведения AC и BD имеют смысл,
.
Прямое произведение столбцов матриц применимо к матрицам, имеющим одинаковое число строк, и осуществляется путем проведения операции прямого произведения последовательно с векторами-строками матриц.
Приоритет прямого произведения матриц выше, чем обычного матричного произведения.
При использовании способа “а” эквивалентная исходной форма уравнения имеет вид (форма “а”):
,
где - матрица Z без j-го столбца,
- вектр без j-го элемента;
а в случае применения способа “б” (форма “б”):
.
Все приведенные выше структуры матриц и соотношения между матрицами и векторами сохраняются.
В уравнение регрессии можно включать более одного качественного фактора. В случае двух факторов, принимающих, соответственно, k1 и k2 значения, форма “б” уравнения записывается следующим образом:
,
где вместо “F” в качестве индекса качественного фактора используется его номер.
Это уравнение может включать фиктивные переменные совместного влияния качественных факторов (взаимодействия фактров). В исходной форме компонента совместного влияния записывается следующим образом:
,
где - k1k2-вектор-столбец /,
а - параметр при фиктивной переменной, которая равна 1, если 1-й фактор принимает i1-е значение, а 2-й фактор - i2-е значение, и равна 0 в остальных случаях (вектором-столбцом наблюдений за этой переменной является (k1(i1-1)+i2)-й столбец матрицы ).
Как и прежде, вектор параметров, из которого исключены все компоненты, линейно выражаемые через остальные, обозначается . Он имеет размерность (k11)(k21) и связан с исходным вектором параметров таким образом:
,
где C1 и C2 - матрицы размерности k1(k1-1) и k2(k2-1), имеющие описанную выше структуру (матрица C).
Теперь компоненту совместного влияния можно записать следующим образом:
,
а уравнение, включающее эту компоненту (форма “б”)
.
В общем случае имеется L качественных факторов, j-й фактор принимает kj значений. Пусть упорядоченное множество {1,2,...,L} обозначается F, а J - его подмножества. Общее их количество, включая пустое подмножество, равно 2L. Каждому такому подмножеству взаимно однозначно соответствует число, например, в системе исчисления с основанием , и их можно упорядочить по возрастанию этих чисел. Если пустое подмножество обозначить 0, то можно записать J = 0,1,...,L,{1,2},...,{1,L},{2,3},...,{1,2,3},...,F. Тогда уравнение регрессии записывается следующим образом:
,
где при j > 0; C0 = 1. Выражение означает, что j принимает значения последовательно с 1-го по последний элемент подмножества J.
Очевидно, что приведенная выше запись уравнения для L = 2 является частным случаем данной записи.
Если p(J) - количество элементов в подмножестве J, то
или - J-е эффекты, эффекты p(J)-го порядка, при p(J) = 1 - главные эффекты, при p(J) > 1 - эффекты взаимодействия, эффекты совместного влияния или совместные эффекты.
или J - параметры соответствующих J-х эффектов или также сами эти эффекты.
6.3 Дисперсионный анализ
Рассматривается частный случай уравнения регрессии с фиктивными переменными, когда оно включает только такие (фиктивные) переменные, и для каждого сочетания значений факторов имеется одно и только одно наблюдение за изучаемой переменной. Тогда и уравнение имеет вид:
,
в котором отсутствует вектор ошибок , т.к. при учете эффектов всех порядков их сумма в точности равняется X.
Матрица Z имеет размерность NN и она не вырождена. Поэтому = Z1X. Но чтобы получить общие результаты, имеющие значение и для частных моделей, в которых эффекты высоких порядков принимаются за случайную ошибку, ниже используется техника регрессионного анализа.
Это - регрессионная модель полного (учитываются эффекты всех порядков) одномерного (изучаемая переменная единственна) многофакторного дисперсионного анализа без повторений (для каждого сочетания значений фактров есть одно наблюдение).
Обычному линейному индексу компонент вектора X можно поставить в соответствие мультииндекс I, принимающий значения из множества , так что, если I = {i1,i2,...,iL}, то , и - при этом - обозначения xi и xI эквивалентны. При таком соответствии обычного индекса и мультииндекса в линейной последовательности значений мультииндекса быстрее меняются его младшие компоненты (с большим порядковым номером).
,
если j > 0, и N0 = 1 - количество столбцов в матрице ;
,
если j > 0, и = 1 - количество столбцов в матрице ; очевидно, что ;
- мультииндекс с множеством значений ;
I = IF.
Mb = m - система нормальных уравнений,
где M - NN-матрица, b и m - N-вектора-столбцы и, как обычно, .
При выбранном порядке следования значений факторов от наблюдения к наблюдению (быстее меняют свои значения более младшие факторы)
где j есть , если , или , в противном случае. Тогда
где j есть , если , или , в противном случае, и далее
, если , т.е. переменные разных эффектов ортогональны друг другу,
, M0 = 1;
,
где - NJ-вектор-столбец средних по сочетаниям значений факторов J с мультииндексом компонент IJ (является средним значением x по тем наблюдениям, в которых 1-й фактор из множества J принимает i1-е значение, 2-й - i2-е значение и т.д.); .
M - блочно-диагональная матрица {MJ}, m - вектор-столбец {mJ}.
После решения системы нормальных уравнений и перехода к “полным” векторам параметров эффектов получается следующее:
,
где (как и прежде, ), B0 = 1.
Параметры разных эффектов (разных по J) не зависят друг от друга, и исключение из уравнения некоторых из них не повлияет на значения параметров оставшихся эффектов.
Чтобы получить более “прозрачные” формулы для определения парметров эффектов, следует ввести понятие сопоставимых векторов этих параметров.
Если , то
- NJ-вектор-столбец параметров -го эффекта, сопоставимый с вектором : он имеет ту же размерность, что и , и каждая компонента вектора повторена в нем раз - так, что любой компоненте вектора в векторе соответствует компонента , для которой является подмножеством тех же элементов , что и по отношению к J.
В этом выражении для сопоставимых векторов параметров эффектов
,
где j равен , если , или , в противном случае (, ).
Эти матрицы обладают следующим свойством: , откуда получается выражение
для рекурентного расчета параметров эффектов (например, если известны , то ).
При J = F это выражение представляет собой другую форму записи основного уравнения регрессии:
, т.е. .
- основное тождество дисперсионного анализа, показывающее распределение общей дисперсии изучаемой величины по факторам и их взаимодействиям,
где - дисперсия, объясненная совместным влиянием факторов J; представляет собой сумму квадратов с степенями свободы.
Все эти дисперсии не зависят друг от друга. Если совместное влияние факторов так же существенно (или не существенно) как и факторов J, то статистика
(предполагается, что она больше единицы)
имеет -распределение (предполагается, что x нормально распределено). Этот факт можно использовать для проверки гипотез о сравнительной существенности факторов и их взаимодействий.
Обычно эффекты высоких порядков отождествляют со случайной ошибкой. Уравнение регрессии приобретает свою обычную форму и можно воспользоваться t- и F-критериями для проверки значимости отдельных факторов и их взаимодействий. Важно, что оценки оставшихся в уравнении эффектов при этом не меняются.
Переходя к более общему и более сложному случаю модели дисперсионного анализа с повторениями, полезно вспомнить следующее. Если в модели регрессионного анализа
несколько строк матрицы Z одинаковы, то можно перейти к сокращенной модели, в которой из всех этих строк оставлена одна, а в качестве соответствующей компоненты вектора X взято среднее по этим наблюдениям с одинаковыми значениями независимых факторов. Т.е. совокупность наблюдений с одинаковыми значениями независимых факторов заменяется одним групповым наблюдением. При исходной гипотезе E() = 2I дисперсия остатка по этому наблюдению равна ng2, где ng - количество замененных наблюдений, и значения переменных в групповом наблюдении должны быть умножены на (в соответствии с ОМНК). Значения оценок параметров по исходной и сокращенной модели будут одинаковыми, но полная () и остаточная (e/e) суммы квадратов в исходной модели будут больше, чем в сокращенной на сумму квадратов отклонений переменных x по исключенным наблюдениям от своей средней.
Пусть теперь рассматривается регрессионная модель одномерного однофакторного дисперсионного анализа с повторениями:
.
Фактор принимает k значений, и для каждого i-го значения существует ni наблюдений (ni повторений), т.е. исходная совокупность X разбита по какому-то признаку на k групп, причем сначала в ней идут наблюдения по 1-й группе, потом - по 2-й и т.д.
; - Nk-матрица структуры .
Всем повторениям в матрице Z соответствуют одинаковые строки, поэтому можно перейти к сокращенной модели.
- среднее и - дисперсия по i-й группе;
- суммарная дисперсия по группам. Сокращенная модель имеет следующий вид:
.
При естественном требовании , которое эквивалентно = 0, матрица C имеет вид и .
- объясненная дисперсия, равная полной дисперсии в сокращенной модели.
Полная дисперсия в исходной модели распадается на две части:
- объясненную и остаточную, или в терминах дисперсионного анализа - межгрупповую и внутригрупповую дисперсии, которые имеют, соответственно, k и Nk1 степеней свободы. Применяя F-критерий, можно оценить статистическую значимость использования данной группировки в целом или выделения отдельных групп.
Теперь рассматривается общий случай L-факторной модели.
В этом случае N больше NF на общее число повторений по всем сочетаниям значений факторов. Пусть
nI - число наблюдений при I-м сочетании значений факторов;
;
xI - среднее значение и - дисперсия наблюдений при I-м сочетании;
- суммарная внутригрупповая или остаточная дисперсия для исходной модели с NNF1 степенями свободы.
Сокращенная модель имеет вид:
,
где n - диагональная NF-матрица {nI};
X - NF-вектор-столбец {xI};
Z, - аналогичны L-факторной модели без повторений.
Пусть далее
,
-матрица , в частности - диагональная NJ- матрица , где - количество наблюдений при IJ-м сочетании значений факторов J ();
-матрица ,
-вектор-столбец ,
где - NJ-вектор-столбец средневзвешенных x по сочетаниям значений факторов J.
Матрица M и вектор m системы нормальных уравнений для b составляются естественным образом из блоков и mJ.
Формулы для MJ (в данном случае MJJ), mJ и XJ, приведенные для модели без повторений, являются частным случаем этих формул при .
полная дисперсия в сокращенной модели или объясненная дисперсия в исходной модели.
Разные эффекты могут оставаться ортогональными ( при ) в одном специальном случае, когда каждый более младший фактор делит все выделенные до него подгруппы в одинаковых пропорциях, т.е. (в частности, когда количество повторений nI для всех сочетаний I одинаково). В этом случае для ортогональности эффектов достаточно матрицы выбрать так, чтобы . Эти требования удовлетворяются, если данные матрицы обладают описанной выше (для однофакторной модели с повторениями) структурой:
, где .
Такие матрицы обобщают структуру матриц модели без повтрений.
Для этого специального случая можно построить формулы решения задачи дисперсионного анализа, обобщающие приведенные выше формулы для модели без повторений.
В общем случае указанный выбор матриц обеспечивает равенство нулю только . Особым выбором CJ (p(J)>1) можно добиться равенства нулю еще некоторых блоков общей матрицы M.
Матрица CJ не обязательно должна равняться прямому произведению по . Она должна быть размерности и иметь ранг , т.е., например, обладать структурой , где cJ - -матрица. Поэтому для определения этой матрицы необходимо иметь условий. Поскольку
,
нужное количество условий содержат требования
для всех , включая пустое множество (C0 = 1).
Таким образом, матрицы CJ всегда можно определить так, чтобы эффекты нулевого и высшего порядков были ортогональны друг с другом и с остальными эффектами, и, в частности, .
Дисперсия в общем случае не делится на факторные дисперсии, как это было в модели без повторений; точно в ней выделяется только дисперсия эффектов высшего порядка (при указанном выборе CJ):
,
и для нее непосредственно можно проверить нулевую гипотезу с помощью F-критерия
.
Нулевые гипотезы для остальных факторных дисперсий имеют вид J = 0, и в числителе F-статистики помещается величина
,
где - соответствующий блок матрицы M1,
а в знаменателе или - если нулевая гипотеза для не отвергается.
7. Оценка параметров систем уравнений
7.1 Невзаимозависимые системы
, - k-вектора-строки центрированных значений изучаемых (эндогеных) переменных и их случайных ошибок; E() = 0, E(/) = 2;
- n-вектор-строка центрированых значений независимых факторов (экзогенных переменных);
A - nk-матрица коэффициентов регрессии;
- система уравнений регрессии;
- та же система по N наблюдениям; в каждом наблюдении матожидание ошибок равно нулю, их матрица ковариации одинакова (равна 2) и они не скоррелированы по наблюдениям.
,
где , т.е. факт скоррелированности ошибок разных изучаемых переменных () не создает дополнительных проблем, и уравнения системы могут оцениваться по отдельности с помощью обычного МНК.
Пусть для коэффициентов матрицы A имеются априорные ограничения, и эта матрица имеет, например, следующую структуру:
,
где ai - ni-вектор-столбец коэффициентов в i-м уравнении (для i-й изучаемой переменной); . Т.е. для каждой изучаемой переменной имеется свой набор объясняющих факторов с Nni-матрицей наблюдений (), и система уравнений записывается как совокупность внешне не связанных между собой уравнений:
, .
Поскольку ошибки скоррелированы, правильная оценка параметров регрессии дается решением следущих уравнений:
,
где - элемент матрицы -1.
Эта оценка совпадает с обычной МНК-оценкой , если матрица диагональна.
7.2 Взаимозависимые или одновременные уравнения
Проблема идентификации.
Уравнения регрессии записываются в форме без свободного члена.
X - Nk-матрица наблюдений за изучаемыми переменными x;
Z - N(n+1)-матрица наблюдений за независимыми факторами z;
B - kk-матрица параметров регрессии при изучаемых переменных; и ll = 1 - условия нормализации, т.е. предполагается, что в конечном счете в левой части l-го уравнения остается только l-я переменная, а остальные изучаемые переменные переносятся в правую часть;
A - (n+1)k-матрица параметров регрессии при независимых факторах;
- Nk-матрица значений случайных ошибок по наблюдениям;
xB = zA + , или XB = ZA + - структурная форма системы уравнений регрессии;
x = zAB1 + B1, или X = ZAB1 + B1 - приведенная форма системы;
D = AB1 - (n+1)k-матрица параметров регрессии приведенной формы. Для их оценки используется МНК: .
DB A = 0 или WH = 0,
где (n+1)(n+k+1)-матрица ,
(n+k+1)k-матрица ,
- условия для оценки параметров структурной формы.
В общем случае этих условий недостаточно. Необходимы дополнительные условия. Пусть для параметров l-го уравнения имеется дополнительно r l условий:
R lh l = 0,
где R l - r l(n+k+1)-матрица дополнительных условий;
- (n+k+1)-вектор-столбец параметров l-го уравнения - l-й столбец матрицы H.
- общие условия для определения структурных параметов l-го уравнения, где Wl - (n+r l+1)(n+k+1)-матрица.
Они позволяют определить искомые параметры с точностью до постоянного множителя (с точностью до выполнения условий нормализации ll = 1), если ранг матрицы Wl равен n+k. Для этого необходимо, чтобы ; необходимо и достаточно, чтобы ранг матрицы R lH равнялся k1.
l-е уравнение не идентифицировано, если; оно точно идентифицировано, если и ранг Wl равен n+k; сверхидентифицировано, если и строки Rl линейно не зависмы.
Обычно строки матрицы Rl являются ортами, т.е. дополнительные ограничения исключают некоторые переменные из структурной формы. Тогда, если kl и n l - количества, соответственно, изучаемых переменных и независимых факторов в l-м уравнении, то для его идентификации необходимо, чтобы .
Дальнейшее изложение ведется в предположении, что строки матрицы Rl - орты.
7.3 Оценка параметров отдельного уравнения
Xl - Nkl-матрица наблюдений за изучаемыми переменными xl, входящими в l-е уравнение;
Xl - N-вектор-столбец наблюдений за l-й переменной x l;
- N(kl1)-матрица Xl без столбца Xl наблюдений за ;
l - kl-вектор-столбец параметров при изучаемых переменных в l-м уравнении;
l - (kl1)-вектор-столбец l с обратным знаком и без l-го элемента (без элемента ll = 1);
Z l - N(n l+1)-матрица наблюдений за независимыми факторами zl, входящими в l-е уравнение;
l - (n l+1)-вектор-столбец параметров при этих факторах;
l - N-вектор-столбец остатков l в l-м уравнении по наблюдениям;
или - l-е уравнение регрессии.
Применение обычного МНК к этому уравнению дает в общем случае смещенные оценки.
Если данное уравнение точно идентифицировано, то для оценки его параметров можно использовать косвенный метод (КМ) наименьших квадратов. С помощью МНК оцениваются параметры приведенной формы системы уравнений, через которые однозначно выражаются структурные параметры данного уравнения. Можно записать уравнения для этой оценки. Действительно, условия
эквивалентны
,
где - klk-матрица, полученная из Ik вычеркиванием нужных строк;
- аналогичная (n l+1)(n+1)-матрица для Al.
Тогда для Bl и Al, удовлетворяющим требуемым условиям, выполняется следующее:
,
и требования WHl = 0 можно записать в форме (переходя к обозначениям оценок соответствующих величин)
, (т.к. и )
или ,
где (n+1)-вектор-столбец (l-й столбец матрицы D);
(n+1)(kl1)-матрица (матрица, составленная из столбцов матрицы D, соответствующих переменным ).
Это - система уравнений для нахождения искомых параметров. Она имеет единственное решение в случае точной идентификации уравнения, т.е., если ее матрица
квадратна, размерности n+1 и не вырождена (необходимое и достаточное условие точной идентификаци уравнения).
Для сверхидентифицированного уравнения можно применить двухшаговый метод (2М) наименьших квадратов.
На 1-м шаге с помощью МНК оцениваются параметры приведенной формы для переменных :
,
где Vl - N(kl-1)-матрица остатков по уравнениям;
и определяются расчетные значения этих переменных (“очищенные” от ошибок):
.
На 2-м шаге с помощью МНК оцениваются искомые параметры структурной формы из уравнения:
.
Можно определить единый оператор 2М-оценивания. Поскольку
и ,
этот оператор записывается так (1-я форма оператора):
,
или в более “прозрачной” - 2-й форме (учитывая, что ):
.
Если уравнение не идентифицировано, то обращаемая матрица в данном операторе вырождена. Если уравнение точно идентифицировано, то 2М-оценка совпадет с КМ-оценкой.
Для сверхидентифицированного уравнения можно использовать также метод наименьшего дисперсионного отношения (МНДО). Строгое обоснование его применимости вытекает из метода максимального правдоподобия.
Пусть bl в уравнении X lbl = Z la l + e l оценено, и X lbl рассматривается как единая эндогенная переменная. В результате применения МНК определяются:
,
,
.
Теперь находится остаточная сумма квадратов при условии, что все экзогенные переменные входят в l-е уравнение. Она равна
, где .
Тогда bl должны были бы быть оценены так, чтобы
.
(иначе было бы трудно понять, почему в этом уравнении присутствуют не все экзогенные переменные).
Решение этой задачи приводит к следующим условиям:
,
из которых f находится как минимальный корень соответствующего характеристического уравнения, а bl определяется с точностью до постоянного множителя (с точностью до нормировки bll = 1).
В общем случае f > 1, но . Если данное уравнение точно идентифицировано, то f = 1, и МНДО-оценки совпадают с КМ- и 2М-оценками.
Оператор
позволяет получить так называемые оценки k-класса (не путать с k - количеством эндогенных переменных в системе).
При k = 0, они являются обычными МНК-оценками для l-го уравнения; при k = 1, это - 2М-оценки; при k = f, - МНДО-оценки. 2М-оценки занимают промежуточное положение между МНК- и МНДО-оценками (т.к. f > 1). Исследования показывают, что эффективные оценки получаются при k < 1.
7.4 Оценка параметров всех (идентифицированных) уравнений
Из приведенной формы системы уравнений следует, что
,
и далее , т.е. в общем случае все эндогенные переменные скоррелированы с ошибками во всех уравнениях. Это является основным препятствием для применения обычного МНК ко всем уравнениям по отдельности.
Но в случае, если в матрице B все элементы, расположенные ниже главной диагонали, равны нулю (т.е. в правой части l-го уравнения могут появляться только более младшие эндогенные переменные , и последней компонентой любого вектора xl является xl), а в матрице , наоборот, равны нулю все элементы, расположенные выше главной диагонали или эта матрица диагональна, то l не скоррелирован с переменными при любом l. Это - рекурсивная система, и для оценки ее параметров можно применять МНК к отдельным уравнениям.
Для оценки параметров всех идентифицированных уравнений системы можно применить трехшаговый метод (3М) наименьших квадратов.
Предпологается, что идентифицированы все k уравнений:
,
где .
При условии, что матрица ковариации ошибок эндогенных переменых 2 одинакова во всех наблюдениях (гипотеза гомоскедастичности)
.
В уравнении (*)
рассматривается как вектор n+1 наблюдений за одной эндогенной переменной, а - как матрица n+1 наблюдений за nl+kl+1 экзогенными переменными. Поскольку матрица ковариации остатков по этому уравнению равна (т.е. отлична от 2IN), для получения оценок cl параметров l нужно использовать ОМНК:
.
Это - еще одна (3-я) форма записи оператора 2М-оценивания.
Первые два шага 3М совпадают с 2М, но цель их не в получении оценок cl, а в том, чтобы оценить el, и затем получить оценки W матрицы 2:
.
Теперь все уравнения (*) записываются в единой системе:
(**) ,
или
,
где Y - соответствующий k(n+1)-вектор-столбец наблюдений за изучаемой переменной;
Q -
-матрица наблюдений за экзогенными переменными;
- - вектор-столбец параметров регрессии;
- k(n+1)-вектор столбец остатков по наблюдениям.
Легко проверить, что матрица ковариации остатков удовлетворяет следующему соотношению:
,
где - операция прямого умножения матриц.
Для нее имеется оценка: k(n + 1)k(n + 1)-матрица .
Эта матрица отлична от , поэтому на 3-м шаге 3М-оценивания к единой системе (**) применяется ОМНК и получается окончательная оценка c параметров :
В таком виде оператор 3М-оценивания используется для всех сверхидентифицированных уравнений. Для точно идентифицированных уравнений он имеет более сложную форму. Но для таких уравнений всегда можно применить КМ-оценивание.
Размещено на Allbest.ru
...Подобные документы
Методы составления закона распределения случайной величины. Вычисление средней арифметической и дисперсии распределения. Расчет средней квадратической ошибки бесповторной выборки. Построение эмпирических линий регрессии, поиск уравнения прямых регрессий.
контрольная работа [77,6 K], добавлен 20.07.2010Знакомство с уравнениями линейной регрессии, рассмотрение распространенных способов решения. Общая характеристика метода наименьших квадратов. Особенности оценки статистической значимости парной линейной регрессии. Анализ транспонированной матрицы.
контрольная работа [380,9 K], добавлен 05.04.2015Значения коэффициента регрессии (b) и сводного члена уравнения регрессии (а). Определение стандартной ошибки предсказания являющейся мерой качества зависимости величин Y и х с помощью уравнения линейной регрессии. Значимость коэффициента регрессии.
задача [133,0 K], добавлен 21.12.2008Построение уравнения регрессии. Оценка параметров линейной парной регрессии. F-критерий Фишера и t-критерий Стьюдента. Точечный и интервальный прогноз по уравнению линейной регрессии. Расчет и оценка ошибки прогноза и его доверительного интервала.
презентация [387,8 K], добавлен 25.05.2015Исследование сходимости рядов. Степенной ряд интеграла дифференциального уравнения. Определение вероятности событий, закона распределения случайной величины, математического ожидания, эмпирической функции распределения, выборочного уравнения регрессии.
контрольная работа [420,3 K], добавлен 04.10.2010Случайные величины. Функция и плотность распределения вероятностей дискретной случайной величины. Сингулярные случайные величины. Математическое ожидание случайной величины. Неравенство Чебышева. Моменты, кумулянты и характеристическая функция.
реферат [244,6 K], добавлен 03.12.2007Проверка адекватности линейной регрессии. Вычисление выборочного коэффициента корреляции. Обработка одномерной выборки методами статистического анализа. Проверка гипотезы значимости с помощью критерия Пирсона. Составление линейной эмпирической регрессии.
задача [409,0 K], добавлен 17.10.2012Цели линейной модели множественной регрессии (прогноз, имитация, сценарий развития, управление). Анализ эконометрической сущности изучаемого явления на априорном этапе. Параметризация и сбор необходимой статистической информации, значимость коэффициентов.
контрольная работа [68,7 K], добавлен 21.09.2009Определение вероятности для двух несовместных и достоверного событий. Закон распределения случайной величины; построение графика функции распределения. Нахождение математического ожидания, дисперсии, среднего квадратичного отклонения случайной величины.
контрольная работа [97,1 K], добавлен 26.02.2012Элементы линейной алгебры. Дифференциальное и интегральное исчисление функции одной переменной. Биномиальный закон распределения. Комбинаторные формулы. Статистическое определение вероятности. Формула полной вероятности. Дискретные случайные величины.
творческая работа [686,3 K], добавлен 30.04.2009Определение дифференциальной функции распределения f(x)=F'(x) и математического ожидания случайной величины Х. Применение локальной и интегральной теоремы Лапласа. Составление уравнения прямой линии регрессии. Определение оптимального плана перевозок.
контрольная работа [149,6 K], добавлен 12.11.2012Статистическое описание и выборочные характеристики двумерного случайного вектора. Оценка параметров линейной регрессии, полученных по методу наименьших квадратов. Проверка гипотезы о равенстве средних нормальных совокупностей при неизвестных дисперсиях.
контрольная работа [242,1 K], добавлен 05.11.2011Вероятность попадания случайной величины Х в заданный интервал. Построение графика функции распределения случайной величины. Определение вероятности того, что наудачу взятое изделие отвечает стандарту. Закон распределения дискретной случайной величины.
контрольная работа [104,7 K], добавлен 24.01.2013Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.
контрольная работа [33,8 K], добавлен 13.12.2010Непрерывная случайная величина и функция распределения. Математическое ожидание непрерывной случайной величины. Среднее квадратичное отклонение. Кривая распределения для непрерывной случайной величины. Понятие однофакторного дисперсионного анализа.
контрольная работа [165,5 K], добавлен 03.01.2012Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.
реферат [146,5 K], добавлен 19.08.2015Определение типа кривой по виду уравнения, уравнение с угловым коэффициентом, в отрезках и общее уравнение. Определение медианы, уравнения средней линии в треугольнике. Вопросы по линейной алгебре. Решение системы уравнения при помощи обратной матрицы.
контрольная работа [97,5 K], добавлен 31.10.2010Определение вероятности наступления события по формуле Бернулли. Построение эмпирической функции распределения и гистограммы для случайной величины. Вычисление коэффициента корреляции, получение уравнения регрессии. Пример решения задачи симплекс-методом.
контрольная работа [547,6 K], добавлен 02.02.2012Понятие случайной величины, а также ее основные числовые характеристики. Случайная величина, подчиняющаяся нормальному закону распределения. Кривые плотности вероятности. Использование генератора случайных чисел. Изображение векторов в виде графика.
лабораторная работа [301,4 K], добавлен 27.05.2015Вычисление математического ожидания, дисперсии, функции распределения и среднеквадратического отклонения случайной величины. Закон распределения случайной величины. Классическое определение вероятности события. Нахождение плотности распределения.
контрольная работа [38,5 K], добавлен 25.03.2015