Эконометрика
Понятие эконометрики как раздела экономики, занимающегося разработкой и применением статистических методов для измерений взаимосвязей между экономическими переменными. Парная регрессия и корреляция. Множественный регрессионный анализ, временные ряды.
Рубрика | Экономико-математическое моделирование |
Вид | методичка |
Язык | русский |
Дата добавления | 25.03.2013 |
Размер файла | 377,2 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Министерство образования и науки Российской Федерации
Государственное образовательное учреждение
высшего профессионального образования
Воронежский государственный архитектурно-строительный университет
Кафедра прикладной информатики и информационных систем
ЭКОНОМЕТРИКА
Методические указания по курсу "Эконометрика"
для студентов 3 курса дневного отделения, обучающихся по специальности
080801-"Прикладная информатика в экономике"
Аснина Н.Г.
Ефимова О.Е.
Воронеж 2008
Содержание
- Введение
- 1. Парная регрессия и корреляция
- 1.1 Функциональная, статистическая и корреляционная зависимости
- 1.2 Линейная парная регрессия. Оценка параметров парной регрессионной модели. Теорема Гаусса-Маркова
- 1.3 Оценка значимости уравнения регрессии. Коэффициент детерминации
- 1.4 Нелинейные модели регрессии
- 2. Множественный регрессионный анализ
- 2.1 Классическая нормальная линейная модель множественной регрессии
- 2.2 Оценка параметров классической регрессионной модели методом наименьших квадратов
- 2.3 Ковариационная матрица и ее выборочная оценка
- 2.4 Анализ вариации зависимой переменной
- 2.5 Коэффициент детерминации выборочный и скорректированный
- 2.6 Оценка значимости уравнения регрессии и его параметров. Доверительные интервалы для коэффициентов регрессии
- 2.7 Спецификация модели. Мультиколлинеарность. Отбор факторов при построении уравнения множественной регрессии
- 3. Временные ряды
Введение
Эконометрика - одна из базовых дисциплин экономического образования во всем мире. Однако до недавнего времени она не была признана в СССР и России. Это было связано с тем, что из трех основных составляющих эконометрики - экономической теории, экономической статистики и математики - две первые были представлены в нашей стране неудовлетворительно. Но теперь ситуация изменилась коренным образом.
Существуют различные варианты определения эконометрики:
Эконометрика - это раздел экономики, занимающийся разработкой и применением статистических методов для измерений взаимосвязей между экономическими переменными (С. Фишер и др.).
Основная задача эконометрики - наполнить эмпирическим содержанием априорные экономические рассуждения (Л. Клейн).
Цель эконометрики - эмпирический вывод экономических законов (Э. Маленво).
Эконометрика является не более чем. набором инструментов, хотя и очень полезных. Эконометрика является одновременно нашим телескопом и нашим микроскопом для изучения окружающего экономического мира (Ц. Грилихес).
С.А. Айвазян полагает, что эконометрика объединяет совокупность методов и моделей, позволяющих на базе экономической теории, экономической статистики и математико-статистического инструментария придавать количественные выражения качественным зависимостям.
На наш взгляд, наиболее точно объяснил сущность эконометрики один из основателей этой науки Р. Фриш, который и ввел этот название в 1926 г.: "Эконометрика - это не то же самое, что экономическая статистика. Она не идентична и тому, что мы называем экономической теорией, хотя значительная часть этой теории носит количественный характер. Эконометрика не является синонимом приложений математики к экономике. Как показывает опыт, каждая из трех отправных точек - статистика, экономическая теория и математика - необходимое, но не достаточное условие для понимания количественных соотношений в современной экономической жизни. Это единство всех трех составляющих. И это единство образует эконометрику".
Основные результаты экономической теории носят качественный характер, а эконометрика вносит в них эмпирическое содержание. Математическая экономика выражает экономические законы в виде математических соотношений, а эконометрика осуществляет опытную проверку этих законов. Экономическая статистика дает информационное обеспечение исследуемого процесса в виде исходных (обработанных) статистических данных и экономических показателей, а эконометрика, используя традиционные математико-статистические и специально разработанные методы, проводит анализ количественных взаимосвязей между этими показателями.
Итак, окончательно:
Эконометрика - это самостоятельная научная дисциплина, объединяющая совокупность теоретических результатов, приемов, методов и моделей, предназначенных для того, чтобы на базе экономической теории, экономической статистики и экономических измерений, математико-статистического инструментария придавать конкретное количественное выражение общим (качественным) закономерностям, обусловленным экономической теорией.
Для описания сущности эконометрической модели удобно разбить весь процесс моделирования на шесть основных этапов:
1-й этап (постановочный) - определение конечных целей моделирования, набора участвующих в модели факторов и показателей, их роли;
2-й этап (априорный) - предмодельный анализ экономической сущности изучаемого явления, формирование и формализация априорной информации, в частности, относящейся к природе и генезису исходных статистических данных и случайных остаточных составляющих;
3-й этап (параметризация) - собственно моделирование, т.е. выбор общего вида модели, в том числе состава и формы входящих в нее связей;
4-й этап (информационный) - сбор необходимой статистической информации, т.е. регистрация значений участвующих в модели факторов и показателей на различных временных или пространственных тактах функционирования изучаемого явления;
5-й этап (идентификация модели) - статистический анализ модели и в первую очередь статистическое оценивание неизвестных параметров модели;
6-й этап (верификация модели) - сопоставление реальных и модельных данных, проверка адекватности модели, оценка точности модельных данных.
Общим моментом для любой эконометрической модели является разбиение зависимой переменной на две части - объясненную и случайную. Сформулируем задачу моделирования самым общим, неформальным образом: на основании экспериментальных данных определить объясненную часть и, рассматривая случайную составляющую как случайную величину, получить (возможно, после некоторых предположений) оценки параметров ее распределения.
Таким образом, эконометрическая модель имеет следующий вид:
Наблюдаемое значение зависимой переменной (Y) = Объясненная часть, зависящая от значений объясняющих переменных (f (X)) + Случайная составляющая (е)
Y = f (X) + е (1.1)
Эконометрическое моделирование реальных социально-экономических процессов и систем обычно преследует два типа конечных прикладных целей (или одну из них):
1) прогноз экономических и социально-экономических показателей, характеризующих состояние и развитие анализируемой системы;
2) имитацию различных возможных сценариев социально-экономического развития анализируемой системы (многовариантные сценарные расчеты, ситуационное моделирование).
При постановке задач эконометрического моделирования следует определить их иерархический уровень и профиль. Анализируемые задачи могут относиться к макро - (страна, межстрановой анализ), мезо - (регионы внутри страны) и микро - (предприятия, фирмы, семьи) уровням и быть направленными на решение вопросов различного профиля инвестиционной, финансовой или социальной политики, ценообразования, распределительных отношений и т.п.
1. Парная регрессия и корреляция
Задачами регрессионного анализа являются установление формы зависимости между переменными, оценка функции регрессии, оценка неизвестных значений (прогноз значений) зависимой переменной.
1.1 Функциональная, статистическая и корреляционная зависимости
В естественных науках часто речь идет о функциональной зависимости (связи), когда каждому значению одной переменной соответствует вполне определенное значение другой (например, скорость свободного падения в вакууме в зависимости от времени и т.д.).
В экономике в большинстве случаев между переменными величинами существуют зависимости, когда каждому значению одной переменной соответствует не какое-то определенное, а множество возможных значений другой переменной. Иначе говоря, каждому значению одной переменной соответствует определенное (условное) распределение другой переменной. Такая зависимость получила название статистической (или стохастической, вероятностной)
Возникновение понятия статистической связи обуславливается тем, что зависимая переменная подвержена влиянию ряда неконтролируемых или неучтенных факторов, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками. Примером статистической связи является зависимость урожайности от количества внесенных удобрений, производительности труда на предприятии от его энерговооруженности и т.п.
В силу неоднозначности статистической зависимости между Y и X для исследователя, в частности, представляет интерес усредненная по X схема зависимости, т.е. закономерность в измерении условного математического ожидания МХ (Y) или M (Y/X = х) (математического ожидания случайной переменной Y, вычисленного в предположении, что переменная X приняла значение х) в зависимости от х.
Если зависимость между двумя переменными такова, что каждому значению одной переменной соответствует определенное условное математическое ожидание (среднее значение) другой, то такая статистическая зависимость называется корреляционной.
Иначе, корреляционной зависимостью между двумя переменными называется функциональная зависимость между значениями одной из них и условным математическим ожиданием другой.
Корреляционная зависимость может быть представлена в виде:
Mx (Y) =ц (x) (1.1)
или
My (X) =ш (y), где ц (x) ? const и ш (y) ? const.
В регрессионном анализе рассматриваются односторонняя зависимость случайной переменной Y от одной (или нескольких) неслучайной независимой переменной X. Такая зависимость может возникнуть, например, в случае, когда при каждом фиксированном значении X соответствующие значения Y подвержены случайному разбросу за счет действия ряда неконтролируемых факторов. Такая зависимость Y от X (иногда ее называют регрессионной) может быть также представлена в виде модельного уравнения регрессии Y по X (1.1). При этом зависимую переменную Y называют также функцией отклика, объясняемой, выходной, результирующей, эндогенной переменной, результативным признаком, а независимую переменную X - объясняющей, входной, предсказывающей, предикторной, экзогенной переменной, фактором, регрессором, факторным признаком.
Уравнение (1.1) называется модельным уравнением регрессии (или просто уравнением регрессии), а функция ц (х) - модельной функцией регрессии (или просто функцией регрессии), а ее график - модельной линией регрессии (или просто линией регрессии).
Для точного описания уравнения регрессии необходимо знать условный закон распределения зависимой переменной Y при условии, что переменная X примет значение х, т.е. Х=х. В статистической практике такую информацию получить, как правило, не удается, так как обычно исследователь располагает лишь выборкой пар значений (хi, уi) ограниченного объема n. В этом случае речь может идти об оценке (приближенном выражении, аппроксимации) по выборке функции регрессии. Такой оценкой является выборочная линия (кривая) регрессии:
, (1.2)
где - условная (групповая) средняя переменной Y при фиксированном значении переменной Х = x, b0, b1,…, bp - параметры кривой.
Уравнение (1.2) называется выборочным уравнением регрессии.
При правильно определенной аппроксимирующей функции , с увеличением объема выборки (n> ?) она будет сходиться по вероятности к функции регрессии ц (х).
Основные положения регрессионного анализа.
Как отмечено выше, рассматриваемая в регрессионном анализе зависимость Y от X может быть представлена в виде модельного уравнения регрессии (1.1).
В силу воздействия неучтенных случайных факторов и причин отдельные наблюдения переменной Y будут в большей или меньшей мере отклоняться от функции регрессии . В этом случае уравнение взаимосвязи двух переменных (парная регрессионная модель) может быть представлено в виде:
,
где - случайная переменная (случайный член), характеризующая отклонение от функции регрессии. Эту переменную будем называть возмущающей или просто возмущением (либо ошибкой). Таким образом, в регрессионной модели зависимая переменная Y есть некоторая функция с точностью до случайного возмущения .
Рассмотрим линейный регрессионный анализ, для которого функции линейна относительно оцениваемых параметров:
. (1.3)
Предположим, что для оценки параметров линейной функции регрессии (1.3) взята выборка, содержащая n пар значений переменных где i=1,2,., п. В этом случае линейная парная регрессионная модель имеет вид:
(1.4)
Отметим основные предпосылки регрессионного анализа.
1. В модели (1.4) возмущение i (или зависимая переменная уi) есть величина случайная, а объясняющая переменная - величина неслучайная.
2. Математическое ожидание возмущения равно нулю:
(1.5)
(или математическое ожидание зависимой переменной равно линейной функции регрессии: ).
3. Дисперсия возмущения - (или зависимой переменной ) постоянна для любого i:
(1.6)
(или ) - условие гомоскедастичности или равноизменчивости возмущения (зависимой переменной)).
4. Возмущения и (или переменные и ) не коррелированы:
(1.7)
5. Возмущение (или зависимая переменная ) есть нормально распределенная случайная величина.
В этом случае модель (1.4) называется классической нормальной линейной регрессионной моделью (Classical Normal Linear Regression model).
Для получения уравнения регрессии достаточно предпосылок 1-4. Требование выполнения предпосылки 5 (т.е. рассмотрение "нормальной регрессии") необходимо для оценки точности уравнения регрессии и его параметров.
Оценкой модели (1.4) по выборке является уравнение регрессии . Параметры этого уравнения и определяются на основе метода наименьших квадратов (МНК).
1.2 Линейная парная регрессия. Оценка параметров парной регрессионной модели. Теорема Гаусса-Маркова
Рассмотрим простейшую модель парной регрессии - линейную регрессию. Линейная регрессия находит широкое применение в эконометрике ввиду четкой экономической интерпретации ее параметров.
Линейная регрессия сводится к нахождению уравнения вида
(1.7)
Уравнение вида позволяет по заданным значениям фактора находить теоретические значения результативного признака, подставляя в него фактические значения фактора .
Построение линейной регрессии сводится к оценке ее параметров - . Классический подход к оцениванию параметров линейной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров при которых сумма квадратов отклонений фактических значений результативного признака от теоретических минимальна:
(1.8)
Метод наименьших квадратов достаточно прост при проведении вычислительной процедуры и дает, как мы увидим далее, хорошие по статистическим свойствам оценки. Этим и объясняется его широкое применение в статистическом анализе.
На основании необходимого условия экстремума функции двух переменных S=S (b0, b1) (1.9) приравниваем к нулю ее частные производные, т.е.
Откуда после преобразования получим систему нормальных уравнений для определения параметров линейной регрессии:
(1.10)
Теперь, разделив обе части уравнений (1.10) на n, получим систему нормальных уравнений в виде:
(1.11)
где соответствующие средние определяются по формулам:
(1.12) (1.14)
(1.13) (1.15)
Подставляя значение
(1.16)
из первого уравнения системы (1.11) в уравнение регрессии (1.7), получим
или (1.17)
Коэффициент b1 называется выборочным коэффициентом регрессии (или просто коэффициентом регрессии) Y по X.
Коэффициент регрессии Y по X показывает, на сколько единиц в среднем изменяется переменная Y при увеличении переменной X на одну единицу. Решая систему (1.11), найдем
(1.18)
где - выборочная дисперсия переменной X:
(1.19)
Cov (X,Y) - выборочный корреляционный момент или выборочная ковариация:
(1.20)
Отметим, что из полученного уравнения регрессии (1.17) следует, что линия регрессии проходит через точку т.е.
Воздействие неучтенных случайных факторов и ошибок наблюдений в модели (1.4) определяется с помощью дисперсии возмущений (ошибок) или остаточной дисперсии . Несмещенной оценкой этой дисперсии является выборочная остаточная дисперсия.
(1.21)
где - групповая средняя, найденная по уравнению регрессии; - выборочная оценка возмущения или остаток регрессии.
Напомним, что в математической статистике для получения несмещенной оценки дисперсии случайной величины соответствующую сумму квадратов отклонений от средней делят не на число наблюдений n, а на число степеней свободы (degress of freedom) n - m, равное разности между числом независимых наблюдений случайной величины n и числом связей, ограничивающих свободу их изменения, т.е. число m уравнений, связывающих эти наблюдения. Поэтому в знаменателе выражения (1.21) стоит число степеней свободы n - 2, так как две степени свободы теряются при определении двух параметров прямой из системы нормальных уравнений (1.10).
Возникает вопрос, являются ли оценки b0, b1, параметров, , "наилучшими"? Ответ на этот вопрос дает следующая теорема.
Теорема Гаусса-Маркова. Если регрессионная модель (1.4) удовлетворяет предпосылкам 1-4, то оценки b0 (1.16), b1 (1.18) имеют наименьшую дисперсию в классе всех линейных несмещенных оценок (Best Linear Unbiased Estimator, или BLUE).
Таким образом, оценки b0 и b1 в определенном смысле являются наиболее эффективными линейными оценками параметров .
Коэффициент корреляции.
Перейдем к оценке тесноты корреляционной зависимости. Рассмотрим наиболее важный для практики и теории случай линейной зависимости вида (1.17).
На первый взгляд, подходящим измерителем тесноты связи Y от X является коэффициент регрессии b1, ибо, как уже было отмечено, он показывает, на сколько единиц в среднем изменяется Y, когда X увеличивается на одну единицу. Однако b1 зависит от единиц измерения переменных.
Очевидно, что для "исправления" b1 как показателя тесноты связи нужная такая стандартная система единиц измерения, в которой данные по различным характеристикам оказались бы сравнимы между собой. Статистика знает такую систему единиц. Эта система использует в качестве единицы измерения переменной ее среднее квадратическое отклонение .
Представим уравнение (1.17) в эквивалентном виде:
, где
где - среднеквадратические ошибки, вычисляемые по формулам
,
В этой системе величина
(1.22)
показывает, на сколько величин изменится в среднем Y, когда X увеличится на одно .
Величина rxy является показателем тесноты связи и называется выборочным коэффициентом корреляции (или просто коэффициентом корреляции).
Если rxy > 0 (b1 > 0), то корреляционная связь между переменными называется прямой, если rxy < 0 (b1< 0), - обратной. При прямой (обратной) связи увеличение одной из переменных ведет к увеличению (уменьшению) условной (групповой) средней другой.
Учитывая (1.18), формулу для представим в виде:
(3.18)
(1.23)
Отметим другие модификации формулы r, полученные из формулы (1.23) с помощью формул (1.12) - (1.15), (1.18) - (1.20):
; (1.24)
(1.25)
Для практических расчетов наиболее удобна формула (1.25), так как по ней r находится непосредственно из данных наблюдений и на значении r не скажутся округления данных, связанные с расчетом средних и отклонений от них.
Выборочный коэффициент корреляции r (при достаточно большом объеме выборки n) так же, как и коэффициент корреляции двух случайных величин, обладает следующими свойствами.
1. Коэффициент корреляции принимает значения на отрезке [-1; 1], т.е. - 1 r1.
Чем ближе к единице, тем теснее связь.
2. При r = ±1 корреляционная связь представляет линейную функциональную зависимость. При этом все наблюдаемые значения располагаются на прямой линии.
3. При r = 0 линейная корреляционная связь отсутствует. При этом линия регрессии параллельна оси Ох
Но следует иметь в виду, что близость абсолютной величины линейного коэффициента корреляции к нулю еще не означает отсутствия связи между признаками. При другой (нелинейной) спецификации модели связь между признаками может оказаться достаточно тесной.
1.3 Оценка значимости уравнения регрессии. Коэффициент детерминации
Проверить значимость уравнения регрессии - значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных (одной или нескольких) для описания зависимой переменной.
Оценка значимости уравнения регрессии в целом производится на основе -критерия Фишера, которому предшествует дисперсионный анализ. В математической статистике дисперсионный анализ рассматривается как самостоятельный инструмент статистического анализа. В эконометрике он применяется как вспомогательное средство для изучения качества регрессионной модели.
Согласно основной идее дисперсионного анализа, общая сумма квадратов отклонений переменной от среднего значения раскладывается на две части - "объясненную" и "необъясненную"
(1.26) или
Q= QR+Qe, (1.27)
где Q - общая сумма квадратов отклонений зависимой переменной от средней, a QR и Qe - соответственно сумма квадратов, обусловленная регрессией, и остаточная сумма квадратов, характеризующая влияние неучтенных факторов. Убедимся в том, что пропущенное в (1.27) третье слагаемое равно 0. Учитывая (1.16), (1.17), имеем:
Теперь
Схема дисперсионного анализа имеет вид, представленный в табл.1.
Таблица 1
Компоненты дисперсии |
Сумма квадратов |
Число степеней свободы (df) |
Средние квадраты |
|
Регрессия |
m-l |
|||
Остаточная |
n-m |
|||
Общая |
n-1 |
Средние квадраты и (табл.1) представляют собой несмещенные оценки дисперсий зависимой переменной, обусловленных соответственно регрессий или объясняющей переменной Х и воздействием неучтенных случайных факторов и ошибок; m - число оцениваемых параметров уравнения регрессии; n - число наблюдений.
Замечание. При расчете общей суммы квадратов Q полезно иметь в виду, что
(1.28)
(Формула (1.28) следует из разложения
с учетом (1.13).)
При отсутствии линейной зависимости между зависимой и объясняющими (ей) переменными случайные величины =QR/ (m-l) и =Qe/ (n-m) имеют -распределение соответственно с m-1 и n-m степенями свободы, а их отношение - F-распределение с теми же степенями свободы. Поэтому уравнение регрессии значимо на уровне , если фактически наблюдаемое значение статистики
(1.29)
гдетабличное значение F - критерия Фишера-Снедекора, определенное на уровне значимости при k1=m-1 и k2=n-m степенях свободы.
Учитывая смысл величин и =, можно сказать, что значение F показывает, в какой мере регрессия лучше оценивает значение зависимой переменной по сравнению с ее средней.
В случае линейной парной регрессии m = 1, и уравнение регрессии значимо на уровне , если
(1.30)
Одной из наиболее эффективных оценок адекватности регрессионной модели, мерой качества уравнения регрессии, (или, как говорят, мерой качества подгонки регрессионной модели к наблюденным значениям yt), характеристикой прогностической силы анализируемой регрессионной модели является коэффициент детерминации, определяемый по формуле
(1.31)
Величина R2 показывает, какая часть (доля) вариации зависимой переменной обусловлена вариацией объясняющей переменной.
Так как 0 QR Q, то 0 R2 1.
Чем ближе R2 к единице, тем лучше регрессия аппроксимирует эмпирические данные, тем теснее наблюдения примыкают к линии регрессии. Если R2=1, то эмпирические точки (хi, у,) лежат на линии регрессии (см. рис.3.3) и между переменными Y и X существует линейная функциональная зависимость. Если R2= 0, то вариация зависимой переменной полностью обусловлена воздействием неучтенных в модели переменных, и линия регрессии параллельна оси абсцисс. Если известен коэффициент детерминации R2, то критерий значимости (1.30) уравнения регрессии или самого коэффициента детерминации может быть записан в виде
(1.32)
В случае парной линейной регрессионной модели коэффициент детерминации равен квадрату коэффициента корреляции, т.е. R2 =, а величину -критерия можно рассчитать по следующей формуле:
. (1.33)
Оценка значимости коэффициентов регрессии. Доверительные интервалы.
В парной линейной регрессии оценивается значимость не только уравнения в целом, но и отдельных его параметров.
Для оценки статистической значимости коэффициентов регрессии рассчитываются t-критерий Стьюдента и доверительные интервалы каждого показателя. Выдвигается гипотеза о незначимом отклонении показателей от нуля. Оценка значимости коэффициентов регрессии с помощью t-критерия Стьюдента проводится путем сопоставления их значений с величиной стандартной ошибки:
. (1.34)
Стандартные ошибки коэффициентов линейной регрессии определяются по формулам
(1.35)
.
Сравнивая фактическое tфакт и критическое (табличное) tтабл значения t-статистики, подтверждаем или нет значимость коэффициентов регрессии.
Для расчета доверительного интервала определяются предельные ошибки для каждого показателя:
,
тогда доверительные интервалы будут иметь следующий вид:
. (1.36)
Если в границы доверительного интервала попадает ноль, т.е. нижняя граница отрицательна, а верхняя положительна, то оцениваемый параметр принимается нулевым, так как он не может одновременно принимать и положительное и отрицательное значения.
Заметим, что в этом случае гипотеза принимается.
Значимость прогноза проверяется с помощью t-критерия Стьюдента, т.е. прогнозное значение yp определяется путем подстановки в уравнение регрессии соответствующего (прогнозного) значения xp. Вычисляется средняя стандартная ошибка прогноза:
(1.37)
где ;
и строится доверительный интервал прогноза:
, (1.38)
где .
1.4 Нелинейные модели регрессии
До сих пор мы рассматривали линейные регрессионные модели, в которых переменные имели первую степень (модели, линейные по переменным), а параметры выступали в виде коэффициентов при этих переменных (модели, линейные по параметрам). Однако соотношение между социально-экономическими явлениями и процессами далеко не всегда можно выразить линейными функциями, так как при этом могут возникать неоправданно большие ошибки.
Так, например, нелинейными оказываются производственные функции (зависимости между объемом произведенной продукции и основными факторами производства - трудом, капиталом и т.п.), функции спроса (зависимость между спросом на товары или услуги и их ценами или доходом) и другие.
Для оценки параметров нелинейных моделей используются два подхода.
Первый подход основан на линеаризации модели и заключается в том, что с помощью подходящих преобразований исходных переменных исследуемую зависимость представляют в виде линейного соотношения между преобразованными переменными.
Второй подход обычно применяется в случае, когда подобрать соответствующее линеаризующее преобразование не удается. В этом случае применяются методы нелинейной оптимизации на основе исходных переменных.
Для линеаризации модели в рамках первого подхода могут использоваться как модели, не линейные по переменным, так и не линейные по параметрам.
Если модель нелинейна по переменным, то введением новых переменных ее можно свести к линейной модели, для оценки параметров которой использовать обычный метод наименьших квадратов.
Так, например, если нам необходимо оценить параметры регрессионной модели
то вводя новые переменные , получим линейную модель
параметры которой находятся обычным методом наименьших квадратов.
Следует, однако, отметить и недостаток такой замены переменных, связанный с тем, что вектор оценок b получается не из условия минимизации суммы квадратов отклонений для исходных переменных, а из условия минимизации суммы квадратов отклонений для преобразованных переменных, что не одно и то же. В связи с этим необходимо определенное уточнение полученных оценок.
Более сложной проблемой является нелинейность модели по параметрам, так как непосредственное применение метода наименьших квадратов для их оценивания невозможно. К числу таких моделей можно отнести, например, мультипликативную (степенную) модель
(1.39)
экспоненциальную модель
(1.40)
и другие.
В ряде случаев путем подходящих преобразований эти модели удается привести к линейной форме. Так, модели (1.39) и (1.40) могут быть приведены к линейным логарифмированием обеих частей уравнений. Тогда, например, модель (1.39) примет вид:
i =1,., n. (1.41)
К модели (1.41) уже можно применять обычные методы исследования линейной регрессии, изложенные выше. Однако следует подчеркнуть, что критерии значимости и интервальные оценки параметров, применяемые для нормальной линейной регрессии, требуют, чтобы нормальный закон распределения в моделях (1.39), (1.40) имел логарифм вектора возмущений е (т.е. ), а вовсе не е. Другими словами, вектор возмущений е должен иметь логарифмически нормальное распределение.
В качестве примера использования линеаризирующего преобразования регрессии рассмотрим производственную функцию Кобба-Дугласа
, (1.42)
где Y - объем производства, K - затраты капитала, L - затраты труда.
Показатели б и в являются коэффициентами частной эластичности объема производства Y соответственно по затратам капитала K и труда L. Это означает, что при увеличении одних только затрат капитала (труда) на 1% объем производства увеличится на б% (в%).
Коэффициентом частной эластичности функции у=ѓ (x1,x2,…,xn) относительно переменной хi (i= 1,2,.,n) называется предел отношения относительного частного приращения функции к относительному приращению этой переменной при т.е. . Нетрудно убедиться в том, что для функции Кобба-Дугласа Ek (Y) = б, EL (Y) =в.
Учитывая влияние случайных возмущений, присущих каждому экономическому явлению, функцию Кобба-Дугласа (1.42) можно представить в виде
(1.43)
Полученную мультипликативную (степенную) модель легко свести к линейной путем логарифмирования обеих частей уравнения (1.43). Тогда для i-го наблюдения получим
. (1.44)
Если в модели (1.43) б+в=1 (т.е. модель такова, что при расширении масштаба производства - увеличении затрат капитала K и труда L в некоторое число раз - объем производства возрастает в то же число раз) функцию Кобба-Дугласа представляют в виде
или (1.45)
Таким образом, получаем зависимость производительности труда (Y/L) от его капиталовооруженности (K/L). Для оценки параметров модели (1.45) путем логарифмирования приводим ее к виду (для i-го наблюдения)
, i = 1,., n. (1.46)
Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции pxy,
Величина данного показателя находится в пределах: . Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.
Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака , объясняемую регрессией, в общей дисперсии результативного признака.
Индекс детерминации можно сравнивать с коэффициентом детерминации для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина меньше . А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию.
Индекс детерминации используется для проверки существенности в целом уравнения регрессии по -критерию Фишера:
,
где - индекс детерминации, - число наблюдений, - число параметров при переменной . Фактическое значение -критерия сравнивается с табличным при уровне значимости и числе степеней свободы (для остаточной суммы квадратов) и (для факторной суммы квадратов).
2. Множественный регрессионный анализ
2.1 Классическая нормальная линейная модель множественной регрессии
Экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной Y от нескольких объясняющих переменных Х1, X2,., Хn. Эта задача решается с помощью множественного регрессионного анализа.
Обозначим i-е наблюдение зависимой переменной yi, a объясняющих переменных - хi1, хi2,…, хip. Тогда модель множественной линейной регрессии можно представить в виде:
(2.1)
где i = 1,2,.,n; удовлетворяет приведенным выше предпосылкам (1.5) - (1.7).
Модель (2.1), в которой зависимая переменная уi, возмущения и объясняющие переменные хi1, хi2,…, хip удовлетворяют приведенным выше (§ 1.2) предпосылкам 1-5 регрессионного анализа и, кроме того, предпосылке 6 о невырожденности матрицы (независимости столбцов) значений объясняющих переменных, называется классической нормальной линейной моделью множественной регрессии (Classic Normal Linear Multiple Regression model).
Включение в регрессионную модель новых объясняющих переменных усложняет получаемые формулы и вычисления. Это приводит к целесообразности использования матричных обозначений. Матричное описание регрессии облегчает как теоретические концепции анализа, так и необходимые расчетные процедуры.
Введем обозначения: Y= (y1 y2 … yn) ' - матрица-столбец, или вектор, значений зависимой переменной размера n:
матрица значений объясняющих переменных, или матрица плана размера п х (р+1) (обращаем внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в модели (2.1) свободный член умножается на фиктивную переменную хi0 принимающую значение 1 для всех i: хi0= 1 (i= 1,2,.,n);
- матрица-столбец, или вектор, параметров размера (p+1); - матрица-столбец, или вектор, возмущений (случайных ошибок, остатков) размера п.
Тогда в матричной форме модель (2.1) примет вид:
(2.2)
Оценкой этой модели по выборке является уравнение
Y=Xb+e, (2.2')
где b = (bQ b1. bp) ', e = (е, е2. еn) '.
2.2 Оценка параметров классической регрессионной модели методом наименьших квадратов
Для оценки вектора неизвестных параметров применим метод наименьших квадратов.
Так как произведение транспонированной матрицы e' на саму матрицу е
то условие минимизации остаточной суммы квадратов запишется в виде:
(2.3)
Учитывая, что при транспонировании произведения матриц получается произведение транспонированных матриц, взятых в обратном порядке, т.е. (Xb) '=b'X; после раскрытия скобок получим:
S = Y'Y - b'X'Y - Y'Xb + b'X'Xb.
Произведение Y'Xb есть матрица размера (1 x n) [n х (p+1)] х [ (p+l) x l] = = (l x l), т.е. величина скалярная, следовательно, оно не меняется при транспонировании, т.е. Y'Xb = (Y'Xb) ' = b'X'Y.
Поэтому условие минимизации (2.3) примет вид:
S = Y'Y - 2b'X'Y + b'X'Xb min. (2.4)
На основании необходимого условия экстремума функции нескольких переменных S (b0, b1,., bp), представляющей (2.3), необходимо приравнять нулю частные производные по этим переменным или в матричной форме - вектор частных производных
Для вектора частных производных доказаны следующие формулы:
где b и с - вектор-столбцы; А - симметрическая матрица, в которой элементы, расположенные симметрично относительно главной диагонали, равны.
Поэтому, полагая с = X'Y, а матрицу А = Х'Х (она является симметрической), найдем
откуда получаем систему нормальных уравнений в матричной форме для определения вектора b:
...Подобные документы
Задачи эконометрики, ее математический аппарат. Взаимосвязь между экономическими переменными, примеры оценки линейности и аддитивности. Основные понятия и проблемы эконометрического моделирования. Определение коэффициентов линейной парной регрессии.
контрольная работа [79,3 K], добавлен 28.07.2013Понятие о взаимосвязях в эконометрике. Сопоставление параллельных рядов. Корреляция альтернативных признаков. Оценка надежности параметров парной линейной регрессии и корреляции. Коэффициенты эластичности в парных моделях. Парная нелинейная корреляция.
курсовая работа [1,9 M], добавлен 29.06.2015Суть эконометрики как научной дисциплины, ее предмет и метод. Парная и множественная регрессия в экономических исследованиях. Регрессионные модели с переменной структурой. Обобщенный метод наименьших квадратов. Анализ систем экономических уравнений.
реферат [279,2 K], добавлен 11.09.2013Взаимосвязи экономических переменных. Понятие эконометрической модели. Коэффициент корреляции и его свойства. Линейная парная регрессия. Метод наименьших квадратов. Основные предпосылки и принципы регрессионного анализа. Статистика Дарбина-Уотсона.
шпаргалка [142,4 K], добавлен 22.12.2011Теоретические основы эконометрического анализа рождаемости в России. Эконометрика и эконометрическое моделирование. Парная регрессия и корреляция. Многомерный эконометрический анализ уровня рождаемости в России: с помощью множественной и парной регрессии.
курсовая работа [1,5 M], добавлен 25.03.2014Измерения в эконометрике. Парная регрессия и корреляция эконометрических исследований. Оценка существования параметров линейной регрессии и корреляции. Стандартная ошибка прогноза. Коэффициенты эластичности для различных математических функций.
курс лекций [474,5 K], добавлен 18.04.2011Множественная корреляция и линейная регрессия. Оценка прогнозных качеств модели. Простейшие методы линеаризации. Вероятностный эксперимент, событие или вероятность. Фиктивные переменные в регрессионных моделях. Системы эконометрических уравнений.
курс лекций [2,0 M], добавлен 13.02.2014Расчет корреляции между экономическими показателями; построение линейной множественной регрессии в программе Excel. Оценка адекватности построенной модели; ее проверка на отсутствие автокорреляции и на гетероскедастичность с помощью теста Бреуша-Пагана.
курсовая работа [61,2 K], добавлен 15.03.2013Эконометрика как наука, позволяющая анализировать связи между различными экономическими показателями на основании реальных статистических данных. Структурная форма эконометрической модели. Метод наименьших квадратов: общее понятие, главные функции.
курсовая работа [135,1 K], добавлен 05.12.2014Определение временных и пространственных данных в эконометрике. Коэффициент детерминации и средняя ошибка аппроксимации как показатели качества однофакторной модели в эконометрике. Особенности построения множественной регрессивной модели. Временные ряды.
контрольная работа [804,3 K], добавлен 15.11.2012Эконометрика как одна из базовых дисциплин экономического образования во всем мире. Прогноз социально-экономических показателей, характеризующих состояние и развитие анализируемой системы. Понятие и построение модели парной регрессии и корреляции.
контрольная работа [633,2 K], добавлен 10.12.2013Методика расчета параметров множественной регрессии и корреляции. Тест на выбор "длинной" или "короткой" регрессии. Тест Чоу на однородность зависимости объясняемой переменной от объясняющих. Тест Бреуша – Пагана. Тест Дарбина на наличие автокорреляции.
лекция [40,3 K], добавлен 13.02.2011Построение линейного уравнения парной регрессии, расчет линейного коэффициента парной корреляции и средней ошибки аппроксимации. Определение коэффициентов корреляции и эластичности, индекса корреляции, суть применения критерия Фишера в эконометрике.
контрольная работа [141,3 K], добавлен 05.05.2010Методика расчета линейной регрессии и корреляции, оценка их значимости. Порядок построения нелинейных регрессионных моделей в MS Exсel. Оценка надежности результатов множественной регрессии и корреляции с помощью F-критерия Фишера и t-критерия Стьюдента.
контрольная работа [3,6 M], добавлен 29.05.2010Понятие взаимосвязи между случайными величинами. Ковариация и коэффициент корреляции. Модель парной линейной регрессии. Метод наименьших квадратов, теорема Гаусса-Маркова. Сравнение регрессионных моделей. Коррекция гетероскедастичности, логарифмирование.
курс лекций [485,1 K], добавлен 02.06.2011Выборка и генеральная совокупность. Модель множественной регрессии. Нестационарные временные ряды. Параметры линейного уравнения парной регрессии. Нахождение медианы, ранжирование временного ряда. Гипотеза о неизменности среднего значения временного ряда.
задача [62,0 K], добавлен 08.08.2010Анализ экспериментальных данных, полученных в виде набора значений двух зависимых величин. Вывод о связи между величинами на основании вычисления коэффициента корреляции, построение уравнения линейной регрессии. Прогнозирование зависимой величины.
реферат [555,9 K], добавлен 30.01.2018Построение регрессионных моделей. Смысл регрессионного анализа. Выборочная дисперсия. Характеристики генеральной совокупности. Проверка статистической значимости уравнения регрессии. Оценка коэффициентов уравнения регрессии. Дисперсии случайных остатков.
реферат [57,4 K], добавлен 25.01.2009Поиск несмещенных оценок математического ожидания и для дисперсии X и Y. Расчет выборочного коэффициента корреляции, анализ степени тесноты связи между X и Y. Проверка гипотезы о силе линейной связи между X и Y, о значении параметров линейной регрессии.
контрольная работа [19,2 K], добавлен 25.12.2010Основные принципы и методы построения линейных, нелинейных эконометрических моделей спроса, предложения. Типы взаимосвязей между переменными. Этапы интерпретации уравнения регрессии. Коэффициент (индекс) корреляции. Рассмотрение альтернативных моделей.
контрольная работа [83,1 K], добавлен 14.02.2014