Основная задача эконометрики
Характеристика целей эконометрического моделирования. Линейная модель парной регрессии и корреляции. Исследование особенностей системы эконометрических уравнений. Основные аспекты отбора факторов при построении уравнения множественной регрессии.
Рубрика | Экономика и экономическая теория |
Вид | курс лекций |
Язык | русский |
Дата добавления | 08.02.2015 |
Размер файла | 297,0 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru
Введение
Основная задача эконометрики - наполнить эмпирическим содержанием априорные экономические рассуждения
Л. Клейн
Эконометрика есть единство трёх составляющих - статистики, экономической теории и математики
Р. Фриш
Эконометрика - наука, которая дает количественное выражение взаимосвязей экономических процессов и явлений
Этапы эконометрического исследования
Постановка проблемы
Получение данных, анализ их качества
Спецификация модели
Оценка параметров
Верификация модели и интерпретация результатов
Цели эконометрического моделирования
1) прогноз экономических и социально-экономических показателей, характеризующих состояние и развитие анализируемой системы;
2) имитация различных возможных сценариев социально-экономического развития анализируемой системы (многовариантные сценарные расчеты, ситуационное моделирование).
регрессия эконометрический корреляция
1. Парная регрессия и корреляция
Парная регрессия представляет собой регрессию между двумя переменными - и , т. е. модель вида: , где - зависимая переменная (результативный признак); - независимая, или объясняющая, переменная (признак-фактор). Знак «^» означает, что между переменными и нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина складывается из двух слагаемых: , где - фактическое значение результативного признака; - теоретическое значение результативного признака, найденное исходя из уравнения регрессии; - случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии.
Случайная величина называется также возмущением. Она включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения.
Ее присутствие в модели порождено тремя источниками: спецификацией модели, выборочным характером исходных данных, особенностями измерения переменных.
В парной регрессии выбор вида математической функции может быть осуществлен тремя методами:
графическим;
аналитическим, т.е. исходя из теории изучаемой взаимосвязи;
экспериментальным.
При изучении зависимости между двумя признаками графический метод подбора вида уравнения регрессии достаточно нагляден.
Он основан на поле корреляции.
Основные типы кривых, используемые при количественной оценке связей, представлены на рис. 1.1:
Рис. 1.1 Основные типы кривых, используемые при количественной оценке связей между двумя переменными
Значительный интерес представляет аналитический метод выбора типа уравнения регрессии. Он основан на изучении материальной природы связи исследуемых признаков.
При обработке информации на компьютере выбор вида уравнения регрессии обычно осуществляется экспериментальным методом, т. е. путем сравнения величины остаточной дисперсии , рассчитанной при разных моделях.
Если уравнение регрессии проходит через все точки корреляционного поля, что возможно только при функциональной связи, когда все точки лежат на линии регрессии , то фактические значения результативного признака совпадают с теоретическими , т.е. они полностью обусловлены влиянием фактора . В этом случае остаточная дисперсия .
В практических исследованиях, как правило, имеет место некоторое рассеяние точек относительно линии регрессии. Оно обусловлено влиянием прочих, не учитываемых в уравнении регрессии, факторов.
Иными словами, имеют место отклонения фактических данных от теоретических . Величина этих отклонений и лежит в основе расчета остаточной дисперсии:
.
Чем меньше величина остаточной дисперсии, тем меньше влияние не учитываемых в уравнении регрессии факторов и тем лучше уравнение регрессии подходит к исходным данным.
Считается, что число наблюдений должно в 7-8 раз превышать число рассчитываемых параметров при переменной . Это означает, что искать линейную регрессию, имея менее 7 наблюдений, вообще не имеет смысла. Если вид функции усложняется, то требуется увеличение объема наблюдений, ибо каждый параметр при должен рассчитываться хотя бы по 7 наблюдениям. Значит, если мы выбираем параболу второй степени , то требуется объем информации уже не менее 14 наблюдений.
1.1 Линейная модель парной регрессии и корреляции
Рассмотрим простейшую модель парной регрессии - линейную регрессию. Линейная регрессия находит широкое применение в эконометрике ввиду четкой экономической интерпретации ее параметров.
Линейная регрессия сводится к нахождению уравнения вида
или . (1.1)
Уравнение вида позволяет по заданным значениям фактора находить теоретические значения результативного признака, подставляя в него фактические значения фактора .
Построение линейной регрессии сводится к оценке ее параметров - и . Классический подход к оцениванию параметров линейной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров и , при которых сумма квадратов отклонений фактических значений результативного признака от теоретических минимальна:
. (1.2)
Т.е. из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минимальной (рис. 1.2):
Рис. 1.2 Линия регрессии с минимальной дисперсией остатков
Как известно из курса математического анализа, чтобы найти минимум функции (1.2), надо вычислить частные производные по каждому из параметров и и приравнять их к нулю. Обозначим через , тогда:
.
(1.3)
После несложных преобразований, получим следующую систему линейных уравнений для оценки параметров и :
(1.4)
Решая систему уравнений (1.4), найдем искомые оценки параметров и . Можно воспользоваться следующими готовыми формулами, которые следуют непосредственно из решения системы (1.4):
,
, (1.5)
где - ковариация признаков и , - дисперсия признака и
,
Ковариация - числовая характеристика совместного распределения двух случайных величин, равная математическому ожиданию произведения отклонений этих случайных величин от их математических ожиданий. Дисперсия - характеристика случайной величины, определяемая как математическое ожидание квадрата отклонения случайной величины от ее математического ожидания. Математическое ожидание - сумма произведений значений случайной величины на соответствующие вероятности.
Параметр называется коэффициентом регрессии. Его величина показывает среднее изменение результата с изменением фактора на одну единицу.
Формально - значение при . Если признак-фактор не может иметь нулевого значения, то вышеуказанная трактовка свободного члена не имеет смысла, т.е. параметр может не иметь экономического содержания.
Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции , который можно рассчитать по следующим формулам:
. (1.6)
Линейный коэффициент корреляции находится в пределах: . Чем ближе абсолютное значение к единице, тем сильнее линейная связь между факторами (при имеем строгую функциональную зависимость).
Теснота линейной связи между переменными может быть оценена на основании шкалы Чеддока:
Теснота связи |
Значение коэффициента корреляции при наличии: |
||
Прямой связи |
Обратной связи |
||
Слабая |
0,1-0,3 |
(-0,3)-(-0,1) |
|
Умеренная |
0,3-0,5 |
(-0,5)-(-0,3) |
|
Заметная |
0,5-0,7 |
(-0,7)-(-0,5) |
|
Высокая |
0,7-0,9 |
(-0,9)-(-0,7) |
|
Весьма высокая |
0,9-1 |
(-1)-(-0,9) |
Положительное значение коэффициента корреляции говорит о положительной связи между х и у, когда с ростом одной из переменных другая тоже растет. Отрицательное значение коэффициента корреляции означает, с ростом одной из переменных другая убывает, с убыванием одной из переменной другая растет.
Для оценки качества подбора линейной функции рассчитывается квадрат линейного коэффициента корреляции , называемый коэффициентом детерминации. Коэффициент детерминации характеризует долю дисперсии результативного признака , объясняемую регрессией, в общей дисперсии результативного признака:
, (1.7)
, .
Соответственно величина характеризует долю дисперсии , вызванную влиянием остальных, не учтенных в модели, факторов.
После того как найдено уравнение линейной регрессии, проводится оценка значимости как уравнения в целом, так и отдельных его параметров.
Проверить значимость уравнения регрессии - значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных (одной или нескольких) для описания зависимой переменной.
Чтобы иметь общее суждение о качестве модели из относительных отклонений по каждому наблюдению, определяют среднюю ошибку аппроксимации:
. (1.8)
Средняя ошибка аппроксимации не должна превышать 8-10%.
Оценка значимости уравнения регрессии в целом производится на основе -критерия Фишера, которому предшествует дисперсионный анализ.
Согласно основной идее дисперсионного анализа, общая сумма квадратов отклонений переменной от среднего значения раскладывается на две части - «объясненную» и «необъясненную»:
,
где - общая сумма квадратов отклонений; - сумма квадратов отклонений, объясненная регрессией (или факторная сумма квадратов отклонений); - остаточная сумма квадратов отклонений, характеризующая влияние неучтенных в модели факторов.
Схема дисперсионного анализа имеет вид, представленный в таблице 1.1 ( - число наблюдений, - число параметров при переменной ).
Таблица 1.1
Компоненты дисперсии |
Сумма квадратов |
Число степеней свободы |
Дисперсия на одну степень свободы |
|
Общая |
||||
Факторная |
||||
Остаточная |
Определение дисперсии на одну степень свободы приводит дисперсии к сравнимому виду.
Сопоставляя факторную и остаточную дисперсии в расчете на одну степень свободы, получим величину -критерия Фишера:
. (1.9)
Фактическое значение -критерия Фишера (1.9) сравнивается с табличным значением при уровне значимости и степенях свободы и . При этом, если фактическое значение -критерия больше табличного, то признается статистическая значимость уравнения в целом.
Для парной линейной регрессии , поэтому
. (1.10)
Величина -критерия связана с коэффициентом детерминации , и ее можно рассчитать по следующей формуле:
. (1.11)
В парной линейной регрессии оценивается значимость не только уравнения в целом, но и отдельных его параметров. С этой целью по каждому из параметров определяется его стандартная ошибка: и .
Стандартная ошибка коэффициента регрессии определяется по формуле:
, (1.12)
где - остаточная дисперсия на одну степень свободы.
Величина стандартной ошибки совместно с -распределением Стьюдента при степенях свободы применяется для проверки существенности коэффициента регрессии и для расчета его доверительного интервала.
Для оценки существенности коэффициента регрессии его величина сравнивается с его стандартной ошибкой, т.е. определяется фактическое значение -критерия Стьюдента: которое затем сравнивается с табличным значением при определенном уровне значимости и числе степеней свободы . Доверительный интервал для коэффициента регрессии определяется как . Границы доверительного интервала для коэффициента регрессии не должны содержать противоречивых результатов, например, . Такого рода запись указывает, что истинное значение коэффициента регрессии одновременно содержит положительные и отрицательные величины и даже ноль, чего не может быть, и коэффициент признается незначимым.
Стандартная ошибка параметра определяется по формуле:
. (1.13)
Процедура оценивания существенности данного параметра не отличается от рассмотренной выше для коэффициента регрессии. Вычисляется -критерий: , его величина сравнивается с табличным значением при степенях свободы.
Значимость линейного коэффициента корреляции проверяется на основе величины ошибки коэффициента корреляции :
. (1.14)
Фактическое значение -критерия Стьюдента определяется как .
Существует связь между -критерием Стьюдента и -критерием Фишера:
. (1.15)
В прогнозных расчетах по уравнению регрессии определяется предсказываемое значение как точечный прогноз при , т.е. путем подстановки в уравнение регрессии соответствующего значения . Однако точечный прогноз явно не реален. Поэтому он дополняется расчетом стандартной ошибки , т.е. , и соответственно интервальной оценкой прогнозного значения :
,
где , а - средняя ошибка прогнозируемого индивидуального значения:
. (1.16)
1.2 Нелинейные модели парной регрессии и корреляции
Различают два класса нелинейных регрессий:
Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например полиномы различных степеней - , ;
равносторонняя гипербола - ;
полулогарифмическая функция - .
Регрессии, нелинейные по оцениваемым параметрам, например
степенная - ;
показательная - ;
экспоненциальная - .
Регрессии нелинейные по включенным переменным приводятся к линейному виду простой заменой переменных (линеаризация), а дальнейшая оценка параметров производится с помощью метода наименьших квадратов. Рассмотрим некоторые функции.
Парабола второй степени приводится к линейному виду с помощью замены: . В результате приходим к двухфакторному уравнению , оценка параметров которого при помощи МНК, приводит к системе следующих нормальных уравнений:
А после обратной замены переменных получим
(1.17)
Парабола второй степени обычно применяется в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую.
Равносторонняя гипербола приводится к линейному уравнению простой заменой: . Система линейных уравнений при применении МНК будет выглядеть следующим образом:
(1.18)
Аналогичным образом приводятся к линейному виду зависимости , и другие.
Несколько иначе обстоит дело с регрессиями нелинейными по оцениваемым параметрам, которые делятся на два типа: нелинейные модели внутренне линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием) и нелинейные модели внутренне нелинейные (к линейному виду не приводятся).
К внутренне линейным моделям относятся, например, степенная функция - , показательная - , экспоненциальная - , логистическая - , обратная - .
К внутренне нелинейным моделям можно, например, отнести следующие модели: , . Среди нелинейных моделей наиболее часто используется степенная функция , которая приводится к линейному виду логарифмированием:
,
где . Т.е. МНК мы применяем для преобразованных данных:
а затем потенцированием находим искомое уравнение.
Широкое использование степенной функции связано с тем, что параметр в ней имеет четкое экономическое истолкование - он является коэффициентом эластичности.
Коэффициент эластичности показывает, на сколько процентов измениться в среднем результат, если фактор изменится на 1%. Формула для расчета коэффициента эластичности имеет вид:
. (1.19)
Так как для остальных функций коэффициент эластичности не является постоянной величиной, а зависит от соответствующего значения фактора , то обычно рассчитывается средний коэффициент эластичности:
. (1.20)
Приведем формулы для расчета средних коэффициентов эластичности для наиболее часто используемых типов уравнений регрессии:
Таблица 1.5
Вид функции, |
Первая производная, |
Средний коэффициент эластичности, |
Линеаризация |
|
1 |
2 |
3 |
4 |
|
- |
||||
Х1=х, Х2=х2 |
||||
Х=1/х,Y=y |
||||
Х=lnх,Y=lny |
||||
Х=х,Y=lny |
||||
Х=lnх,Y=y |
||||
Х=х,Y=lny |
||||
Х=х,Y=1/y |
Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции:
. (1.21)
Величина данного показателя находится в пределах: . Чем ближе значение индекса корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.
Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака , объясняемую регрессией, в общей дисперсии результативного признака:
, (1.22)
т.е. имеет тот же смысл, что и в линейной регрессии;
.
Индекс детерминации можно сравнивать с коэффициентом детерминации для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина меньше . А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию.
Индекс детерминации используется для проверки существенности в целом уравнения регрессии по -критерию Фишера:
, (1.23)
где - индекс детерминации, - число наблюдений, - число параметров при переменной . Фактическое значение -критерия (1.23) сравнивается с табличным при уровне значимости и числе степеней свободы (для остаточной суммы квадратов) и (для факторной суммы квадратов).
О качестве нелинейного уравнения регрессии можно также судить и по средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется по формуле (1.8).
2. Множественная регрессия и корреляция
Парная регрессия может дать хороший результат при моделировании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Если же этим влиянием пренебречь нельзя, то в этом случае следует попытаться выявить влияние других факторов, введя их в модель, т.е. построить уравнение множественной регрессии
,
где - зависимая переменная (результативный признак), - независимые, или объясняющие, переменные (признаки-факторы).
2.1 Спецификация модели. Отбор факторов при построении уравнения множественной регрессии
Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели. Он включает в себя два круга вопросов: отбор факторов и выбор вида уравнения регрессии.
Включение в уравнение множественной регрессии того или иного набора факторов связано прежде всего с представлением исследователя о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям.
Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность.
Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи.
Отбор факторов производится на основе качественного теоретико-экономического анализа. Однако теоретический анализ часто не позволяет однозначно ответить на вопрос о количественной взаимосвязи рассматриваемых признаков и целесообразности включения фактора в модель. Поэтому отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй - на основе матрицы показателей корреляции определяют статистики для параметров регрессии.
Коэффициенты интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если . Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В этом требовании проявляется специфика множественной регрессии как метода исследования комплексного воздействия факторов в условиях их независимости друг от друга.
По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга.
Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.
Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.
Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь устранения мультиколлинеарности состоит в исключении из модели одного или нескольких факторов. Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними.
При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6-7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение нарушено, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что параметры уравнения регрессии оказываются статистически незначимыми, а -критерий меньше табличного значения.
2.2 Метод наименьших квадратов (МНК)
Свойства оценок на основе МНК
Возможны разные виды уравнений множественной регрессии: линейные и нелинейные. Ввиду четкой интерпретации параметров наиболее широко используется линейная функция. В линейной множественной регрессии параметры при называются коэффициентами «чистой» регрессии. Они характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизмененном значении других факторов, закрепленных на среднем уровне.
Рассмотрим линейную модель множественной регрессии
. (2.1)
Классический подход к оцениванию параметров линейной модели множественной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от расчетных минимальна:
. (2.2)
Как известно из курса математического анализа, для того чтобы найти экстремум функции нескольких переменных, надо вычислить частные производные первого порядка по каждому из параметров и приравнять их к нулю.
Имеем функцию аргумента:
.
Находим частные производные первого порядка:
После элементарных преобразований приходим к системе линейных нормальных уравнений для нахождения параметров линейного уравнения множественной регрессии (2.1):
(2.3)
Для двухфакторной модели данная система будет иметь вид:
Метод наименьших квадратов применим и к уравнению множественной регрессии в стандартизированном масштабе:
(2.4)
где - стандартизированные переменные: , , для которых среднее значение равно нулю: , а среднее квадратическое отклонение равно единице: ; - стандартизированные коэффициенты регрессии.
Стандартизованные коэффициенты регрессии показывают, на сколько единиц изменится в среднем результат, если соответствующий фактор изменится на одну единицу при неизменном среднем уровне других факторов. В силу того, что все переменные заданы как центрированные и нормированные, стандартизованные коэффициенты регрессии можно сравнивать между собой. Сравнивая их друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом основное достоинство стандартизованных коэффициентов регрессии в отличие от коэффициентов «чистой» регрессии, которые несравнимы между собой.
Применяя МНК к уравнению множественной регрессии в стандартизированном масштабе, получим систему нормальных уравнений вида
(2.5)
где и - коэффициенты парной и межфакторной корреляции.
Коэффициенты «чистой» регрессии связаны со стандартизованными коэффициентами регрессии следующим образом:
. (2.6)
Поэтому можно переходить от уравнения регрессии в стандартизованном масштабе (2.4) к уравнению регрессии в натуральном масштабе переменных (2.1), при этом параметр определяется как
.
Рассмотренный смысл стандартизованных коэффициентов регрессии позволяет их использовать при отсеве факторов - из модели исключаются факторы с наименьшим значением .
На основе линейного уравнения множественной регрессии
(2.7)
могут быть найдены частные уравнения регрессии:
(2.8)
т.е. уравнения регрессии, которые связывают результативный признак с соответствующим фактором при закреплении остальных факторов на среднем уровне. В развернутом виде систему (2.8) можно переписать в виде:
При подстановке в эти уравнения средних значений соответствующих факторов они принимают вид парных уравнений линейной регрессии, т.е. имеем
(2.9)
В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние фактора на результат, ибо другие факторы закреплены на неизменном уровне.
Эффекты влияния других факторов присоединены в них к свободному члену уравнения множественной регрессии.
Это позволяет на основе частных уравнений регрессии определять частные коэффициенты эластичности:
, (2.10)
где - коэффициент регрессии для фактора в уравнении множественной регрессии,
- частное уравнение регрессии.
Наряду с частными коэффициентами эластичности могут быть найдены средние по совокупности показатели эластичности:
, (2.11)
которые показывают на сколько процентов в среднем изменится результат, при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат.
2.3 Проверка существенности факторов и показатели качества регрессии
Практическая значимость уравнения множественной регрессии оценивается с помощью показателя множественной корреляции и его квадрата - показателя детерминации.
Показатель множественной корреляции характеризует тесноту связи рассматриваемого набора факторов с исследуемым признаком или, иначе, оценивает тесноту совместного влияния факторов на результат.
Независимо от формы связи показатель множественной корреляции может быть найден как индекс множественной корреляции:
. (2.12)
Границы изменения индекса множественной корреляции от 0 до 1. Чем ближе его значение к 1, тем теснее связь результативного признака со всем набором исследуемых факторов. Величина индекса множественной корреляции должна быть больше или равна максимальному парному индексу корреляции:
.
Расчет индекса множественной корреляции предполагает определение уравнения множественной регрессии и на его основе остаточной дисперсии:
. (2.13)
Можно пользоваться следующей формулой индекса множественной детерминации:
. (2.14)
При линейной зависимости признаков формула индекса множественной корреляции может быть представлена следующим выражением:
, (2.15)
где - стандартизованные коэффициенты регрессии; - парные коэффициенты корреляции результата с каждым фактором.
Формула индекса множественной корреляции для линейной регрессии получила название линейного коэффициента множественной корреляции, или, что то же самое, совокупного коэффициента корреляции.
Возможно также при линейной зависимости определение совокупного коэффициента корреляции через матрицу парных коэффициентов корреляции:
, (2.16)
- определитель матрицы парных коэффициентов корреляции;
- определитель матрицы межфакторной корреляции.
В рассмотренных показателях множественной корреляции (индекс и коэффициент) используется остаточная дисперсия, которая имеет систематическую ошибку в сторону преуменьшения, тем более значительную, чем больше параметров определяется в уравнении регрессии при заданном объеме наблюдений . Если число параметров при равно и приближается к объему наблюдений, то остаточная дисперсия будет близка к нулю и коэффициент (индекс) корреляции приблизится к единице даже при слабой связи факторов с результатом. Для того чтобы не допустить возможного преувеличения тесноты связи, используется скорректированный индекс (коэффициент) множественной корреляции.
Скорректированный индекс множественной корреляции содержит поправку на число степеней свободы, а именно остаточная сумма квадратов делится на число степеней свободы остаточной вариации , а общая сумма квадратов отклонений на число степеней свободы в целом по совокупности .
Формула скорректированного индекса множественной детерминации имеет вид:
, (2.17)
где - число параметров при переменных ; - число наблюдений.
Поскольку , то величину скорректированного индекса детерминации можно представить в виде:
. (2.17а)
Чем больше величина , тем сильнее различия и .
Как было показано выше, ранжирование факторов, участвующих во множественной линейной регрессии, может быть проведено через стандартизованные коэффициенты регрессии (-коэффициенты). Эта же цель может быть достигнута с помощью частных коэффициентов корреляции (для линейных связей). Кроме того, частные показатели корреляции широко используются при решении проблемы отбора факторов: целесообразность включения того или иного фактора в модель можно доказать величиной показателя частной корреляции.
Частные коэффициенты корреляции характеризуют тесноту связи между результатом и соответствующим фактором при элиминировании (устранении влияния) других факторов, включенных в уравнение регрессии.
Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет дополнительного включения в анализ нового фактора к остаточной дисперсии, имевшей место до введения его в модель.
В общем виде при наличии факторов для уравнения
коэффициент частной корреляции, измеряющий влияние на фактора , при неизменном уровне других факторов, можно определить по формуле:
, (2.18)
где - множественный коэффициент детерминации всех факторов с результатом; - тот же показатель детерминации, но без введения в модель фактора .
При двух факторах формула (2.18) примет вид:
; . (2.18а)
Порядок частного коэффициента корреляции определяется количеством факторов, влияние которых исключается. Например, - коэффициент частной корреляции первого порядка. Соответственно коэффициенты парной корреляции называются коэффициентами нулевого порядка. Коэффициенты частной корреляции более высоких порядков можно определить через коэффициенты частной корреляции более низких порядков по рекуррентной формуле:
. (2.19)
При двух факторах данная формула примет вид:
; . (2.19а)
Для уравнения регрессии с тремя факторами частные коэффициенты корреляции второго порядка определяются на основе частных коэффициентов корреляции первого порядка. Так, по уравнению возможно исчисление трех частных коэффициентов корреляции второго порядка:
, , ,
каждый из которых определяется по рекуррентной формуле. Например, при имеем формулу для расчета :
. (2.20)
Рассчитанные по рекуррентной формуле частные коэффициенты корреляции изменяются в пределах от -1 до +1, а по формулам через множественные коэффициенты детерминации - от 0 до 1. Сравнение их друг с другом позволяет ранжировать факторы по тесноте их связи с результатом. Частные коэффициенты корреляции дают меру тесноты связи каждого фактора с результатом в чистом виде. Если из стандартизованного уравнения регрессии следует, что , т.е. no силе влияния на результат порядок факторов таков: , , , то этот же порядок факторов определяется и по соотношению частных коэффициентов корреляции, .
Из приведенных выше формул частных коэффициентов корреляции видна связь этих показателей с совокупным коэффициентом корреляции. Зная частные коэффициенты корреляции (последовательно первого, второго и более высокого порядка), можно определить совокупный коэффициент корреляции по формуле:
. (2.21)
В частности, для двухфакторного уравнения формула (2.21) принимает вид:
. (2.21)
При полной зависимости результативного признака от исследуемых факторов коэффициент совокупного их влияния равен единице. Из единицы вычитается доля остаточной вариации результативного признака , обусловленная последовательно включенными в анализ факторами. В результате подкоренное выражение характеризует совокупное действие всех исследуемых факторов.
Значимость уравнения множественной регрессии в целом, так же как и в парной регрессии, оценивается с помощью -критерия Фишера:
, (2.22)
где - факторная сумма квадратов на одну степень свободы; - остаточная сумма квадратов на одну степень свободы; - коэффициент (индекс) множественной детерминации; - число параметров при переменных (в линейной регрессии совпадает с числом включенных в модель факторов); - число наблюдений.
Оценивается значимость не только уравнения в целом, но и фактора, дополнительно включенного в регрессионную модель. Необходимость такой оценки связана с тем, что не каждый фактор, вошедший в модель, может существенно увеличивать долю объясненной вариации результативного признака. Кроме того, при наличии в модели нескольких факторов они могут вводиться в модель в разной последовательности. Ввиду корреляции между факторами значимость одного и того же фактора может быть разной в зависимости от последовательности его введения в модель. Мерой для оценки включения фактора в модель служит частный -критерий, т.е. .
Частный -критерий построен на сравнении прироста факторной дисперсии, обусловленного влиянием дополнительно включенного фактора, с остаточной дисперсией на одну степень свободы по регрессионной модели в целом. В общем виде для фактора частный -критерий определится как
, (2.23)
где - коэффициент множественной детерминации для модели с полным набором факторов, - тот же показатель, но без включения в модель фактора , - число наблюдений, - число параметров в модели (без свободного члена).
Фактическое значение частного -критерия сравнивается с табличным при уровне значимости и числе степеней свободы: 1 и . Если фактическое значение превышает , то дополнительное включение фактора в модель статистически оправданно и коэффициент чистой регрессии при факторе статистически значим. Если же фактическое значение меньше табличного, то дополнительное включение в модель фактора не увеличивает существенно долю объясненной вариации признака , следовательно, нецелесообразно его включение в модель; коэффициент регрессии при данном факторе в этом случае статистически незначим.
Для двухфакторного уравнения частные -критерии имеют вид:
, . (2.23а)
С помощью частного -критерия можно проверить значимость всех коэффициентов регрессии в предположении, что каждый соответствующий фактор вводился в уравнение множественной регрессии последним.
Частный -критерий оценивает значимость коэффициентов чистой регрессии. Зная величину , можно определить и -критерий для коэффициента регрессии при -м факторе, , а именно:
. (2.24)
Оценка значимости коэффициентов чистой регрессии по -критерию Стьюдента может быть проведена и без расчета частных -критериев. В этом случае, как и в парной регрессии, для каждого фактора используется формула:
, (2.25)
где - коэффициент чистой регрессии при факторе , - средняя квадратическая (стандартная) ошибка коэффициента регрессии .
Для уравнения множественной регрессии средняя квадратическая ошибка коэффициента регрессии может быть определена по следующей формуле:
, (2.26)
где - среднее квадратическое отклонение для признака , - среднее квадратическое отклонение для признака , - коэффициент детерминации для уравнения множественной регрессии, - коэффициент детерминации для зависимости фактора со всеми другими факторами уравнения множественной регрессии; - число степеней свободы для остаточной суммы квадратов отклонений.
3. Системы эконометрических уравнений
В последние десятилетия в экономических исследованиях важное место заняла проблема описания структуры связей между переменными системой так называемых одновременных уравнений, называемых также структурными уравнениями.
Система уравнений в эконометрических исследованиях может быть построена по-разному.
Возможна система независимых уравнений, когда каждая зависимая переменная рассматривается как функция одного и того же набора факторов :
(3.1)
Для нахождения его параметров используется метод наименьших квадратов. По существу, каждое уравнение этой системы является уравнением регрессии. Так как фактические значения зависимой переменной отличаются от теоретических на величину случайной ошибки, то в каждом уравнении присутствует величина случайной ошибки .
Если зависимая переменная одного уравнения выступает в виде фактора в другом уравнении, то исследователь может строить модель в виде системы рекурсивных уравнений:
(3.2)
В данной системе зависимая переменная включает в каждое последующее уравнение в качестве факторов все зависимые переменные предшествующих уравнений наряду с набором собственно факторов . Каждое уравнение этой системы может рассматриваться самостоятельно, и его параметры определяются методом наименьших квадратов (МНК).
Наибольшее распространение в эконометрических исследованиях получила система взаимозависимых уравнений. В ней одни и те же зависимые переменные в одних уравнениях входят в левую часть, а в других уравнениях - в правую часть системы:
(3.3)
Система взаимозависимых уравнений получила название системы совместных, одновременных уравнений. В эконометрике эта система уравнений называется также структурной формой модели. В отличие от предыдущих систем каждое уравнение системы одновременных уравнений не может рассматриваться самостоятельно, и для нахождения его параметров традиционный МНК неприменим. С этой целью используются специальные приемы оценивания.
3.1 Структурная и приведенная формы модели
Система совместных, одновременных уравнений (или структурная форма модели) обычно содержит эндогенные и экзогенные переменные.
Эндогенные переменные - это зависимые переменные, число которых равно числу уравнений в системе и которые обозначаются через , взаимозависимые переменные, которые определяются внутри модели (системы).
Экзогенные переменные - это предопределенные переменные, влияющие на эндогенные переменные, но не зависящие от них, независимые переменные, которые определяются вне системы. Обозначаются через .
В качестве экзогенных переменных могут рассматриваться значения эндогенных переменных за предшествующий период времени (лаговые переменные).
Предопределенными переменными называются экзогенные и лаговые эндогенные переменные системы.
Структурная форма модели позволяет увидеть влияние изменений любой экзогенной переменной на значения эндогенной переменной.
Структурная форма модели в правой части содержит при эндогенных переменных коэффициенты и экзогенных переменных - коэффициенты , которые называются структурными коэффициентами модели. Все переменные в модели выражены в отклонениях от среднего уровня, т.е. под подразумевается , а под - соответственно . Поэтому свободный член в каждом уравнении системы (3.3) отсутствует.
Использование МНК для оценивания структурных коэффициентов модели дает, как принято считать в теории, смещенные и несостоятельные оценки. Поэтому обычно для определения структурных коэффициентов модели структурная форма модели преобразуется в приведенную форму модели.
Приведенная форма модели представляет собой систему линейных функций эндогенных переменных от экзогенных:
(3.4)
где - коэффициенты приведенной формы модели, - остаточная величина для приведенной формы.
По своему виду приведенная форма модели ничем не отличается от системы независимых уравнений, параметры которой оцениваются традиционным МНК. Применяя МНК, можно оценить , а затем оценить значения эндогенных переменных через экзогенные.
Коэффициенты приведенной формы модели представляют собой нелинейные функции коэффициентов структурной формы модели.
3.2 Проблема идентификации
Идентификация - это единственность соответствия между приведенной и структурной формами модели.
С позиции идентифицируемости структурные модели можно подразделить на три вида:
идентифицируемые;
неидентифицируемые;
сверхидентифицируемые.
Модель идентифицируема, если все структурные ее коэффициенты определяются однозначно, единственным образом по коэффициентам приведенной формы модели, т. е. если число параметров структурной модели равно числу параметров приведенной формы модели. В этом случае структурные коэффициенты модели оцениваются через параметры приведенной формы модели и модель идентифицируема.
Модель неидентифицируема, если число приведенных коэффициентов меньше числа структурных коэффициентов, и в результате структурные коэффициенты не могут быть оценены через коэффициенты приведенной формы модели.
Модель сверхидентифицируема, если число приведенных коэффициентов больше числа структурных коэффициентов. В этом случае на основе коэффициентов приведенной формы можно получить два или более значений одного структурного коэффициента. В этой модели число структурных коэффициентов меньше числа коэффициентов приведенной формы. Сверхидентифицируемая модель в отличие от неидентифицируемой модели практически решаема, но требует для этого специальных методов исчисления параметров.
Структурная модель всегда представляет собой систему совместных уравнений, каждое из которых требуется проверять на идентификацию. Модель считается идентифицируемой, если каждое уравнение системы идентифицируемо. Если хотя бы одно из уравнений системы неидентифицируемо, то и вся модель считается неидентифицируемой. Сверхидентифицируемая модель содержит хотя бы одно сверхидентифицируемое уравнение.
Выполнение условия идентифицируемости модели проверяется для каждого уравнения системы. Чтобы уравнение было идентифицируемо, необходимо, чтобы число предопределенных переменных, отсутствующих в данном уравнении, но присутствующих в системе, было равно числу эндогенных переменных в данном уравнении без одного.
Если обозначить число эндогенных переменных в -м уравнении системы через , а число экзогенных (предопределенных) переменных, которые содержатся в системе, но не входят в данное уравнение, -- через , то условие идентифицируемости модели может быть записано в виде следующего счетного правила:
Таблица 3.1
уравнение идентифицируемо |
||
уравнение неидентифицируемо |
||
уравнение сверхидентифицируемо |
Для оценки параметров структурной модели система должна быть идентифицируема или сверхидентифицируема.
Если необходимое условие выполнено, то далее проверяется достаточное условие идентификации.
Достаточное условие идентификации. Уравнение идентифицируемо, если определитель матрицы, составленной из коэффициентов при переменных, отсутствующих в исследуемом уравнении, не равен нулю, и ранг этой матрицы не менее числа эндогенных переменных системы без единицы.
3.3 Методы оценки параметров структурной формы модели
Коэффициенты структурной модели могут быть оценены разными способами в зависимости от вида системы одновременных уравнений. Наибольшее распространение в литературе получили следующие методы оценивания коэффициентов структурной модели:
косвенный метод наименьших квадратов;
двухшаговый метод наименьших квадратов;
трехшаговый метод наименьших квадратов;
метод максимального правдоподобия с полной информацией;
метод максимального правдоподобия при ограниченной информации.
Рассмотрим вкратце сущность каждого из этих методов.
Косвенный метод наименьших квадратов (КМНК) применяется в случае точно идентифицируемой структурной модели. Процедура применения КМНК предполагает выполнение следующих этапов работы.
Структурная модель преобразовывается в приведенную форму модели.
Для каждого уравнения приведенной формы модели обычным МНК оцениваются приведенные коэффициенты .
Коэффициенты приведенной формы модели трансформируются в параметры структурной модели.
Если система сверхидентифицируема, то КМНК не используется, ибо он не дает однозначных оценок для параметров структурной модели. В этом случае могут использоваться разные методы оценивания, среди которых наиболее распространенным и простым является двухшаговый метод наименьших квадратов (ДМНК).
Основная идея ДМНК - на основе приведенной формы модели получить для сверхидентифицируемого уравнения теоретические значения эндогенных переменных, содержащихся в правой части уравнения.
Далее, подставив их вместо фактических значений, можно применить обычный МНК к структурной форме сверхидентифицируемого уравнения. Метод получил название ДМНК, ибо дважды используется МНК: на первом шаге при определении приведенной формы модели и нахождении на ее основе оценок теоретических значений эндогенной переменной и на втором шаге применительно к структурному сверхидентифицируемому уравнению при определении структурных коэффициентов модели по данным теоретических (расчетных) значений эндогенных переменных.
Сверхидентифицируемая структурная модель может быть двух типов:
все уравнения системы сверхидентифицируемы;
система содержит наряду со сверхидентифицируемыми точно идентифицируемые уравнения.
Если все уравнения системы сверхидентифицируемые, то для оценки структурных коэффициентов каждого уравнения используется ДМНК. Если в системе есть точно идентифицируемые уравнения, то структурные коэффициенты по ним находятся из системы приведенных уравнений.
4. Временные ряды
При построении эконометрической модели используются два типа данных:
данные, характеризующие совокупность различных объектов в определенный момент времени;
данные, характеризующие один объект за ряд последовательных моментов времени.
Модели, построенные по данным первого типа, называются пространственными моделями. Модели, построенные на основе второго типа данных, называются моделями временных рядов.
Временной ряд (ряд динамики) - это совокупность значений какого-либо показателя за несколько последовательных моментов или периодов времени. Каждый уровень временного ряда формируется под воздействием большого числа факторов, которые условно можно подразделить на три группы:
факторы, формирующие тенденцию ряда;
факторы, формирующие циклические колебания ряда;
случайные факторы.
Каждый уровень временного ряда формируется под воздействием тенденции, сезонных колебаний и случайной компоненты.
1) трендовой (Т), описывающей общее изменение со временем результативного признака;
2) сезонной (S), отражающей повторяемость данных через небольшой промежуток времени;
3) случайной (Е), отражающей влияние случайных факторов.
В большинстве случаев фактический уровень временного ряда можно представить как сумму или произведение трендовой, циклической и случайной компонент. Модель, в которой временной ряд представлен как сумма перечисленных компонент, называется аддитивной моделью временного ряда. Модель, в которой временной ряд представлен как произведение перечисленных компонент, называется мультипликативной моделью временного ряда.
Основная задача эконометрического исследования отдельного временного ряда - выявление и придание количественного выражения каждой из перечисленных выше компонент с тем, чтобы использовать полученную информацию для прогнозирования будущих значений ряда или при построении моделей взаимосвязи двух или более временных рядов.
4.1 Автокорреляция уровней временного ряда
При наличии во временном ряде тенденции и циклических колебаний значения каждого последующего уровня ряда зависят от предыдущих. Корреляционную зависимость между последовательными уровнями временного ряда называют автокорреляцией уровней ряда.
Количественно ее можно измерить с помощью линейного коэффициента корреляции между уровнями исходного временного ряда и уровнями этого ряда, сдвинутыми на несколько шагов во времени.
Формула для расчета коэффициента автокорреляции имеет вид:
(4.1)
Эту величину называют коэффициентом автокорреляции уровней ряда первого порядка, так как он измеряет зависимость между соседними уровнями ряда и .
Аналогично можно определить коэффициенты автокорреляции второго и более высоких порядков. Так, коэффициент автокорреляции второго порядка характеризует тесноту связи между уровнями и и определяется по формуле:
(4.2)
Если наиболее высоким оказался коэффициент автокорреляции первого порядка, исследуемый ряд содержит только тенденцию. Если наиболее высоким оказался коэффициент автокорреляции порядка , то ряд содержит циклические колебания с периодичностью в моментов времени. Если ни один из коэффициентов автокорреляции не является значимым, можно сделать одно из двух предположений относительно структуры этого ряда: либо ряд не содержит тенденции и циклических колебаний, либо ряд содержит сильную нелинейную тенденцию, для выявления которой нужно провести дополнительный анализ.
Свойства коэффициента автокорреляции.
Он строится по аналогии с линейным коэффициентом корреляции и таким образом характеризует тесноту только линейной связи текущего и предыдущего уровней ряда. Поэтому по коэффициенту автокорреляции можно судить о наличии линейной (или близкой к линейной) тенденции.
По знаку коэффициента автокорреляции нельзя делать вывод о возрастающей или убывающей тенденции в уровнях ряда. Большинство временных рядов экономических данных содержат положительную автокорреляцию уровней, однако при этом могут иметь убывающую тенденцию.
Число периодов, по которым рассчитывается коэффициент автокорреляции, называют лагом.
Последовательность коэффициентов автокорреляции уровней первого, второго и т.д. порядков называют автокорреляционной функцией временного ряда. График зависимости ее значений от величины лага (порядка коэффициента автокорреляции) называется коррелограммой.
4.2 Моделирование тенденции временного ряда
Распространенным способом моделирования тенденции временного ряда является построение аналитической функции, характеризующей зависимость уровней ряда от времени, или тренда. Этот способ называют аналитическим выравниванием временного ряда.
Для построения трендов чаще всего применяются следующие функции: линейный тренд: ; гипербола: ; экспоненциальный тренд: (или ); степенная функция: ; полиномы различных степеней: .
Параметры каждого из перечисленных выше трендов можно определить обычным МНК, используя в качестве независимой переменной время , а в качестве зависимой переменной - фактические уровни временного ряда .
Для нелинейных трендов предварительно проводят стандартную процедуру их линеаризации.
Наиболее простую экономическую интерпретацию имеет линейная функция :
а - начальный уровень временного ряда в момент времени ;
b - средний за период абсолютный прирост уровней ряда.
Параметры а и b находятся по формулам:
; .
Существует несколько способов определения типа тенденции. К числу наиболее распространенных способов относятся качественный анализ изучаемого процесса, построение и визуальный анализ графика зависимости уровней ряда от времени. В этих же целях можно использовать и коэффициенты автокорреляции уровней ряда. Тип тенденции можно определить путем сравнения коэффициентов автокорреляции первого порядка, рассчитанных по исходным и преобразованным уровням ряда. Если временной ряд имеет линейную тенденцию, то его соседние уровни и тесно коррелируют. В этом случае коэффициент автокорреляции первого порядка уровней исходного ряда должен быть высоким. Если временной ряд содержит нелинейную тенденцию, например, в форме экспоненты, то коэффициент автокорреляции первого порядка по логарифмам уровней исходного ряда будет выше, чем соответствующий коэффициент, рассчитанный по уровням ряда. Чем сильнее выражена нелинейная тенденция в изучаемом временном ряде, тем в большей степени будут различаться значения указанных коэффициентов.
...Подобные документы
Порядок построения линейного уравнения парной регрессии, расчет коэффициентов и оценка статической значимости параметров регрессии и корреляции. Точность прогноза. Множественная регрессия и корреляция. Системы эконометрических уравнений. Временные ряды.
контрольная работа [1,3 M], добавлен 24.09.2013Классическая линейную модель множественной регрессии. Значимость уравнения регрессии и его коэффициентов. Доверительный интервал. Матрица парных коэффициентов корреляции. Модель множественной регрессии. Автокорреляция.
контрольная работа [172,9 K], добавлен 17.01.2004Парная линейная регрессия. Полный регрессионный анализ. Коэффициент корреляции и теснота линейной связи. Стандартная ошибка регрессии. Значимость уравнения регрессии. Расположение доверительных интервалов. Расчет параметров множественной регрессии.
контрольная работа [932,7 K], добавлен 09.06.2012Расчет параметров линейного уравнения множественной регрессии с перечнем факторов по данным о деятельности компаний США. Оценка силы связи факторов с результатом с помощью средних (общих) коэффициентов эластичности. Доверительный интервал прогноза.
лабораторная работа [666,9 K], добавлен 21.04.2015Исследование типа регрессии между случайными переменными. Построение эмпирического уравнения регрессии. Расчет выборочных средних, дисперсий и среднеквадратического отклонения. Определение показателя тесноты связи как линейного коэффициента корреляции.
контрольная работа [513,5 K], добавлен 02.05.2015Расчет параметров линейной и степенной парной регрессии. Показатели корреляции и детерминации, методика их расчета. Средняя ошибка аппроксимации. Оценка с помощью F-критерия Фишера статистической надежности результатов регрессионного моделирования.
контрольная работа [25,2 K], добавлен 20.11.2014Расчет параметров уравнения линейной регрессии, экономическая интерпретация регрессии. Определение остаточной суммы квадратов. Выполнение предпосылок МНК. Расчет коэффициента детерминации, проверка значимости уравнения регрессии с помощью критерия Фишера.
контрольная работа [317,0 K], добавлен 11.05.2009Проверка выполнения предпосылок МНК. Значимость параметров уравнения регрессии с помощью t-критерия Стьюдента и F-критерия Фишера. Средняя относительная ошибка аппроксимации. Гиперболические, степенные и показательные уравнения нелинейной регрессии.
контрольная работа [253,4 K], добавлен 17.03.2011Составление матрицы парных коэффициентов корреляции переменных. Построение линейного уравнения регрессии, характеризирующее зависимость цены от факторов. Оценка статистической значимости параметров в регрессионной модели с помощью t-критерия Стьюдента.
лабораторная работа [1,6 M], добавлен 13.04.2010Анализ, расчет и построение исходных динамических рядов признака-функции и признака-фактора. Расчет показателей вариации динамических рядов. Количественное измерение тесноты связи признака-функции и признаков-факторов методом парной корреляции.
курсовая работа [92,7 K], добавлен 24.09.2014Составление матрицы парных коэффициентов корреляции. Построение уравнения регрессии, характеризующего зависимость цены от всех факторов. Проведение регрессионного анализа с помощью пакета SPSS. Экономическая интерпретация коэффициентов модели регрессии.
лабораторная работа [2,5 M], добавлен 27.09.2012Экономическая интерпретация коэффициентов регрессии. Графическое представление фактических и модельных значений точки прогноза, уравнений регрессии (гиперболической, степенной, показательной). Нахождение коэффициентов детерминации и эластичности.
контрольная работа [324,1 K], добавлен 13.04.2010Изучение понятий общей эконометрики. Сущность классической и обобщенной моделей линейной регрессии. Анализ методов наименьших квадратов, временных рядов и системы одновременных уравнений. Многомерная регрессия: мультиколлинеарность, фиктивные переменные.
книга [26,6 M], добавлен 19.05.2010Основы линейного регрессионного анализа. Особенности использования функции Кобба-Дугласа. Применение множественной линейной регрессии. Сущность метода наименьших квадратов. Пути избегания ложной корреляции. Проверка значимости коэффициентов регрессии.
реферат [101,8 K], добавлен 31.10.2009Исходные данные о продаже квартир на вторичном рынке жилья исследуемого региона, этапы нахождения на данной основе парной регрессии, уравнения линейной регрессии, выборочной дисперсии и ковариации. Определение средней стоимости квартиры, ее вариации.
контрольная работа [80,7 K], добавлен 14.04.2011Методика построения графика зависимости между величиной капитала и чистыми активами банков, определение уравнения регрессии зависимости чистых активов и капитала коммерческих банков. Вычисление показателей тесноты связи между изучаемыми признаками.
контрольная работа [89,5 K], добавлен 04.02.2009Параметры уравнений линейной, степенной парной. Оценка тесноты связи с помощью показателей корреляции и детерминации, качества уравнений с помощью средней ошибки аппроксимации. Определение прогнозного значения от среднего значения заданного параметра.
контрольная работа [150,5 K], добавлен 22.02.2016Основные этапы многофакторного корреляционного анализа и интерпретация его параметров. Назначение коэффициентов эластичности и стандартизированных бетта-коэффициентов. Расчет значимости коэффициентов регрессии и корреляции с помощью f-критерия Стьюдента.
контрольная работа [605,2 K], добавлен 29.07.2010Виды корреляции и регрессии, применяемые в статистическом анализе социально-экономических явлений и процессов. Построение корреляционной модели (уравнения регрессии). Построение корреляционной таблицы, выполнение интервальной группировки по признакам.
курсовая работа [131,7 K], добавлен 03.10.2014Расчет показателей динамики стоимости имущества ОАО "Сургутнефтегаз". Построение линейного уравнения тренда роста балансовой стоимости имущества. Однофакторный дисперсионный анализ. Параметры уравнения регрессии. Значимость коэффициента корреляции.
дипломная работа [146,6 K], добавлен 29.11.2014