Сущность метода наименьших квадратов

Особенность концепции, основанной на минимизации суммы клеток отклонений некоторых функций от искомых переменных. Метод наименьших квадратов в регрессионном анализе. Суть постоянной дисперсии случайных ошибок. Особенность расчета ковариационной матрицы.

Рубрика Экономика и экономическая теория
Вид лекция
Язык русский
Дата добавления 17.03.2015
Размер файла 150,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Метод наименьших квадратов (МНК, англ. Ordinary Least Squares, OLS) -- математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функцией. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.

Сущность метода наименьших квадратов

Пусть -- набор неизвестных переменных (параметров), -- совокупность функций от этого набора переменных. Задача заключается в подборе таких значений x, чтобы значения этих функций были максимально близки к некоторым значениям . По существу речь идет о «решении» переопределенной системы уравнений в указанном смысле максимальной близости левой и правой частей системы. Сущность МНК заключается в выборе в качестве «меры близости» суммы квадратов отклонений левых и правых частей -- . Таким образом, сущность МНК может быть выражена следующим образом:

В случае, если система уравнений имеет решение, то минимум суммы квадратов будет равен нулю и могут быть найдены точные решения системы уравнений аналитически или, например, различными численными методами оптимизации. Если система переопределена, то есть, говоря нестрого, количество независимых уравнений больше количества искомых переменных, то система не имеет точного решения и метод наименьших квадратов позволяет найти некоторый «оптимальный» вектор в смысле максимальной близости векторов и или максимальной близости вектора отклонений к нулю (близость понимается в смысле евклидова расстояния).

Пример -- система линейных уравнений

В частности, метод наименьших квадратов может использоваться для «решения» системы линейных уравнений

,

где матрица не квадратная, а прямоугольная размера (точнее ранг матрицы A больше количества искомых переменных).

Такая система уравнений, в общем случае не имеет решения. Поэтому эту систему можно «решить» только в смысле выбора такого вектора , чтобы минимизировать «расстояние» между векторами и . Для этого можно применить критерий минимизации суммы квадратов разностей левой и правой частей уравнений системы, то есть . Нетрудно показать, что решение этой задачи минимизации приводит к решению следующей системы уравнений

Используя оператор псевдоинверсии, решение можно переписать так:

,

где -- псевдообратная матрица для .

Данную задачу также можно «решить» используя так называемый взвешенный МНК (см. ниже), когда разные уравнения системы получают разный вес из теоретических соображений.

Строгое обоснование и установление границ содержательной применимости метода даны А. А. Марковым и А. Н. Колмогоровым.

МНК в регрессионном анализе (аппроксимация данных)[править | править вики-текст] Пусть имеется значений некоторой переменной (это могут быть результаты наблюдений, экспериментов и т. д.) и соответствующих переменных . Задача заключается в том, чтобы взаимосвязь между и аппроксимировать некоторой функцией , известной с точностью до некоторых неизвестных параметров , то есть фактически найти наилучшие значения параметров , максимально приближающие значения к фактическим значениям . Фактически это сводится к случаю «решения» переопределенной системы уравнений относительно :

В регрессионном анализе и в частности в эконометрике используются вероятностные модели зависимости между переменными

где -- так называемые случайные ошибки модели.

Соответственно, отклонения наблюдаемых значений от модельных предполагается уже в самой модели. Сущность МНК (обычного, классического) заключается в том, чтобы найти такие параметры , при которых сумма квадратов отклонений (ошибок, для регрессионных моделей их часто называют остатками регрессии) будет минимальной:

где -- англ. Residual Sum of Squares[4] определяется как:

В общем случае решение этой задачи может осуществляться численными методами оптимизации (минимизации). В этом случае говорят о нелинейном МНК (NLS или NLLS -- англ. Non-Linear Least Squares). Во многих случаях можно получить аналитическое решение. Для решения задачи минимизации необходимо найти стационарные точки функции , продифференцировав её по неизвестным параметрам , приравняв производные к нулю и решив полученную систему уравнений:

МНК в случае линейной регрессии[править | править вики-текст]

Пусть регрессионная зависимость является линейной:

Пусть y -- вектор-столбец наблюдений объясняемой переменной, а -- это -матрица наблюдений факторов (строки матрицы -- векторы значений факторов в данном наблюдении, по столбцам -- вектор значений данного фактора во всех наблюдениях). Матричное представление линейной модели имеет вид:

Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны

соответственно сумма квадратов остатков регрессии будет равна

Дифференцируя эту функцию по вектору параметров и приравняв производные к нулю, получим систему уравнений (в матричной форме):

.

В расшифрованной матричной форме эта система уравнений выглядит следующим образом:

где все суммы берутся по всем допустимым значениям .

Если в модель включена константа (как обычно), то при всех , поэтому в левом верхнем углу матрицы системы уравнений находится количество наблюдений , а в остальных элементах первой строки и первого столбца -- просто суммы значений переменных: и первый элемент правой части системы -- .

Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:

Для аналитических целей оказывается полезным последнее представление этой формулы (в системе уравнений при делении на n, вместо сумм фигурируют средние арифметические). Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая -- вектор ковариаций факторов с зависимой переменной. Если кроме того данные ещё инормированы на СКО (то есть в конечном итоге стандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор -- вектора выборочных корреляций факторов с зависимой переменной.

Немаловажное свойство МНК-оценок для моделей с константой -- линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:

В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой -- удовлетворяет критерию минимума суммы квадратов отклонений от неё.

Простейшие частные случаи[править | править вики-текст]

В случае парной линейной регрессии , когда оценивается линейная зависимость одной переменной от другой, формулы расчета упрощаются (можно обойтись без матричной алгебры). Система уравнений имеет вид:

Отсюда несложно найти оценки коэффициентов:

Несмотря на то что в общем случае модели с константой предпочтительней, в некоторых случаях из теоретических соображений известно, что константа должна быть равна нулю. Например, в физике зависимость между напряжением и силой тока имеет вид ; замеряя напряжение и силу тока, необходимо оценить сопротивление. В таком случае речь идёт о модели . В этом случае вместо системы уравнений имеем единственное уравнение

Следовательно, формула оценки единственного коэффициента имеет вид

Статистические свойства МНК-оценок[править | править вики-текст]

В первую очередь, отметим, что для линейных моделей МНК-оценки являются линейными оценками, как это следует из вышеприведённой формулы. Длянесмещенности МНК-оценок необходимо и достаточно выполнения важнейшего условия регрессионного анализа: условное по факторам математическое ожидание случайной ошибки должно быть равно нулю. Данное условие, в частности, выполнено, если математическое ожидание случайных ошибок равно нулю, и факторы и случайные ошибки -- независимые случайные величины.

Первое условие можно считать выполненным всегда для моделей с константой, так как константа берёт на себя ненулевое математическое ожидание ошибок (поэтому модели с константой в общем случае предпочтительнее). наименьший квадрат регрессионный ковариационный

Второе условие -- условие экзогенности факторов -- принципиальное. Если это свойство не выполнено, то можно считать, что практически любые оценки будут крайне неудовлетворительными: они не будут даже состоятельными (то есть даже очень большой объём данных не позволяет получить качественные оценки в этом случае). В классическом случае делается более сильное предположение о детерминированности факторов, в отличие от случайной ошибки, что автоматически означает выполнение условия экзогенности. В общем случае для состоятельности оценок достаточно выполнения условия экзогенности вместе со сходимостью матрицы к некоторой невырожденной матрице при увеличении объёма выборки до бесконечности.

Для того, чтобы кроме состоятельности и несмещенности, оценки (обычного) МНК были ещё и эффективными (наилучшими в классе линейных несмещенных оценок) необходимо выполнение дополнительных свойств случайной ошибки:

Постоянная (одинаковая) дисперсия случайных ошибок во всех наблюдениях (отсутствие гетероскедастичности):

Отсутствие корреляции (автокорреляции) случайных ошибок в разных наблюдениях между собой

Данные предположения можно сформулировать для ковариационной матрицы вектора случайных ошибок

Линейная модель, удовлетворяющая таким условиям, называется классической. МНК-оценки для классической линейной регрессии являютсянесмещёнными, состоятельными и наиболее эффективными оценками в классе всех линейных несмещённых оценок (в англоязычной литературе иногда употребляют аббревиатуру BLUE (Best Linear Unbiased Estimator) -- наилучшая линейная несмещённая оценка; в отечественной литературе чаще приводится теорема Гаусса -- Маркова). Как нетрудно показать, ковариационная матрица вектора оценок коэффициентов будет равна:

Эффективность означает, что эта ковариационная матрица является «минимальной» (любая линейная комбинация коэффициентов, и в частности сами коэффициенты, имеют минимальную дисперсию), то есть в классе линейных несмещенных оценок оценки МНК-наилучшие. Диагональные элементы этой матрицы -- дисперсии оценок коэффициентов -- важные параметры качества полученных оценок. Однако рассчитать ковариационную матрицу невозможно, поскольку дисперсия случайных ошибок неизвестна. Можно доказать, что несмещённой и состоятельной (для классической линейной модели) оценкой дисперсии случайных ошибок является величина:

Подставив данное значение в формулу для ковариационной матрицы и получим оценку ковариационной матрицы. Полученные оценки также являютсянесмещёнными и состоятельными. Важно также то, что оценка дисперсии ошибок (а значит и дисперсий коэффициентов) и оценки параметров модели являются независимыми случайными величинами, что позволяет получить тестовые статистики для проверки гипотез о коэффициентах модели.

Необходимо отметить, что если классические предположения не выполнены, МНК-оценки параметров не являются наиболее эффективными оценками (оставаясь несмещёнными и состоятельными). Однако, ещё более ухудшается оценка ковариационной матрицы -- она становится смещённой инесостоятельной. Это означает, что статистические выводы о качестве построенной модели в таком случае могут быть крайне недостоверными. Одним из вариантов решения последней проблемы является применение специальных оценок ковариационной матрицы, которые являются состоятельными при нарушениях классических предположений (стандартные ошибки в форме Уайта и стандартные ошибки в форме Ньюи-Уеста). Другой подход заключается в применении так называемого обобщённого МНК.

Обобщенный МНК[править | править вики-текст]

Основная статья: Обобщенный метод наименьших квадратов

Метод наименьших квадратов допускает широкое обобщение. Вместо минимизации суммы квадратов остатков можно минимизировать некоторую положительно определенную квадратичную форму от вектора остатков , где -- некоторая симметрическая положительно определенная весовая матрица. Обычный МНК является частным случаем данного подхода, когда весовая матрица пропорциональна единичной матрице. Как известно из теории симметрических матриц (или операторов) для таких матриц существует разложение . Следовательно, указанный функционал можно представить следующим образом

,

то есть этот функционал можно представить как сумму квадратов некоторых преобразованных «остатков». Таким образом, можно выделить класс методов наименьших квадратов -- LS-методы (Least Squares).

Доказано (теорема Айткена), что для обобщенной линейной регрессионной модели (в которой на ковариационную матрицу случайных ошибок не налагается никаких ограничений) наиболее эффективными (в классе линейных несмещенных оценок) являются оценки т. н. обобщенного МНК (ОМНК, GLS -- Generalized Least Squares) -- LS-метода с весовой матрицей, равной обратной ковариационной матрице случайных ошибок: .

Можно показать, что формула ОМНК-оценок параметров линейной модели имеет вид

Ковариационная матрица этих оценок соответственно будет равна

Фактически сущность ОМНК заключается в определенном (линейном) преобразовании (P) исходных данных и применении обычного МНК к преобразованным данным. Цель этого преобразования -- для преобразованных данных случайные ошибки уже удовлетворяют классическим предположениям.

Взвешенный МНК[править | править вики-текст]

В случае диагональной весовой матрицы (а значит и ковариационной матрицы случайных ошибок) имеем так называемый взвешенный МНК (WLS -- Weighted Least Squares). В данном случае минимизируется взвешенная сумма квадратов остатков модели, то есть каждое наблюдение получает «вес», обратно пропорциональный дисперсии случайной ошибки в данном наблюдении:

.

Фактически данные преобразуются взвешиванием наблюдений (делением на величину, пропорциональную предполагаемому стандартному отклонению случайных ошибок), а к взвешенным данным применяется обычный МНК.

Размещено на Allbest.ru

...

Подобные документы

  • Сущность и применение метода наименьших квадратов для однофакторной линейной регрессии. Нахождение коэффициента эластичности для указанной модели в заданной точке X и его экономический анализ. Прогноз убыточности на основании линейной регрессии.

    контрольная работа [47,3 K], добавлен 15.06.2009

  • Характеристика двухшагового метода наименьших квадратов для решения систем эконометрических уравнений. Способы оценки неизвестных параметров регрессионных моделей по выборочным данным. Знакомство с особенностями системы эконометрических уравнений.

    курсовая работа [593,8 K], добавлен 04.06.2015

  • Общий вид искомой модели, нахождению структурных коэффициентов. Ранг матрицы системы, число эндогенных переменных, достаточное условие индентифицируемости системы. Применение косвенного метода наименьших квадратов, выражение переменные через отклонения.

    контрольная работа [33,1 K], добавлен 15.10.2009

  • Порядок проведения проверки статистических гипотез. Проверка однородности результатов эксперимента в целях исключения грубых ошибок. Расчет теоретических частот для нормального распределения. Уравнение линейной регрессии и метод наименьших квадратов.

    курсовая работа [349,5 K], добавлен 09.01.2011

  • Нахождение доверительных интервалов с помощью функции Лапласа и критериев распределения Стьюдента: сравнение средних выборок; корреляция случайных величин. Метод наименьших квадратов: построение модели; расчет доверительных интервалов для коэффициентов.

    презентация [109,2 K], добавлен 30.07.2013

  • Основы линейного регрессионного анализа. Особенности использования функции Кобба-Дугласа. Применение множественной линейной регрессии. Сущность метода наименьших квадратов. Пути избегания ложной корреляции. Проверка значимости коэффициентов регрессии.

    реферат [101,8 K], добавлен 31.10.2009

  • Основы построения регрессионных моделей: метод наименьших квадратов; двухмерная линейная концепция корреляционного и регрессионного анализа. Показатели статистической обработки информации: дисперсия, математическое ожидание и стандартное отклонение.

    контрольная работа [80,8 K], добавлен 27.11.2012

  • Решение с помощью метода скользящей средней, метода наименьших квадратов и экспоненциального сглаживания. Линейная зависимость валового выпуска продукции в стране от численности занятых. Определение величины интервала скольжения и временного ряда.

    контрольная работа [79,2 K], добавлен 01.02.2011

  • Ознакомление с основами расчета численности безработных в заданном городе методом скользящей средней, экспоненциальных взвешенных и наименьших квадратов. Вычисление средней относительной ошибки. Построение графиков фактических и расчетных показателей.

    контрольная работа [219,7 K], добавлен 24.09.2014

  • Временной ряд и его основные элементы. Автокорреляция уровней временного ряда и выявление структуры. Моделирование тенденции временного ряда. Метод наименьших квадратов. Приведение уравнения тренда к линейному виду. Оценка параметров уравнения регрессии.

    контрольная работа [95,7 K], добавлен 25.02.2010

  • Изучение понятий общей эконометрики. Сущность классической и обобщенной моделей линейной регрессии. Анализ методов наименьших квадратов, временных рядов и системы одновременных уравнений. Многомерная регрессия: мультиколлинеарность, фиктивные переменные.

    книга [26,6 M], добавлен 19.05.2010

  • Фитнес в России: история развития, современное состояние. Фитнес-услуга как процесс, происходящий между клиентом и клубом, оказывающим услугу. Анализ клуба "ИКС-ФИТ Азимут" и выбор объекта прогнозирования. Метод парных сравнений и наименьших квадратов.

    курсовая работа [123,2 K], добавлен 28.04.2011

  • Проведение исследований, связанных с особенностями потребления домохозяйств. Деление домохозяйств на различные группы. Переменная расходов на человека. Оценивание модели по двухшаговому методу наименьших квадратов. Влияние эффектов дохода и замещения.

    контрольная работа [391,9 K], добавлен 21.09.2016

  • Понятие, виды производственных средств. Расчет линейного коэффициента корреляции. Аналитическое выражение связи между факторным и результативным показателем на основе регрессионного анализа. Расчет параметров уравнения тренда методом наименьших квадратов.

    курсовая работа [80,9 K], добавлен 07.03.2016

  • Сравнение методов дифференциации издержек и результаты расчетов по методу наименьших квадратов. Основные показатели операционного анализа. Факторы, оказывающие влияние на порог рентабельности. Политика финансирования оборотных активов предприятия.

    курсовая работа [1,5 M], добавлен 09.06.2011

  • Показатели и методы анализа доходов окупаемости затрат. Изучение влияния отдельных факторов на урожайность зерновых культур. Выравнивание ряда динамики по среднему абсолютному приросту и способом наименьших квадратов. Прогнозирование окупаемости затрат.

    курсовая работа [249,9 K], добавлен 09.05.2013

  • Методика оценки вероятности банкротства в модели Альтмана. Расчет индекса кредитоспособности применительно к российским условиям. Параметры уравнения регрессии методом наименьших квадратов. Оценка адекватности финансовых политик состояниям экономики.

    курсовая работа [74,6 K], добавлен 08.01.2010

  • Основные причины возникновения автокорреляции отклонения модели. Методы выявления автокорреляции. Исследование автокорреляции случайных отклонений модели временного ряда с помощью теста Сведа-Эйзенхарта, статистики Дарбина-Уотсона и графического метода.

    курсовая работа [236,0 K], добавлен 29.03.2015

  • Определение деятельности производственных объектов с помощью методов: суммы мест, расстояний, балльной оценки. Расчеты квадратов расстояний. Расчет изменений объемов реализации и выпуска продукции, используя балансовый способ и метод цепных подстановок.

    контрольная работа [130,1 K], добавлен 14.12.2010

  • Измерение колебаний в рядах динамики. Задача на определение сумм квадратов отклонений. Особенности применения аналитической группировки при решении задач. Определение индекса влияния структурных сдвигов в численности рабочих на производительность труда.

    контрольная работа [158,6 K], добавлен 22.03.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.