Оценки параметров регрессионных моделей

Понятие асимптотической относительной эффективности оценок. Цели регрессионного анализа и необходимость проведения обзора наиболее популярных методов оценивания параметров модели. Численный сравнительный анализ. Построение модели на реальных данных.

Рубрика Экономика и экономическая теория
Вид дипломная работа
Язык русский
Дата добавления 11.02.2017
Размер файла 999,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Введение

Регрессионное моделирование применяется во многих сферах жизни, набирая в последнее время популярность благодаря развитию компьютерных технологий и распространению методов анализа данных. Регрессионный анализ позволяет не только восстановить зависимость между изучаемыми объектами, но и предсказать значения зависимой переменной исходя из известных данных, соответствующих этой зависимой переменной. Метод нашел свое применение в медицине [9], социологии [7], экономики [5], психологии [12]. Также метод применяют специалисты в области машинного обучения [4], финансовых рынков и институтов [13].

Тем не менее, при анализе реальных данных можно столкнуться выбросами (в пер. с англ. «outliers»), то есть с наблюдениями, которые выделяются из общей выборки. Причинами появления выбросов являются ошибки измерений, необычная природа дынных, либо же выбросы могут являться частью распределения.

Наиболее популярные методы, которые используются при построении регрессионной модели, дают неточные результаты в случае наличия выбросов [24]. Таким образом, появилась задача построения методов построения регрессионных моделей, которые давали бы результат, наиболее точно описывающий данные в случае выбросов. Для решения этой проблемы были разработаны робастные методы построения, в число которых входят М-оценки, R-оценки, отвечающие оценкам типа максимального правдоподобия (от англ. “Maximum likelihood”), L-оценки, основанные на линейных комбинациях порядковых статистик (от англ. «Linear combinations of order statistics”) и R-оценки, получаемые в ранговых критериях (от англ. “Rank test”). Отметим, что здесь и далее под робастностью подразумевается нечувствительность к малым отклонениям от предположений [17]. Например, в случае МНК-оценки параметров линейной регрессионной модели и отклонении от предположения о нормальном распределении ошибок модели, данный метод оценки параметров модели может оказаться неточным.

Таким образом, для построения наиболее устойчивых к выбросам и точных моделей необходимо проанализировать поведение М-оценок параметров регрессионной модели и заключить, при каких условиях данный метод может быть наилучшим в сравнении с широко распространенными применяемыми методами наименьших квадратов и модулей. В этом и заключается актуальность темы данного проекта.

Основным объектом исследования данной ВКР являются М-оценки параметров регрессионной модели, впервые предложенные Швейцарским статистиком Дж. П. Хьюбером в 1973 году [19]. В качестве М-оценок в работе рассматриваются М-оценки Хьюбера, Коши, Тьюки, Вельша, а также М-оценки Fair. Методы теории вероятностей и математической статистики, компьютерного моделирования, а также методы оптимизации являются основными используемыми в данном проекте средствами.

Основная цель написания данной работы заключается в формулировке рекомендаций относительно применения методов оценивания параметров регрессионной модели при разнообразных распределениях остатков модели.

Для достижения поставленной цели в работе необходимо решить несколько задач. Одной из первостепенных таких задач является необходимость проведения обзора наиболее популярных методов оценивания параметров регрессионной модели, так как исследуемые М-оценки будут сравниваться с хорошо известными методами.

Следующей задачей является численное вычисление асимптотической относительную эффективности (АОЭ) М-оценок по отношению к этим популярным методам. Планируется представить в аналитическом виде критерий, с помощью которой можно будет вычислить АЭО М-оценок по отношению к оценкам, полученным методом наименьших квадратов (МНК) и методом наименьших модулей (МНМ). Для более детального исследования необходимо проверить данный критерий при различных распределениях остатков регрессионной модели.

Из последнего следует необходимость в моделировании различных распределений, в том числе распределений, которые имеют «тяжелые хвосты», так как мы ожидаем от наших оценок качественного поведения в том числе при применении к моделям, которые имеют такие «тяжелые» остатки.

После моделирования распределений, необходимо реализовать алгоритм нахождения М-оценок, провести численный сравнительный анализ и сравнить робастность исследуемых методов на реальных данных.

Существует множество программ для обработки статистических данных, включая IBM SPSS, Matlab, MS Office Excel с надстройкой «анализ данных», R Studio. Также в упомянутых программах имеется возможность проводить статистическое моделирование. В текущей работе для моделирования и обработки данных, а также для построения моделей выбран один из самых распространенных средств для моделирования - Matlab.

Основным преимуществом данного программного обеспечения является широкий спектр допустимых возможностей, которые необходимо реализовать в данном проекте. В частности, к ним относится визуализация аналитических данных, численное интегрирование, статистическое моделирование и возможность объектно-ориентированного программирования. Для написания скриптов и функций используется среда разработки Matlab v 8.0.0.783 (R2012b).

В первой главе будут изложены основные теоретические составляющие и определения, необходимые для понимания методов оценивания параметров регрессионных моделей. Также описание основных целей регрессионного анализа и обзор существующих методов оценивания параметров регрессионных моделей будет представлен. В этой главе необходимо ввести основные определения, такие как робастность и М-оценки, а также алгоритм их поиска. Необходимо сформулировать понятие асимптотической относительной эффективности оценок, после чего вычислить данный показатель для различных распределений остатков модели.

Во второй главе будет проведен численный сравнительный анализ при различных распределениях остатков моделей. Для лучшего понимания поведения ошибок, в главе будут представлены различные функции плотности, в соответствии с которыми распределены ошибки модели. Глава будет содержать моделируемый пример, демонстрирующий важность и актуальность качественного и эффективного оценивания параметров регрессионных моделей.

В последней главе будет построена регрессионная модель на реальных экономических данных и проведен эксперимент для сравнения устойчивости к выбросам М-, МНК- и МНМ-оценок.

В заключении работы результаты исследования будут обобщены и сделаны выводы относительно применяемости и эффективности М-оценок.

Глава 1. Оценки параметров регрессионных моделей

регрессионный данные численный оценивание

1.1 Регрессионный анализ. Наиболее популярные оценки параметров модели

Регрессионный анализ - метод моделирования измеряемых данных и исследования их свойств. Метод позволяет не только восстановить зависимость между изучаемыми объектами, но и предсказать значения зависимой переменной исходя из известных данных, соответствующих этой зависимой переменной.

Рассмотрим классическую регрессионную модель с зависимой переменной и независимыми переменными («объясняющими» переменными, регрессорами) по n наблюдениям, :

(1)

- случайная ошибка модели с нулевым математическим ожиданием.

В общем случае, оценкой неизвестных параметров линейной регрессионной модели (1) называется вектор параметров , исходя из чего , а ошибка i-го наблюдения имеет вид .

Модель может быть записана в более компактном виде:

вектор наблюдений, - вектор параметров, - вектор независимых и одинаково распределенных ошибок, матрица полного столбцового ранга,

Краеугольным камнем классической статистики является метод наименьших квадратов оценки параметров регрессионной модели (1) b, отчасти благодаря его возможности быть в явном виде вычисленным по имеющимся данным, а также благодаря легкому понимаю метода. МНК заключается в минимизации суммы квадратов отклонений [19, стр. 4].

Доказано, что МНК-оценки совпадают с оценками, полученные по методу максимального правдоподобия в случае ошибок модели, распределенными по закону Гаусса [18, стр. 4], а также, что МНК-оценка может быть записана в аналитическом виде

Другим наиболее популярным методом оценивания неизвестных параметров регрессионной модели является метод наименьших модулей, который минимизирует сумму абсолютных значений отклонений. В то время как МНК-оценки совпадают с оценками максимального правдоподобия в случае распределения ошибок по закону Гаусса, метод наименьших модулей (МНМ) обеспечивает максимум функции правдоподобия, если ошибки подчиняются закону Лапласа [1].

Данный метод не может быть записан в явном виде и поиск минимума суммы абсолютных значений отклонений производится симплекс-методом, который, согласно [3], заключается в следующем: пусть необходимо минимизировать функцию от n переменных . Выберем начальное приближение точки минимума , сгенерировав при этом еще n точек путем прибавления каждой компоненте вектора 5% ее значения, после чего вычислим значение в точках .

Полученные точки сортируются в порядке возрастания соответствующих значений функции этих точек. Получается набор точек таких, что , а точки образуют симплекс. После этого генерируется новая точка, соответствующее ей значение функции сравнивается со значениями в вершинах симплекса.

Если в какой-то вершине значение функции больше или равно значению функции в новой сгенерированной точке, то она становится новой вершиной симплекса, а точка , соответствующая наибольшим значением функции, больше не рассматривается. Оставшиеся вершины сортируются в порядке возрастания соответствующих значений функции этих точек. Предыдущий шаг повторяется до тех пор, пока диаметр симплекса не будет меньше заданной величины.

Таким образом, в качестве решения задачи минимизации функции выбирается точка из ранжированного в порядке возрастания набора вершин. Симплекс-метод позволяет найти локальный минимум с небольшой ошибкой.

В случае выпуклой функции, любой конечный локальный минимум будет являться глобальным минимумом, даже если он не является единственным. Таким образом, метод может быть применен для оценки параметров регрессионной модели (1).

Итак, мы рассмотрели оценки параметров регрессионной модели методом наименьших квадратов и методом наименьших модулей, который совпадают с оценками максимального правдоподобия при ошибках модели, распределенных по закону Гаусса и Лапласа соответственно. Тем не менее, данные оценки могут быть безуспешно применены в случае наличия выбросов в данных, либо в том случае, если распределение ошибок имеет «тяжелые хвосты». В [19] и [21] продемонстрировано, насколько сильно выбросы могут повлиять на качество регрессионной модели. В данной работе это будет продемонстрировано в следующих главах.

1.2 М-оценки параметров регрессионной модели

Одной из семейства робастных оценок регрессионных моделей являются М-оценки. М-оценки основаны на идее максимизации функции правдоподобия, но в отличии от МНК- и МНК-оценок могут быть лучше применены в случае, если ошибки модели имеют «тяжелые хвосты».

Пусть - функция распределения ошибок регрессионной модели (1), тогда оценка параметра b регрессионной модели (1) по методу максимального правдоподобия имеет вид:

Прологарифмировав (2), получим:

В случае, если - функция плотности распределения Гаусса, то, как было указано в предыдущей главе, (3) сводится к задаче минимизации функции , решение которой соответствует МНК-оценке. Если - функция плотности распределения Лапласа, то (3) сводится к задаче минимизации функции , решение которой соответствует МНМ-оценке.

Рассмотрим общий вид М-оценок, то есть, оценок типа максимального правдоподобия.

М-оценкой неизвестных параметров линейной регрессионной модели (1) называется вектор параметров , где

Функция должна удовлетворять следующим свойствам [21]:

·

·

·

·

В случае, если то оценка соответствует оценке, полученной методом наименьших квадратов: соответствует оценки по методу наименьших модулей, при этом оценка параметра масштаба (в пер. в англ. «error scale estimate») считается константной [23, стр. 90].

Для определения оценки параметра масштаба , обозначим MAD как медианное абсолютное отклонение ошибки (в пер. с англ. «Median Absolute Deviation»), то есть

В случае большой выборки и , s= является оценкой среднеквадратического отклонения

Таким образом, .

Для решения экстремальной задачи (4) воспользуется условием первого порядка. Пусть , и, приравнивая полученные частные производные к 0, получим систему k + 1 уравнений:

Введем весовую функция при этом,

В таком случае, уравнения (5) могут быть записаны в следующем виде:

Обозначим за W диагональную матрицу вида:

Применяя к (6), получим:

Аналитическое представление (7) очень похоже на представление МНК-оценки, однако (7) учитывает веса каждого наблюдения и не может быть вычислена непосредственно по данным, так как W зависит от остатков, которые зависят от оценки. Основная идея метода достаточно проста для понимания - присвоить «дальним» наблюдениям наименьший вес.

Согласно [19], (7) может быть решено с помощью итерационного метода взвешенных наименьших квадратов (от англ. «Interactively Reweighted Least-Square», сокращённое название - IRLS), который заключается в следующем:

1) Выбрать начальное приближение , используя простой МНК, вычислить и

2) На каждой итерации t считать ошибку и соответствующие веса , а также;

3) Найти оценки, используя полученные веса

Шаг 2 и 3 повторяется до тех пор, пока оценки не начнут сходиться.

Cходимость достигнута, когда для выполнено:

Различные эксперты, в частности, [19] и [20] отмечают, что сходимость IRLS метода к глобальному минимуму не может гарантироваться, принимая во внимание выбор начального приближения. В частности, если первое приближение недостаточно точно, то метод может сходиться не к глобальному минимуму функции, а к локальному, как показано на Рисунке 1.1 в случае М-оценки Тьюки, функция p, которая имеет глобальный и локальные минимумы. Для моделирования использовался случайный нормально-распределенные вектор ошибок с нулевым математическим ожиданием и дисперсией 1, а также случайная матрица плана с аналогичным распределением при n=50. После этого был построен вектор наблюдений и в 5 наблюдениях внесены изменения для имитации выбросов: 5-ти случайным элементам Y было присвоено 100, а 5 элементам матрицы плана Х - 20, функция потерь в данном случае есть . Программная реализация на языке Matlab представлена в Приложении 1.

Рис 1.1. Зависимость функции потерь Тьюки от параметра b. Синем выделена точка, полученная IRLS методом оценивания

Перечень наиболее распространённых -функций для нахождения робастных М-оценок приведен в Таблице 1.1.

Таблица 1.1. Наиболее популярные функции для нахождения робастных М-оценок

М-оценка

Хьюбера (Huber)

Fair

Коши (Cauchy)

Вельша (Welsch)

Тьюки (Tukey)

В Таблице 1.2 представлены значения параметра c, подобранные таким образом, чтобы соответствующая М-оценка имела 95% асимптотическую относительную эффективность по отношению к МНК-оценке в случае нормального распределения погрешностей.

Таблица 1.2 Значение параметра с для различных М-оценок

М-оценка

Значение параметра c

Хьюбер (Huber)

1.3450

“Fair”

1.3998

Коши (Cauchy)

2.3849

Вельш (Welsch)

2.9846

Тьюки (Tukey)

4.6851

Используя М-оценки, приведенные в Таблице 1.1 и соответствующие им параметры c, представленные в Таблице 1.2, построим графики функции

Рис. 1.2 Визуализация функций М-оценки Хьюбера

Рис. 1.3 Визуализация функций М-оценки Fair

Рис. 1.4 Визуализация функций М-оценки Коши

Рис. 1.5 Визуализация функций М-оценки Вельша

Рис. 1.6 Визуализация функций М-оценки Тьюки

Как и было сказано ранее, по графикам можно сделать вывод, какая из функций имеет не только глобальные минимумы, но и локальные. Исходя из представленных графиков, М-оценка Тьюки имеет как глобальный, так и локальные минимумы. Аналогичный вывод можно сделать и для М-оценки Вельша. Код для построения графиков функций предоставлен в Приложении 3.

1.3 Асимптотическая относительная эффективность М-оценок

Асимптотическая относительная эффективность позволяет сделать выводы о том, какой метод лучше применять для оценки параметров в моделях с большим объемом выборки.

Согласно [15], асимптотическая относительная эффективность одного метода оценивания по отношению к другому определяется как корень степени k обратного отношения обобщенных дисперсий оценок параметров, полученных этими методами, где k - количество параметров модели. Под обобщенной дисперсией вектора оценок параметров следует понимать определитель матрицы ковариаций оценок параметров. Если полученное значение меньше 1, то альтернативный метод эффективнее, в противном случае, более эффективным считается исходный метод.

Ковариационная матрица МНК-оценки, согласно [6], имеет вид

где X - матрица плана, а - дисперсия шумов модели. Для МНК-оценок параметров модели (1), при , в случае n-мерного распределения с нулевым математическим ожиданием и ковариационной матрицей , асимптотическое распределение МНК-оценок имеет вид

~ N

где - ковариационная матрица МНК-оценки, X - матрица плана, а - дисперсия шумов модели [8].

Согласно [23], при и конечной дисперсии , а также при сходимости оценки параметра масштаба к по вероятности, М-оценки имеют k-мерное нормальное распределение:

~ N

где ковариационная матрица, а

Таким образом, асимптотическая относительная эффективность М-оценок по отношению к МНК имеет вид:

Ковариационная матрица МНМ-оценки при , согласно [3], имеет вид , где - значение функции плотности рассматриваемого распределения в нуле. В таком случае, асимптотическая относительная эффективность М-оценок по отношению к МНМ можно представить в аналитической форме (11):

Используя (10) и (11), а также значения параметра c, подобранные таким образом, что при применении функций для нахождения М-оценок к стандартному нормальному распределению, имеют асимптотическую эффективность 95%, представленные в Таблице 1.2, определим асимптотическую эффективность оценок при применении к другим распределениям. В частности, определим какую асимптотическую эффективность при применении к распределению Стьюдента с различными степенями свободы, а также при применении к распределению Коши, Тьюки, Лапласа, треугольному и «двугорбому» на основе комбинаций Гауссовских, логистическому, имеют изучаемые М-оценки. Функции плотности указанных распределений, а также способы моделирования соответствующих распределениям величин, их визуализация и анализ представлены в следующей главе. Код, вычисляющий асимптотические относительные эффективности оценок, представлен в Приложении 2.

В Таблице 1.3 и Таблице 1.4 приведены значения асимптотической относительной эффективности для М-оценок Хьюбера, М-оценок Fair, М-оценок Коши, Вельша, а также М-оценок Тьюки по отношению к МНК- и МНМ-оценкам соответственно. Анализируя результаты, стоит отметить, что для большинства рассматриваемых распределений М-оценки показали большую эффективность, нежели МНК- и МНМ - оценки.

Тем не менее, М-оценки уступают МНК-оценкам при «двугорбом» распределении ошибок на основе комбинации гауссовских, а также в случае треугольного распределения.

В случае, если выборка имеет большое число наблюдений и ошибки модели распределены по закону Тьюки с параметром и дисперсиями то МНМ-оценка параметров более предпочтительна. Также МНМ-метод предпочтителен в случае распределения ошибок модели по закону Лапласа, так как в этом случае МНМ-оценки соответствуют оценкам максимального правдоподобия.

Таблица 1.3 Асимптотическая эффективность М-оценок по отношению к МНК-оценкам

Распределение

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Стандартное нормальное распределение

0,9500

0,9500

0,9500

0,9500

0,9500

Распределение Лапласа

1,2768

1,4086

1,3490

1,3238

1,3042

Распределение Коши

-

-

-

-

-

Распределение Стьюдента с 2 степенями свободы

-

-

-

-

-

Распределение Стьюдента с 3 степенями свободы

1,7041

1,7668

1,7832

1,7774

1,7639

Распределение Стьюдента с 5 степенями свободы

1,2186

1,2221

1,2343

1,2310

1,2239

Распределение Стьюдента с 8 степенями свободы

1,0863

1,0849

1,0908

1,0878

1,0829

Распределение Стьюдента с 13 степенями свободы

1,0247

1,0231

1,0260

1,0237

1,0205

Стьюдента с 15 степенями свободы

1,0133

1,0118

1,0142

1,0121

1,0092

Двугорбое распределение на основе комбинации гауссовских

0,8404

0,4471

0,5853

0,6664

0,7073

Распределение Тьюки (г=0,1, у12=100, у22=1)

3,9397

4,3224

4,7166

5,0658

5,1233

Распределение

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Треугольное распределение

0,8381

0,8829

0,8631

0,8656

0,8712

Логистическое распределение

1,0875

1,0934

1,0953

1,0896

1,0831

Таблица 1.4 Асимптотическая эффективность М-оценок по отношению к МНМ-оценкам

Распределение

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Стандартное нормальное распределение

1,4923

1,4923

1,4923

1,4923

1,4923

Распределение Лапласа

0,6384

0,7043

0,6745

0,6619

0,6521

Распределение Коши

-

-

-

-

-

Распределение Стьюдента с 2 степенями свободы

-

-

-

-

-

Распределение Стьюдента с 3 степенями свободы

1,0512

1,0898

1,0999

1,0964

1,0880

Распределение Стьюдента с 5 степенями свободы

1,2685

1,2722

1,2848

1,2814

1,2740

Распределение Стьюдента с 8 степенями свободы

1,3621

1,3603

1,3678

1,3640

1,3578

Распределение Стьюдента с 13 степенями свободы

1,4153

1,4131

1,4172

1,4140

1,4095

Стьюдента с 15 степенями свободы

1,4261

1,4240

1,4274

1,4245

1,4204

Распределение

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Двугорбое распределение на основе комбинации гауссовских

1069,6617

569,0416

744,9398

848,1832

900,3356

Распределение Тьюки (г=0,1, у12=100, у22=1)

0,6856

0,7522

0,8208

0,8816

0,8916

Треугольное распределение

1,2572

1,3244

1,2947

1,2984

1,3068

Логистическое распределение

1,3222

1,3294

1,3317

1,3248

1,3169

Итак, в данной главе введены различные оценки параметров регрессионной модели, даны точные определения М-оценок, визуализированы соответствующие М-оценкам функции , а также приведен алгоритм не только нахождения М-, но и МНМ- и МНК-оценок. Глава также включает в себя анализ асимптотической относительной эффективности М-оценок по отношению к оценкам по методу наименьших квадратов (МНК) и методу наименьших модулей (МНМ), реализация которых также проведена. Следующим этапом данного проекта является численная реализация и сравнительный анализ оценок на моделируемых данных небольшой размерности.

Глава 2. Численный сравнительный анализ

2.1 Демонстрация работы М-оценок на смоделированных данных

Для демонстрации работы и необходимости применения М-оценок построим простой наглядный пример. Смоделируем точки следующим образом: к десяти точкам, лежащим на прямой добавим случайные ошибки: с 1 по 10 - нормальные ошибки (с нулевым средним и стандартным отклонением 1), а один выброс смоделируем искусственно - точка с координатами (15,1).

Визуализация регрессионных прямых продемонстрирована на Рисунке 2.1. Синими кружками выделены смоделированные данные, желтым цветом выделена прямая, построенная по методу наименьших квадратов, красным - с помощью М-оценок Fair, зеленым - М-оценок Хубера, фиолетовым - МНМ, синим - М-оценок Коши, черным - М-оценки Тьюки, а бирюзовым - М-оценки Вельша. Код, генерирующий данные и визуализирующий соответствующие прямые приведен в Приложении 4. Алгоритм IRLS приведен в Приложении 5.

Исходя из Рисунка 2.1, видно, что регрессионная прямая, построенная по методу наименьших квадратов ведет себя самым худшим образом.

Рис. 2.1 Демонстрация работы М-оценок

2.2 Моделирование распределений

Определим, какие оценки могут быть наилучшим образом применены к данным, которые имеют различное распределение шумов. Перейдем к моделированию.

Воспользуемся распределением Гаусса с функцией плотности

- дисперсия, m - математическое ожидание.

В экспериментах случайная величина, подчиненная нормальному закону при и моделируется с помощью существующей процедуры в Matlab.

Следующим рассматриваемым распределением будет распределение Тьюки [22]. Функция плотности распределения Тьюки имеет вид:

где есть доля зашумления, - дисперсии Гауссовских распределений, на основе которых построена данная функция плотности, причем .

Величина с распределением Тьюки в экспериментах моделируется как смесь двух случайных величин, распределенных по закону Гаусса.

Если случайная величина распределена по закону Тьюки, то при и с дисперсиями распределения Гаусса, на основе которого строится данная плотность распределения Тьюки соответственно, можно найти дисперсию случайной величины по формуле:

При указанных значениях параметров распределения,

Для моделирования величин, распределенных по закону Тьюки, дополнительно используется случайная величина, равномерно распределенная на отрезке [0,1]. Если значение моделируемой величины меньше , то генерируется величина с дисперсией , иначе - величина с дисперсией .

На Рисунке 2.1 синим цветом выделена функция плотности распределения Гаусса с математическим ожиданием и дисперсией красным - функция плотности распределения Тьюки с параметром зашумления и дисперсиями . Соответствующий код представлен в Приложении 3.

Рис 2.1 Визуалазация графика плотности стандартного нормального распределения и распределения Тьюки с параметром и дисперсиями

Далее рассмотрим распределение Лапласа со сдвигом в и коэффициентом масштаба б > 0, которое имеет функцию плотности

В наших экспериментах рассматривается величина с параметрами в=0 и б=1. В таком случае, дисперсия случайной величины, распределенная по закону Лапласа равна

В экспериментах величина моделируется как разность двух величин L с экспоненциальным распределением

Следующим рассматриваемым распределением является распределение Коши с коэффициентом масштаба и сдвигом, которому соответствует функцию плотности

Случайная величина, распределенная по закону Кошу, не имеет ни математического ожидания, ни дисперсии. Распределение Коши является частным случаем распределения Стьюдента с 1 степенью свободы. В свою очередь, распределению Стьюдента с n степенями свободы соответствует функция плотности

где Г - гамма-функция Эйлера, . Дисперсия случайной величины, распределенной по закону Стьюдента с n степенями свободы, существует только при [10].

Величины с распределениями Стьюдента и Коши генерируются при помощи функций, обратных их функциям распределения, которые в качестве аргумента принимают величины с равномерным распределением на отрезке [0,1]. В экспериментах рассматривается распределение Стьюдента с 2, 3, 8 и 15 степенями свободы. Распределение Коши применено в данной работе с параметрами и .

Плотность «двугорбого» распределения на основе двух величин, имеющих распределение Гаусса, может быть аналитическое представлена как

где m - одна из двух симметричных мод распределения, - дисперсия распределения Гаусса, на основе которого строится данная плотность «двугорбого» распределения. Если случайная величина распределена по такому закону при и , тогда ее дисперсия может быть найдена по формуле:

В нашем случае, получим, что

В проводимых экспериментах моделирование случайной величины с «двугорбым» распределением реализовано аналогично моделированию величины с распределением Тьюки.

Рассмотрим функцию плотности треугольного распределения на отрезке [а, b], которая имеет вид

.

В проводимых экспериментах величина с треугольным распределением на отрезке [-2,2] моделируется как сумма двух случайных величин, каждая из которых равномерно распределена на отрезке [-1,1]. На Рисунке 2.7 изображен график плотности треугольного распределения.

«Двугорбое» распределение на основе двух треугольных также может быть смоделировано.

Возьмем отрезки [a,b] и [-b,-a], тогда «двугорбое» треугольное распределение имеет функцию плотности:

.

В проводимых в данной работе экспериментах один треугольник располагается на отрезке [-2,0], а другой - на отрезке [0,2]. Распределение моделируется следующим образом: с вероятностью 1/2 генерируется сумма двух величин с равномерным распределением на отрезке [0,1], иначе генерируется сумма двух величин с равномерным распределением на отрезке [-1,0].

Логистическому распределению с параметрами сдвига м и масштаба s > 0 соответствует функция распределения

В наших экспериментах такая величина с параметрами м = 0 и s = 1 смоделирована при помощи функции, обратной к функции распределения, которая в качестве аргумента принимает случайную величину с равномерным распределением на отрезке [0,1].

Таким образом, мы рассмотрели наиболее популярные и широко применяемые распределения случайных величин, в соответствии с которыми в работе распределены остатки в моделях.

2.3 Сравнительный анализ

Следующим этапом работы является проведение численного сравнительного анализа. В работе моделируются регрессионные зависимости с 50 наблюдениями и 3 параметрами, два параметра соответствуют двум регрессорам, один - свободному члену. Для этого необходимо зафиксировать матрицу матрица X с данными, равномерно распределенными на некотором отрезке, размерностью n х m В проводимых экспериментов данные матрицы Х распределены равномерно на отрезке [0,5], n=50, m=2 если не оговорено иное, после чего к матрице приписывается единичный столбец для построения модели со свободным членом. Далее необходимо сгенерировать вектор-столбец погрешностей модели e в соответствии с рассматриваемым распределением. Задаётся (m+1)-мерный вектор-столбец b с реальными значениями параметров линейной регрессионной модели В проводимых экспериментах, вектор если не оговорено иное , после чего строится вектор наблюдений

Используя метод Монте-Карло, для одного и того же значения заданных параметров b и матрицы X ошибки модели генерируются 2000 раз и каждый раз оцениваются параметры, вычисляются значения критерия качества оценок, и считается среднее значение качества оценок.

Показателем качества оценок является величина

где - истинные значения параметров линейной регрессионной модели, а

При этом, чем меньше среднее значение критерия качества оценок, тем метод оценивания лучше. Для каждой построенной регрессионной модели в экспериментах вычисляются М-оценки, а также МНК- и МНМ-оценки вектора ее параметров.

В Приложении 7 приведен код, реализованный таким образом, что результаты вычисления записываются в отдельный excel-файл «results.xlsx», содержащий 12 строк и 7 столбцов, соответствующий различным распределениям и оценкам.

Как было указано в первой главе, МНК-оценка вектора параметров линейной регрессионной модели имеет вид , что позволяет оценить параметры модели по имеющимся данным.

Для построения МНМ-оценки используется метод симплексного поиска, минимизирующий функцию .

Данный метод описан в Главе 1. Метод соответствует встроенной в Matlab процедуре [3].

Для построения М-оценок используется итерационный алгоритм взвешенных наименьших квадратов (IRLS), представленный в предыдущей главе. Результаты проведенных экспериментов проиллюстрированы в Таблице 2.1, проанализировав которую можно сделать следующие выводы:

· Для всех исследуемых распределений наихудшими из методов оценивания являются либо МНК, либо МНМ. При шумах регрессионной модели, распределенных по закону Гаусса, а также при распределении шумов по закону Стьюдента с 8 и 15 степенями свободы, при применении к шумам с «двугорбым» распределением на основе двух гаусовских, треугольному, «двугорбому» треугольному и логистическому распределению максимальная ошибка была получена при оценивании параметров регрессионной модели методом наименьших модулей. При шумах модели, распределенных по закону Лапласса, Коши, Тьюки, а также Стьюдента с 2 и 3 степенями свободы наибольшая ошибка была получена при оценивании параметров регрессионной модели методом наименьших квадратов. Таким образом, исследуемые в данной работе М-оценки для оценивания параметров регрессионной модели могут быть применены к данным с любым из исследуемых распределений и результат оценивания не будет наихудшим.

· МНК наиболее точен для оценивания параметров регрессионной модели с шумами, распределёнными по закону Гаусса, также метод наиболее точен при применении к треугольному и «двугорбому» распределению на основе треугольных и гаусовских величин.

· МНМ показал минимальную ошибку в случае распределения ошибок по закону Лапласа и Коши. В случае распределения Коши, разница ошибок между МНМ-оценкой и М-оценкой Тьюки оказалась равной 0,003.

· М-оценки Хьюбера показали себя с лучшей стороны в случае распределения ошибок по закону Стьюдента с 3 и 8 степенями свободы.

· М-оценки Вельша показали себя с лучшей стороны с случае распределения ошибок по закону Стьюдента с 15 степенями свободы, а также в случае Логистического распределения.

· М-оценки Коши показали лучший результат в случае, когда ошибки распределены по закону Стьюдента с 2 степенями свободы.

· В случае распределения Тьюки с параметром г=0.1 и дисперсиями у22=1, у12 =100 наилучшей оценкой оказалась М-оценка Тьюки.

Таблица 2.1 Результаты оценивания для различных распределений

для

МНМ

МНК

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Стандартное нормальное распределение

0,2374

0,1484

0,1579

0,1639

0,1684

0,1577

0,1607

Распределение Лапласа

0,2203

0,3141

0,2304

0,2212

0,2219

0,2335

0,2506

Распределение Коши

0,4858

28937

0,6422

0,7873

0,5342

0,4888

0,5255

Распределение Стьюдента с 2 степенями свободы

0,3500

1,8865

0,3185

0,3409

0,2981

0,3095

0,3016

для

МНМ

МНК

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Распределение Стьюдента с 3 степенями свободы

0,3159

0,4538

0,2427

0,2629

0,2518

0,2491

0,2544

Распределение Стьюдента с 8 степенями свободы

0,2700

0,1977

0,1873

0,1892

0,1918

0,1961

0,1964

Распределение Стьюдента с 15 степенями свободы

0,2644

0,1794

0,1776

0,1747

0,1741

0,1690

0,1815

Двугорбое распределение как комбинация нормальных

7,7653

1,5622

1,6376

2,4979

2,0172

1,9213

1,7456

Распределение Тьюки (г=0,1, у12=100, у22=1)

0,3137

1,6639

0,2321

0,2840

0,2043

0,1927

0,1919

Треугольное распределение

0,1726

0,1012

0,1110

0,1169

0,1150

0,1174

0,1144

Двугорбое распределение как комбинация треугольных

0,8022

0,1784

0,1874

0,2731

0,2254

0,2159

0,2103

Логистическое распределение

0,6228

0,4960

0,4570

0,4741

0,4592

0,4532

0,4644

В случае, когда ошибки модели распределены по закону Тьюки, были проведены дополнительные эксперименты с различными значениям параметра г. Результаты представлены в Таблице 2.2. Из этих результатов следует, что М-оценки Тьюки наиболее предпочтительны при распределениях Тьюки, так как данный метод оценивания показал наименьшую среднюю ошибку при различных уровнях зашумления. Наихудшей оценкой оказалась оценка по методу наименьших квадратов, показав наибольшую ошибку во всех испытания. Реализация дополнительных тестов для распределения Тьюки представлена в Приложении 8.

Таблица 2.2. Результаты дополнительных тестов при ошибках модели, распределенных по закону Тьюки

г

Ошибка МНМ-оценки

Ошибка МНК-оценки

Ошибка М-оценки Хьюбера

Ошибка М-оценки Fair

Ошибка М-оценки Коши

Ошибка М-оценки Вельша

Ошибка М-оценки Тьюки

0,05

0,2604

0,9974

0,1916

0,2196

0,1747

0,1847

0,1738

0.10

0,3137

1,6639

0,2321

0,2840

0,2043

0,1927

0,1919

0,15

0,3453

2,4142

0,2936

0,3928

0,2465

0,2215

0,2125

0,20

0,3815

3,1493

0,3910

0,5444

0,2893

0,2716

0,2549

0,30

0,5059

4,5057

0,7230

0,9483

0,5484

0,4857

0,4214

Пусть теперь данные, содержащиеся в матрице X имеют распределение Гаусса с нулевым математическим ожиданием 0 и дисперсией 1. Проведем аналогичные эксперименты, алгоритм которых описан в начале Параграфа 2.3, с единственным отличием в распределении матрицы Х. Результаты исследования отображены в Таблице 2.4, проанализировав которую можно сделать следующие выводы:

· Как и в прошлом эксперименте, когда данные матрицы Х были распределены равномерно на отрезке [0, 5], М-оценки не показали себя с худшей стороны ни при одном из рассматриваемых распределений остатков модели. Для всех исследуемых распределений наихудшими из методов оценивания являются либо МНК, либо МНМ. Как и при предыдущем эксперименте, при шумах регрессионной модели, распределенных по закону Гаусса, а также при распределении шумов по закону Стьюдента с 8 и 15 степенями свободы, при применении к шумам с «двугорбым» распределением на основе двух нормальных, треугольному, «двугорбому» треугольному и логистическому распределению максимальная ошибка была получена при оценивании параметров регрессионной модели методом наименьших модулей.

· Как и прежде, при шумах модели, распределенных по закону Лапласа, Коши, Тьюки, а также Стьюдента с 2 и 3 степенями свободы наибольшая ошибка была получена при оценивании параметров регрессионной модели методом наименьших квадратов. Таким образом, исследуемые в данной работе М-оценки для оценивания параметров регрессионной модели могут быть применены к данным, в случае если матрица Х содержит данные, распределенные по закону Гаусса с нулевым математическим ожиданием и дисперсией 1, с любым из исследуемых распределений и результат оценивания не будет наихудшим.

· Как и прежде, МНК наиболее точен для оценивания параметров регрессионной модели с шумами, распределёнными по закону Гаусса, также метод наиболее точен при применении к треугольному и «двугорбому» распределению на основе треугольных и гаусовских величин.

· М-оценки Хьюбера в случае, когда матрица Х содержит данные, распределенные по закону Гаусса с нулевым математическим ожиданием и дисперсией 1, не показали себя с лучшей стороны ни в одном из экспериментов.

· М-оценки Вельша показали себя с лучшей стороны с случае распределения ошибок по закону Коши, однако не показала хороший результат, который был достигнут при предыдущем эксперименте, в случае распределения Стьюдента с 15 степенями свободы, а также в случае Логистического распределения.

· Как и раньше, М-оценки Коши показали лучший результат в случае, когда ошибки распределены по закону Стьюдента с 2 степенями свободы. В случае, когда матрица Х содержит данные, распределенные по закону Гаусса с нулевым математическим ожиданием и дисперсией 1, М-оценки коши также могут быть успешно применены к ошибкам, распределенным по закону Стьюдента с 3 и 15 степенями свободы, а также в случае распределения Лапласа.

· В случае распределения Тьюки с параметром г=0.1 и дисперсиями у22=1, у12 =100 наилучшей оценкой по-прежнему является М-оценка Тьюки.

Таблица 2.3 Результаты оценивания для различных распределений ошибок. Данные матрицы Х распределены по закону Гаусса с математическим ожиданием 0 и дисперсией 1

для

МНМ

МНК

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Стандартное нормальное распределение

0,0872

0,0567

0,0600

0,0589

0,0580

0,0583

0,0612

Распределение Лапласа

0,0886

0,1125

0,0855

0,0840

0,0809

0,0901

0,0886

Распределение Коши

0,1951

11994

0,2391

0,3161

0,1939

0,1907

0,1948

Распределение Стьюдента с 2 степенями свободы

0,1335

0,6273

0,1224

0,1227

0,1116

0,1138

0,1139

Распределение Стьюдента с 3 степенями свободы

0,1114

0,1619

0,0937

0,0989

0,0927

0,0968

0,0944

Распределение Стьюдента с 8 степенями свободы

0,1014

0,0744

0,0717

0,0678

0,0729

0,0728

0,0727

Распределение Стьюдента с 15 степенями свободы

0,0956

0,0648

0,0654

0,0645

0,0634

0,0674

0,0676

Двугорбое распределение как комбинация нормальных

3,1692

0,5752

0,5980

0,9073

0,7373

0,6808

0,6688

Распределение Тьюки (г=0,1, у12=100, у22=1)

0,1116

0,6113

0,0918

0,1096

0,0787

0,0727

0,0700

Треугольное распределение

0,0658

0,0377

0,0449

0,0433

0,0436

0,0429

0,0434

Двугорбое распределение как комбинация треугольных

0,3021

0,0644

0,0694

0,0973

0,0856

0,0813

0,0757

Логистическое распределение

0,2378

0,1888

0,1722

0,1719

0,1731

0,1742

0,1829

Как и прежде, были проведены дополнительные эксперименты с распределением Тьюки. Результаты представлены в Таблице 2.4. Результаты эксперименты подтвердили предыдущие выводы: М-оценки Тьюки наиболее предпочтительны при распределениях ошибок по закону Тьюки с различными параметрами зашумления. Также стоит отметить, что средняя ошибка М-оценок Вельша демонстрируют хороший результат. Как и в предыдущем испытании, наихудшими оценками оказались МНК-оценки.

Таблица 2.4. Результаты дополнительных тестов при ошибках модели, распределенных по закону Тьюки. Данные матрицы Х распределены по закону Гаусса с математическим ожиданием 0 и дисперсией 1

г

Ошибка МНМ-оценки

Ошибка МНК-оценки

Ошибка М-оценки Хьюбера

Ошибка М-оценки Fair

Ошибка М-оценки Коши

Ошибка М-оценки Вельша

Ошибка М-оценки Тьюки

0,05

0,0990

0,3484

0,0711

0,0807

0,0670

0,0676

0,0650

0.10

0,1116

0,6113

0,0918

0,1096

0,0787

0,0727

0,0700

0,15

0,1293

0,9337

0,1101

0,1502

0,0908

0,0864

0,0808

0,20

0,1508

1,1829

0,1427

0,1977

0,1146

0,1014

0,0986

0,30

0,2007

1,8135

0,2750

0,3667

0,2181

0,1823

0,1808

Рассмотрим теперь данные, содержащиеся в матрице X, которые распределены по закону Коши. Проведем аналогичные эксперименты, алгоритм которых описан в начале Параграфа 2.3, с единственным отличием в распределении матрицы Х. Результаты исследования проиллюстрированы в Таблице 2.5, проанализировав которую можно сделать следующие выводы:

· Как и раньше, М-оценки не показали себя с худшей стороны ни при одном из рассматриваемых распределений остатков модели. Для всех исследуемых распределений наихудшими из методов оценивания являются либо МНК, либо МНМ. Как и при предыдущих экспериментах, при шумах регрессионной модели, распределенных по закону Гаусса, а также при распределении шумов по закону Стьюдента с 8 и 15 степенями свободы, при применении к шумам с «двугорбым» распределением на основе двух гаусовских, треугольному, «двугорбому» треугольному и логистическому распределению максимальная ошибка была получена при оценивании параметров регрессионной модели методом наименьших модулей.

· Как и прежде, при шумах модели, распределенных по закону Лапласса, Коши, Тьюки, а также Стьюдента с 2 и 3 степенями свободы наибольшая ошибка была получена при оценивании параметров регрессионной модели методом наименьших квадратов. Таким образом, исследуемые в данной работе М-оценки для оценивания параметров регрессионной модели могут быть применены к данным, в случае если матрица Х содержит данные, распределенные по закону Гаусса с нулевым математическим ожиданием и дисперсией 1, с любым из исследуемых распределений и результат оценивания не будет наихудшим.

· Как и прежде, МНК наиболее точен для оценивания параметров регрессионной модели с шумами, распределёнными по закону Гаусса, также метод наиболее точен при применении к треугольному и «двугорбому» распределению на основе треугольных и гаусовских величин.

· М-оценка Хьюбера в случае, когда матрица Х содержит данные, распределенные по закону Коши, не показала себя с лучшей стороны ни в одном из экспериментов.

· М-оценки Вельша показали себя с лучшей стороны с случае распределения ошибок по закону Коши, Тьюки, а также при распределении Стьюдента с 3 степенями свободы.

· Как и раньше, М-оценки Коши показали лучший результат в случае, когда ошибки распределены по закону Стьюдента с 15 степенями свободы, а также в случае распределения Лапласа.

Таблица 2.5 Результаты оценивания для различных распределений ошибок. Данные матрицы Х распределены по закону Коши

для

МНМ

МНК

М-оценка Хьюбера

М-оценка Fair

М-оценка Коши

М-оценка Вельша

М-оценка Тьюки

Стандартное нормальное распределение

0,0335

0,0219

0,0225

0,0224

0,0221

0,0222

0,0234

Распределение Лапласа

0,0359

0,0425

0,0321

0,0311

0,0297

0,0334

0,0344

Распределение Коши

0,1212

12304

0,1304

0,1991

0,0922

0,0873

0,0948

Распределение Стьюдента с 2 степенями свободы

0,0545

0,2716

0,0481

0,0505

0,0463

0,0462

0,0464

Распределение Стьюдента с 3 степенями свободы

0,0478

0,0637

0,0364

0,0396

0,0370

0,0388

0,0362

Распределение Стьюдента с 8 степенями свободы

0,0394

0,0284

0,0276

0,0260

0,0283

0,0272

0,0274

Распределение Стьюдента с 15 степенями свободы

0,0372

0,0252

0,0249

0,0241

0,0238

0,0253

0,0257

Двугорбое распределение как комбинация нормальных

2,2324

0,2186

0,2219

0,3848

0,3036

0,2663

0,2681

Распределение Тьюки (г=0,1, у12=100, у22=1)

0,0510

0,2372

0,0434

0,0496

0,0354

0,0329

0,0340

Треугольное распределение

0,0251

0,0146

0,0176

0,0169

0,0171


Подобные документы

  • Основы построения регрессионных моделей: метод наименьших квадратов; двухмерная линейная концепция корреляционного и регрессионного анализа. Показатели статистической обработки информации: дисперсия, математическое ожидание и стандартное отклонение.

    контрольная работа [80,8 K], добавлен 27.11.2012

  • Понятие экономического анализа. Характеристика основных приемов и методов экономического анализа. Методика факторного анализа. Многофакторные мультипликативные модели. Построение факторной модели - первый этап детерминированного анализа.

    контрольная работа [105,1 K], добавлен 12.09.2006

  • Описание модели бизнеса по Остервальдеру и оценка ее параметров. Построение и анализ цепочки добавленной стоимости. Оценка возможности развития модели бизнеса и вариант новой модели. Возможность оптимизации процессов и основные идеи реинжиниринга.

    курсовая работа [2,4 M], добавлен 15.09.2014

  • Содержание, функции и классификация кредитных отношений. Кредитоспособность заемщика: сущность и необходимость оценки, изучение методов комплексного анализа. Применение рейтинговой модели для оценки кредитоспособности на примере ООО "Татарскэнергогаз".

    дипломная работа [70,9 K], добавлен 17.01.2011

  • Роль корреляцонно-регрессионного анализа в обработке экономических данных. Корреляционно-регрессионный анализ и его возможности. Предпосылки корреляционного и регрессионного анализа. Пакет анализа Microsoft Excel.

    курсовая работа [68,4 K], добавлен 11.06.2002

  • Задачи, способы и последствия проведения стерилизованных интервенций. Обзор валютного рынка России. Модели оценки валютного курса. Анализ эффективности стерилизованных интервенций с помощью векторной модели коррекции остатков на дневных и месячных данных.

    курсовая работа [700,4 K], добавлен 27.09.2016

  • Оценка статистической значимости параметров регрессии. Построение экономического прогноза прибыли при прогнозном значении произведенной валовой продукции. Статистическая оценка параметров уравнения регрессии. Построение мультипликативной модели тренда.

    контрольная работа [132,1 K], добавлен 10.03.2013

  • Методы анализа структуры временных рядов, содержащих сезонные колебания. Рассмотрение подхода методом скользящей средней и построение аддитивной (или мультипликативной) модели временного ряда. Расчет оценок сезонной компоненты в мультипликативной модели.

    контрольная работа [57,9 K], добавлен 12.02.2015

  • Понятие термина "инфляция", цели и общие принципы моделирования инфляционного процесса. Концепции и основные модели инфляции в экономике. Особенности проведения антиинфляционной политики государства. Анализ моделей и концепции инфляции в экономике.

    курсовая работа [136,9 K], добавлен 20.12.2015

  • Изучение зависимости доли сельского населения от величины среднедушевых денежных доходов. Расчет параметров линейной функции на основании исходных данных по областям. Определение среднего коэффициента эластичности. Расчет коэффициента корреляции.

    методичка [55,1 K], добавлен 02.06.2012

  • Предмет, объект, цель, содержание и задачи анализа хозяйственной деятельности в современных условиях. Построение логических и математических моделей факторных систем. Построение факторной модели прибыли и расчет общего прироста результативного показателя.

    контрольная работа [14,8 K], добавлен 28.01.2010

  • Характеристика методов выполнения оценок параметров больших множеств по данным выборочного наблюдения. Особенности работы с большими массивами данных. Расчет основных показателей совокупности. Корреляционно-регрессионный анализ. Анализ рядов динамики.

    курсовая работа [1,2 M], добавлен 24.08.2010

  • Моделирование односекторной экономической системы. Построение графической, статистической и динамической моделей. Графики погашения внешних инвестиций. Моделирование двухсекторной экономической системы. Архитектура системы. Спецификация данных модели.

    дипломная работа [1023,8 K], добавлен 16.12.2012

  • Модели дискриминантного анализа. Эффективность классических западных и российских моделей предсказания банкротства. Отраслевая специфика. Описание статей, включающее характеристики выборки, метод, список факторов и прогнозную силу метода анализа.

    реферат [68,6 K], добавлен 24.07.2016

  • Обзор математических моделей финансовых пирамид. Анализ модели динамики финансовых пузырей Чернавского. Обзор модели долгосрочного социально-экономического прогнозирования. Оценка приоритета простых моделей. Вывод математической модели макроэкономики.

    курсовая работа [1,7 M], добавлен 27.11.2017

  • Методы анализа детерминированных моделей. Построение моделей факторного анализа. Методы анализа стохастических моделей. Методы оптимизации в экономическом анализе. Методы комплексного анализа. Рейтинговая оценка финансового состояния.

    курсовая работа [47,9 K], добавлен 12.05.2008

  • Понятие экономического анализа как науки, его сущность, предмет, общая характеристика методов и социально-экономическая эффективность. Основные группы эконометрических методов анализа и обработки данных. Факторный анализ экономических данных предприятия.

    реферат [44,7 K], добавлен 04.03.2010

  • Этапы корреляционно-регрессионного анализа, построение корреляционной модели и определение функции, отражающей механизм связи между факторным и результативным признаками. Измерение тесноты корреляционной связи, расчет индекса корреляции и дисперсии.

    лекция [38,1 K], добавлен 13.02.2011

  • Моделирование оценки стоимости финансовых инструментов инвестирования. Основные модели, используемые при формировании текущей рыночной цены акций и облигаций. Моделирование рациональной структуры инвестиционного портфеля. Методы оценки инвестиций.

    курсовая работа [680,9 K], добавлен 16.04.2015

  • Элементы, критерии и типы экономической системы. Смешанная экономика: сущность и модели. Сравнительный анализ основных социально-экономических моделей развитых стран. Неоиндустриальная модернизация в современной России. Инновационный путь развития.

    курсовая работа [32,4 K], добавлен 10.04.2016

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.