Особенности использования нелинейных и нейронных моделей для оценки и прогнозирования финансовых рисков
Характеристика основных преимуществ и недостатков методики выбора рыночного портфеля в модели ценообразования активов. Перцептрон Розенблатта - самая простая форма нейронной сети. Исследование специфических особенностей ограниченной машины Больцмана.
Рубрика | Экономико-математическое моделирование |
Вид | дипломная работа |
Язык | русский |
Дата добавления | 30.12.2015 |
Размер файла | 230,6 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru
Размещено на http://www.allbest.ru
Введение
Основной задачей инвестора является получение максимальной прибыли от вложенных в актив или проект инвестиций. Однако безграмотный выбор инвестиционного проекта может привести к незначительным затратам, в лучшем случае, и полной потере инвестированных денег, в худшем. Таким образом, перед инвестором стоит задача отбора активов по каким-либо признакам: либо качественным, либо количественным. К сожалению, далеко не всегда имеется возможность получить достоверную качественную оценку инвестиционного проекта, так как данный подход абсолютно субъективен и не имеет в своей основе каких-либо фундаментальных показателей. Количественная оценка, напротив, достаточно объективна и, в большей степени, независима от мнения аналитика.
Существует множество различных концепций количественной оценки активов, однако основная и наиболее используемая - «риск - доходность». Данный подход является ключевым в корпоративных финансах, так как позволяет инвестору дать количественную оценку инвестиционному и кредитному риску в терминах доходности. Несмотря на простую, с первого взгляда, задачу - оценить степень риска инвестиционного проекта и указать возможные потери в случае неудачи в денежном эквиваленте, споры о методах проведения оценки рисков и построения адекватной модели увязки полученного риска и требуемой доходности не утихают до сих пор. В чем же основная проблема данного подхода и почему аналитическое сообщество не может прийти к единому мнению относительно данного вопроса?
В силу основополагающих теорий, на основании которых мы строим все свои предположения о рынке, предполагается, что поведение инвесторов должно быть рационально. Таким образом, если мы говорим именно об инвесторе, а не о спекулянте, который готов принять большей риск для значительного увеличения доходности и средняя продолжительность сделки для которых ограничивается неделей или месяцем (максимум), то стоит вспомнить, что он (инвестор) стремится максимально снизить свои риски. Нельзя также забывать про то, что при инвестициях приобретается не один актив, а сразу несколько, которые образуют портфель активов. Соответственно, основываясь на портфельной теории, инвестор, составляя портфель, диверсифицирует свои риски, таким образом, сводя их к минимуму. При таком подходе риски, которые характерны отдельным активам, нивелируются за счет эффекта диверсификации и единственным риском, который будет характеризовать портфель будет риск, присущий всему рынку - систематический риск. Таким образом, логичным выводом, учитывая рациональность поведения инвесторов, является использование некоего механизма, который будет сопоставлять систематический риск портфеля с доходностью выбранного портфеля.
Основной моделью, увязывающей систематический риск и стоимость финансовых активов, является разработанная в середине 1960-х готов CAPM (Шарпом - в 1964, Линтером - в 1965) модель, основанная на теории портфельного выбора Гарри Марковица. В различных исследования говорится о доминирующем положении данной модели при оценке инвестиционного проекта: до 80% зарубежных компаний используют CAPM, чтобы обосновать барьерную ставку инвестирования, примерно 75% респондентов во годы кризиса (2008 - 2009) использовали модель CAPM.
Данная модель является равновесной и учитывает только системный риск, так как предполагается, что только он не устраняется в процессе диверсификацией портфеля. Основной мерой оценки систематического риска в модели CAPM является в - коэффициент, который рассчитывается как соотношение корреляции исследуемого актива и корреляции модельного портфеля (например, национального рыночного портфеля или какого-нибудь индекса). Таким образом, в - коэффициент демонстрирует эластичность доходности оцениваемого актива и к доходности национального рыночного портфеля.
CAPM модель, в своем изначальном виде, представлена следующей формулой:
,
где - доходность i-го актива, - безрисковая ставка (как правило, процентная ставка по облигациям государственного займа), - доходность рыночного портфеля, - ожидаемая доходность i-го актива, - бета-коэффициент i-го актива (мера систематического риска для i-го актива), который рассчитывается по следующей формуле:
,
где - ковариация доходностей рыночного портфеля и i-го актива, а - дисперсия доходности рыночного портфеля.
В основе CAPM модели, позволяющей ей так просто построить математическую модель оценки, лежат жесткие фундаментальные предпосылки:
· поведение инвесторов всегда рационально;
· ожидания инвесторов о распределении ставок доходности активов одинаковы;
· наличие у инвесторов возможности использовать безрисковую ставку процента;
· постоянный однопериодный (неделя, месяц, год и т.д.) горизонт инвестирования;
· равновесие рынка капитала.
Однако проблема заключается в том, что данные предпосылки не всегда (очень часто) не выполняются. Так, например, поведение инвесторов, в большинстве случаев, нерационально. Более того, проблемы модели лежат не только в предпосылках, но и в некоторых фундаментальных факторах. В следствие этого, практически сразу после публикации своих исследований Шарпом и Лентерном, стали появляется различные критики данной модели и, соответственно, различные вариации, что, в свою очередь, подтверждает тот факт, что невыполнение некоторых предпосылок никак не дискредитирует модель в целом.
В настоящее время развитие информационных технологий позволило значительно улучшить математический аппарат оценки и прогнозирования различных наборов данных. Использование нелинейных моделей оценки и прогнозирования сопровождается большими трудозатратами на вычисление промежуточных значений. В частности, если говорить о нейронных сетях, то стоит заметить, что даже при использовании простейшей модели перцептрона Розенблата в однопоточном режиме, обучение может занять несколько часов. Однако сеть с одним скрытым слоем нейронов, скорее всего, не покажет достаточного качества прогноза. Именно поэтому были придуманы различные модели нейронных сетей, использующие различное количество скрытых слоев нейронов и соответствующие алгоритмы обучения.
Во второй части работы будут рассмотрены нейронная сеть на основе перцептрона Розенблатта, байсеовская сеть, сеть прямого распространения на основе ограниченных машин Больцмана. Первые две сети будут построены в Matlab с использованием алгоритма обратного распространения ошибки и метода сопряженных градиентов. Последняя будет реализована на языке С++ с использованием технологии CUDA, которая позволяет совершать вычисления на графических процессорах. Для обучения ограниченной машины Больцмана будет использоваться алгоритм обучения, предложенный Джеффри Хинтоном CD-k, представляющий из себя алгоритм марковской цепи Монте-Карло (MCMC).
Для примера я также сравню результаты оценки коэффициента систематического рыночного риска, оцененного по модели Маршалла Блюма (выбор данной модели обусловлен ее широким распространением; данная модель активно используется в Bloomberg), и оцененного нейронными сетями.
1. Проблемы классической CAPM
1.1 Критика выбора рыночного портфеля
Сначала мы обратим внимание на работу Ричарда Ролла, которая относится к проблеме трактовки рыночного портфеля. Однако прежде необходимо напомнить, что в основе CAPM модели лежит соотношение «риск - доходность» (mean - variance behavior), а сравнение исследуемого актива происходит с абстрактным портфелем, который отражает весь рынок (или некоторый сегмент рынка) со всеми возможностями для инвестирования. Базируясь именно на этих двух принципах, автор в своей работе и делает два основных утверждения:
· Mean variance tautology - основная формула CAPM модели является абсолютным математическим эквивалентом соотношения «риск - доходность» для оцениваемого портфеля (математические выкладки, доказывающие данное утверждение приводятся в работах самого Ролла);
· Unobservable market portfolio - рыночный портфель должен содержать все возможные активы, отдача от которых не всегда наблюдаема в силу различных факторов.
Следствием из первого утверждения является тот факт, что, при тестировании CAPM модели, результат проведенной оценки должен соответствовать выбранному рыночному портфелю, который включает все возможности (не только финансовые активы) для инвестирования. Однако второе утверждение делает тестирование модели невозможным из-за невозможности составления такого портфеля.
Таким образом, для аналитиков самым важным выводом из критики Ричарда Ролла является утверждение о том, что выбор рыночного портфеля может в значительной степени повлиять на результирующие значения оценки актива в общем и на значение в - коэффициента, в частности. Соответственно, при проведении оценки актива или портфеля, необходимо совершенно четко представлять, как изменится значение в, если в качестве рыночного портфеля выбрать тот или иной экономический индекс. Однако в этой ситуации нельзя забывать и об обратной стороне этого вывода: выбирая экономический индекс или рыночный портфель, который будет изменять значения в - коэффициента, нельзя ориентироваться на какие-то другие показатели, которые бы требовали конкретного значения рыночно риска, и выбирать рыночный портфель в угоду этих показателей. Такой подход можно было бы считать подгонкой значений, что еще больше бы ухудшало результаты анализа.
1.2 Критика устойчивости в - коэффициента
Следующим блоком критики можно рассматривать критику относительно непосредственно в - коэффициента, а именно критику устойчивости данной меры риска, как ключевого параметра CAPM модели. В качестве основных, в данном случае, можно рассматривать работы Роберта Леви, Маршала Блюма и Майрона Шоулза и Джозефа Вильямса.
Роберт Леви проводил исследование на основе данных об акциях 500 компаний, которые проводили листинг на N.Y.S.E. (по аналогии с S&P 500), причем в - коэффициент рассчитывался на периодах в 13, 26 и 52 недель. Результатом исследования стал вывод о том, что данный коэффициент является более стабильным для портфелей с большим числом акций, менее стабильным для портфелей со средним набором и абсолютно непредсказуем для отдельных активов. Вместе с этим, Р. Леви также сделал вывод о том, что с увеличением прогнозного периода возрастает обоснованность в - коэффициент (при переходе от 13 к 26 неделям в большей степени, при переходе от 26 к 52 неделям - в меньшей). Также автор отметил, что наиболее подходящим для прогнозирования будет портфель, состоящий из более, чем 25 ценных бумаг, при условии, что исторический интервал будет не менее 26 недель.
Маршалл Блюм проводил исследования относительно фирм с высокой и низкой долями риска, сделав вывод, что компании (как крупных, так и мелких) с более высокой степенью риска, со временем, приводят свои показатели в норму (либо относительно рынка, либо относительно отрасли). Более того, автор сделал вывод о том, что в - коэффициент любой компании со временем стремится к 1. Таким образом, основным результатом исследований Маршалла Блюма стала корректировка формулы для нахождения в:
,
где в - мера рыночного риска, рассчитанная по формуле классической модели CAPM.
Майрон Шоулз и Джозеф Вильямс строили свое исследование относительно размера оцениваемых фирм. В основе лежит проблема запаздывания реакции на события, происходящие на рынке, малых по капитализации компаний и компаний с низкой ликвидностью акций, причем проблема запаздывания обратно-пропорциональна размеру компании. Таким образом, в следствии наличия временного лага в цене акций подобных фирм, аналитики вынуждены работать с лаггированными (иначе, «накопленными») в - коэффициентами. В результате, при работе с такими компаниями, аналитикам приходилось составлять «книгу бет» и высчитывать скорректированный в, как медиану лаггированных бета - коэффициентов. Решением данной проблемы стала корректировка Шоулза - Вильямса, которая учитывала особенности малых компаний и позволяла рассчитать в - коэффициент с учетом названных недостатков:
,
где в - коэффициент эластичности доходности актива относительно доходности рыночного портфеля, оцененный регрессионным методом, и - аналогичные значения для предыдущего и следующего периода, соответственно, - коэффициент автокорреляции рыночной доходности.
В результате исследований, проведенных Р. Леви, М. Блюмом, М. Шоулзом и Д. Вильямсом, аналитики располагают методами, сглаживающими ошибки устойчивости в - коэффициента во времени. Выбор же метода корректировки, в свою очередь, зависит исключительно от аналитика. Так, например, Bloomberg и Value Line, в основном, используют корректировку Маршала Блюма.
Существует также альтернативный подход, решающий проблему устойчивости в - коэффициентов, а именно: Market Derived Capital Pricing Model (MCPM). Особенностью данной модели является использование данных, полученных на рынке срочных контрактов. В данном случае ожидаемая доходность акций компании рассчитывается по формуле:
,
где p - цена опциона пут на ценные бумаги компании, - доходность облигаций компании за период T, - спотовая цена акции. В данной модели предполагается, что компания, для привлечения дополнительных средств, будет широко использовать инструменты долгового рынка, в частности облигационные займы. Такое предположение отражено в формуле в виде доходности облигаций. По сравнению с CAPM моделью, MCPM, несмотря на ее реалистичные прогнозные оценки, не имеет аналогичной мощной теоретической базы. Более того, данная модель не подходит для анализа малых компаний, ввиду их слабого присутствия на рынке, а именно: нет опционов на акции таких компаний, слабая ликвидность или полное отсутствие облигаций данных фирм. Более того, сложно сказать какой именно показатель или группа показателей выполняет роль меры систематического рыночного риска. Таким образом, несмотря на возможные достоинства данной модели, мы не можем ее рассматривать как альтернативу в данной работе.
1.3 Развитость целевого рынка
Перед обсуждением проблемы размера компании, необходимо обратить внимание на рынок, на котором действует анализируемая компания. Основная проблема, связанная с характеристикой рынка выглядит следующим образом: использование CAPM на развивающемся рынке капитала некорректно. Некорректность результатов, полученных при оценки по CAPM, связана с отличительными особенностями развивающихся рынков: специфические риски, политические риски, слабая защита инвесторов, несовершенство механизмов корпоративного управления и многое другое. С другой стороны, глобальные инвесторы могли бы диверсифицировать данные риски, путем улучшения качества портфеля за счет приобретения активов компаний развитого рынка. Однако ввиду высокой корреляции развивающихся и глобального рынков капитала это невозможно.
В качестве примера можно привести несколько исследований развивающихся рынков. В 2001 году Максимилиано Гонсалез проводил тестирование CAPM модели на данных по акциям компаний, торгующихся на фондовой бирже Каракаса в период с 1992 по 1998 гг.. Автор пришел к выводу, что классическая модель на рынке Венесуэлы не работает. Основной причиной такого вывода стало заключение о том, что систематический риск - не единственный фактор, оказывающий влияние на ожидаемую доходность. Аналогичные результаты, но уже для египетского рынка, получил Мохамед Ф. Омран, который провел тестирование модели для акций 41 компании из Египта, обладающих наибольшей ликвидностью. В качестве временного отрезка был выбран период с декабря 2001 года по декабрь 2002 года, причем доходность оценивалась по недельным котировкам. Важным результатом стала следующая аномалия: выборка акций, в - коэффициент которых был ниже среднего, показала большую доходность, нежели портфель, составленный из акций с высоким показателем в. Данный парадокс автор объясняет национализацией 1950 - 1960 гг., которая оказала негативное воздействие на многие промышленные и строительные компании. В данном случае явно видны политические риски и риски корпоративного управления.
Выше говорилось о невозможности диверсификации странового риска. В своей работе Геерт Бекерт и Харви Р. Кэмпбелл в качестве основной гипотезы приняли предположение о существовании зависимости между доходностью компании и степенью интеграции целевого рынка в глобальный рынок капитала. Исследование проводилось на рынках следующих стран: Чили, Колумбия, Греция, Индия, Иордания, Корея, Малайя, Мексика, Нигерия, Тайвань, Тайланд, Зимбабве. Данные были получены от Морган Стенли (Morgan Stanley Capital International - MSCI) и Всемирного Банка (International Finance Corporation (IFC) of the World Bank). Результатом работы стал вывод об изменчивости степени интегрированности отдельного рынка в глобальный рынок. Таким образом, появляется потребность в модели, которая бы учитывала степень зависимости рынка. Стоит отметить, что потребность в такой модели доказали еще Десван и Льюбих в 1999 году. В своем исследовании авторы пришли к выводу, что степень интегрированности рынка в глобальный рынок капитала должна определять выбор модели оценки активов; чем меньше степень интеграции, тем меньше подходит классическая модель.
1.4 Критика относительно размера оцениваемой компании
Проблема корреляции размера компании и ее доходность называется «эффектом размера» («Size effect»). Суть эффекта заключается в том, что малые компании имеют, в среднем, большую доходность даже при аналогичном уровне риска по сравнению с более крупными. Первым данную закономерность обнаружил Рольф Банз в 1981 году. Однако в своих дальнейших исследованиях автор приходит к выводу, что данный эффект является характерным не только для показателя капитализации фирмы, но и для балансовой оценки собственного капитала, объемов выручки и чистой ежегодной прибыли компании. Данной проблеме посвящена также работа Ричарда Ролла. Автор, в своем исследовании, также проверяет зависимость между размером фирмы, ее уровнем риска и доходностью. Аналогично выводам Банза, Ричард Ролл приходит к выводу о наличии «эффекта размера», который присутствовал на рынке, к моменту публикации статьи, как минимум, последние 40 лет и не был учтен критикуемой моделью ценообразования активов (CAPM). Стоит также заметить, что оба автора отмечают, что данный эффект не линеен и чаще встречается в случае очень маленьких компаний. Однако более пристальное внимание стоит уделить одному очень важному замечанию: авторы заявляют, что природа «эффекта размера» не ясна и следует быть крайне осторожным при проведении взаимосвязи между размером компании и ожидаемой доходностью в каждом отдельном случае. Возможный подход для оценки компаний с незначительным объемом капитала был рассмотрен в главе про неустойчивость в - коэффициента (корректировка Шоулза - Вильямса). Однако использование данного метода не позволяет полностью исключить проблемы при трактовке полученных результатов (подразумевается трактовка корреляции размера и доходности компании).
Тем не менее, многие заинтересованные аналитики, в основном, работающие в банковской сфере, проводят аналогии размера компании с их доходностью для определения спреда доходности компании и установки ставки по кредиту. Подтверждение этому находится в работе Луиса Перейро. Основной идей авторы было предположение о наличии зависимости спред - ставок по банковским кредитам, в зависимости от размера компании. Согласно результатам исследования премия за риск, в зависимости от размера капитализации, в Великобритании держится на уровне 1,4 - 4,5%, В Аргентине находится на уровне 3% (за период 1993 - 1997 гг.). Для России данная ставка держится на уровне 3%.
Таким образом, при наличии достаточного количества данных, при анализе интересуемой компании, можно провести аналогичное исследование целевой группы или отрасли для получения численный мер размера компании. Проделанная работа позволит определить спред премии за риск малого размера компании, который в дальнейшем можно будет учитывать при оценке систематического риска.
1.5 Проблема отраслевых различий показателей доходности
В основе CAPM также лежит предпосылка об исключительной значимости систематического рыночного риска, так как любой другой риск может быть устранен путем диверсификации портфеля. Однако, эмпирическим путем доказано обратное, а именно: несистематические риски также оказывают влияние на требуемую доходность, причем в - коэффициент не способен объяснить различия в доходности сопоставимых компаний внутри одной отрасли. Основной работой в данном блоке является исследование Юджина Фама и Кеннета Френча. Авторы брали в качестве предпосылки к своему исследованию работу Котари, Шанкена и Слоуна (S. P. Kothari, Jay Shanken and Richard G. Sloan, 1995, «Another Look at the Cross-section of Expected Stock returns», The journal of Finance, Vol. L, № 1, March 1995), в которой говорилось о том, что в - коэффициент, рассчитанные по данным из годовых отчетов компании имеет более устойчивую связь со средней доходностью акции, а не с ее месячными доходностями. Однако более важным, в нашем случае, выводом исследования Котари, Шанкена и Слоуна стало заявление о том, что взаимосвязь между средней доходностью и соотношением «балансовая стоимость - рыночная стоимость» (book to market equity, BE/ME) в значительной степени преувеличена. Оттолкнувшись от данного вывода, Фама и Френч сделали предположение о том, что данная связь абсолютна невозможна и в - коэффициент не способен объяснить, как взаимосвязь между балансовыми характеристиками компании и ее средней доходностью, так и ожидаемую доходность.
Результатом работ Фама и Френча стали выводы о том, что используемые прокси для рыночного портфеля не обладают достаточными данными для получения полноценных результатов оценки и что модель ценообразования необходимо расширить, чтобы учесть размер капитализации и соотношение балансовой и рыночной стоимостей компаний. Таким образом, авторы вывели собственную многофакторную модель, которая в данной работе будет рассмотрена дальше.
1.6 Проблема поведения инвесторов
Идея о рациональном поведении инвесторов говорит, что инвестор, при выборе актива, должен ориентироваться на чистый риск, однако исследования показывают, что чаще выбираются именно спекулятивные активы (волатильность которых выше средней). Однако стоит вспомнить, что дисперсия, используемая при оценке систематического рыночно риска, является двусторонней, а значит оценивает отклонение от среднего значения цены как в стороны повышения, так и в сторону понижения. Таким образом, для инвестора относительная степень риска акции, цены которой растут, аналогична акции, цены которой падают.
В 1996 году Kent D. Miller и Michael J. Leiblein провели достаточно интересные исследования, результаты которых показали, что инвесторы не склонны к одностороннему отрицательному риску. Результаты данного исследования подтверждают аналогичные наблюдения других аналитиков, сделанные ранее. Основой работ, связанных с использованием одностороннего распределения, стало исследование William W. Hogan и James M. Warren, показавшее, что использование одностороннего отклонения не меняет фундаментальной структуры CAPM модели.
Результатом подобных исследований стало появление различных модификаций CAPM модели, основанных на одностороннем распределении. Однако в чем заключался недостаток двустороннего распределения и зачем использовать одностороннее? Сначала скажем почему двусторонняя дисперсия - это не совсем хорошо:
· она подходит только для активов, ожидаемая доходность которых распределена симметрично;
· симметричное распределение, о котором было сказано в первом пункте, имеет нормальный вид.
Однако, как правило, ожидаемая доходность смещена в ту или иную сторону, что нарушает данную предпосылку и в значительной степени ухудшает результат, полученный при такой оценке. Соответственно, при использовании одностороннего распределения, аналитику не надо заботится о нормальности распределения ожидаемой доходности.
В результате, в 1977 Vijay S. Bawa и Eric B. Lindenberg рассматривали проблему асимметрии доходности, которую им удалось решить с помощью LPM (Lower Partial Moment - метод случайных величин). Формула расчета в - коэффициент в данной модели имела следующий вид:
,
где - доходность i-того актива, - доходность рыночного портфеля, - безрисковая ставка. Можно также отметить, что к аналогичной модели пришли в 1974 Хоган и Воррен.
К аналогичному методу можно отнести формулу, предложенную W. V. Harlow и Ramesh K. S. Rao, с той только разницей, что в данном случае инвесторы рассматривают риск как отклонение от какого-либо целевого уровня, например, среднерыночной доходности:
,
где - средняя доходность i-го актива, а - среднерыночная доходность. Данные модели являются аналогичными, так как в основе обеих лежит метод случайных величин (LPM).
В модели Бавы - Линденберга и Хогана - Воррана, изменение риска анализируемого актива происходит только при превышении доходности актива безрисковой ставки, причем рыночная доходность должна быть ниже данной ставки (учитывается левостороннее отклонение рыночной доходности). В модели Харлоу и Хароу можно наблюдать аналогичную ситуацию, но, в данном случае, роль безрисковой ставки заменяется среднерыночной доходностью, то есть, опять же, учитывается отклонение рыночной доходности. Таким образом, основным недостатком вышеперечисленных моделей можно считать тот факт, что они не учитывают отклонение доходности по активу.
1.7 Новые модели CAPM
DCAPM.
Еще одним интересным подходом к оценке систематического риска актива, суть которого заключается в анализе полезности инвестора на основе средней и полу-дисперсии доходности данного актива, разработал Хавьер Эстрада. Данная модель получила название DCAPM и в - коэффициент в ней рассчитывался по следующей формуле:
,
где - ожидаемая доходность i-го актива, - ожидаемая доходность рынка. Отличительной особенностью данной модели стала хорошая объясняющая способность доходности собственного капитала на различных уровнях (отрасль, страна, глобальная модель). Также Эстрада доказывает, на основе собственных эмпирических исследований, в которых брались данные по выборке из 27 стран с развивающимся рынком капитала и 23 стран с развитым рынком капитала в период 1988 - 2001 гг., что использование DCAPM дает более точные результаты.
Предложенная Эстрадой модель показалась аналитикам и экономистам в общем достаточно интересной, в результате чего появилось множество исследований, которые как подтверждали выводы Эстрады, так и опровергали их. Далее будет приведено несколько примеров таких работ.
Самюэль Монграт и еще несколько авторов рассматривали выборку из 32 компаний, располагающихся в Балтийском регионе, в период 2000-2008 гг.. Для сравнения авторы использовали результаты, полученные с помощью DCAPM, GCAPM и CAPM, предложенной Дамодараном в 2002 году. Данное исследование подтвердило выводы Эстрады, показав результаты, адекватно отражающие различия в стоимости капитала компаний из разных отраслей. В 2010 Foong Swee-Sim и Goh Kim-Leng провели исследование для определения лучшей модели оценки меры риска актива для компаний Малазии в 2000-2007 гг.. В работе сравнивались как однофакторные, так и двухфакторные модели CAPM. Интересующая же нас Downside CAPM рассматривалась в оригинальном виде, в виде DGCAPM (Global) и двухфакторной DCAPM. Наиболее подходящими для Малазии авторы назвали двухфакторные модели CAPM и DCAPM. Однако стоит заметить, что в заключении было также сказано, что выводы, полученные в ходе исследования подтверждают выводы Эстрады. Исследование, проведенное в 2009 году Turan G. Bali, K. Ozgur Demirtas и Haim Levy, было направлено на изучение взаимосвязи ожидаемой доходности актива и одностороннего риска. В качестве данных бралась месячная доходность индексов американского рынка (NYSE/AMEX/NASDAQ, NYSE/AMEX, NYSE, NASDAQ, S&P500) в период 1962 - 2005 (NASDAQ с 1973) гг.. В результате авторы обнаружили положительную связь односторонней меры риска и ожидаемой доходности актива.
Нельзя также пропустить два исследования, проводившихся на данных российского рынка. В 2006 Бухвалов и Окулов провели тестирование для 74 отечественных компаний в период с 1996 по 2002 гг.. В 2011 аналогичное исследование провели Теплова и Шутова. В данном случае было рассмотрено 50 компаний из России в период с 2004 по 2010 гг. В обеих работах авторы отмечают превосходство DCAPM над классической моделью и над некоторыми вариациями. Однако более важным, в данном случае, выводом стало замечание о слабой объяснительной силе модели Эстрады.
В качестве последней негативной работы, рассмотрим исследование Цончева и Костенарова, которые для тестирования взяли данные Болгарской Фондовой Биржи в 2004-2009 гг.. Для тестирования использовалось 5 различных подходов к оценке систематического риска: CAPM, DCAPM и 3 модели собственные модификации CAPM. Авторы пришли к выводу, что все модели показывают плохие результаты, в частности имеют слабую объяснительную силу. Более того, было сделано заключение, о том, что модели, которые учитывали асимметрию, показали результаты несколько хуже, по сравнению с CAPM.
Данные исследования говорят о том, что невозможно использовать DCAPM модель, предложенную Эстрадой, как универсальный алгоритм оценки систематического риска актива. Более того, они позволяют сделать предположение о необходимости проведения дополнительного исследования для определения подходящего метода оценки в каждом отдельном случае.
ECAPM.
Перед разбором данной модели необходимо вспомнить про один из ключевых недостатков, из-за которого (отчасти, но не только из-за этого) было проведено столько исследований и разработано столько различных моделей: поведение инвесторов, зачастую, нерационально. В работе Юрия Дранева, противоречивость проведенных эмпирических исследований, объясняется, в том числе, именно этим фактором, а именно: склонностью инвесторов к чрезмерной панике во время негативной динамики на рынке. В связи с этим, автор предлагает новые параметры для измерения меры систематического риска и прогнозирования доходности: энтройпийный в - коэффициент и энтропийное отклонение. В данном случае подразумевается, что, при оценке риска, падение котировок будет рассматриваться с большим весом, нежели рост. Таким образом, получившийся в - коэффициент также является односторонней мерой, но, в это же время, значительно отличается от асимметричной. Предложенная Драневым формула выглядит следующим образом:
,
где - доходность i-го актива, - доходность рыночного портфеля.
Автор проводил исследование для 63 российских компаний в период 2003 - 2012 гг., при этом исследование проводилось для двух групп:
· классический, односторонний и энтропийный в - коэффициенты;
· стандартное отклонение, полу-отклонение, энтропийное отклонение и энтропийная дисперсия.
Так как авторы разбили исследуемый отрезок времени на несколько частей, то результаты оценки позволили сделать более точные выводы. В первую очередь, проведение тестов для докризисного периода (2003 - 2008 гг.) показало превалирующий интерес инвесторов к росту стоимости акций. На этом участке односторонние меры риска показывали относительно плохие результаты. Тестирование модели на участке с 2008 по 2012 года, когда движения рынка не имели какого-либо долгосрочного тренда, показало, что инвесторы в равной степени обеспокоены как ростом котировок, так и их падением. На данном отрезке наилучшие результаты оказались при использовании стандартного отклонения.
Отдельно стоит отметить результаты тестирования для всего участка 2003 - 2012 гг. и для каждого года в отдельности. Наибольшую коррелированность в - коэффициент и доходность акций показала в 2008 году, когда рынок находился в состоянии кризиса и можно было явно отметить значительное падение котировок. В данный период мера риска, рассчитанная в соответствии с классической моделью показала более качественные результаты, по сравнению с аналогичными, но рассчитанных на основе односторонних и энтропийной моделей. Этот факт, как и в период 2008 - 2012 гг., говорит о том, что инвесторы снова в равной степени оценивают движения рынка в направлении роста и в направлении падения. Результатом анализа таких результатов стало предположение о том, что в периоды экономических потрясений ожидания инвесторов относительно доходности имеют относительно нормальное распределение. Результаты оценки модели для всего периода с 2003 по 2012 гг., напротив, показали плохие значения, обладающие слабой объяснительной силой. Соответственно, можно говорить, что модель CAPM в любой ее модификации невосприимчива к изменениям в отношениях инвесторов к риску и, поэтому, не может справиться с изменениями в поведении инвесторов.
Подводя итог исследования Дранева и Фомкиной, хочется отметить, что важным результатом являются наблюдения о том, что:
· в периоды экономической стабильности инвесторов интересует, в большей степени, восходящее движение рынка; для данных периодов больше всего подходят классическая CAPM модель и ее двусторонние модификации;
· в периоды неопределенности на рынке инвесторы в равной степени обеспокоены как падениями, так и ростом котировок, что делает модели, основанные на односторонних оценках доходности более подходящими; превосходящая объяснительная сила энтропийных методов предполагает их большую пригодность.
Проблему долгосрочного прогнозирования авторы предлагают решать с помощью использования различных модификаций, однако каких именно не указывается.
Метод фундаментальных параметров.
Зачастую крупной компании, при запуске какого-нибудь нового проекта невыгодно создавать его как собственное подразделение, так как это увеличивает риски (в том числе кредитные риски), а значит ухудшает рейтинг компании. Таким образом, чтобы избежать негативных последствий создания нового бизнеса, компания организует дочернее предприятие, 100% которого принадлежит головной компании. Плюс данного решения в том, что дочерняя компания принимает на себя все возможные риски, снимая их с головной компании. В результате, функционирование такой организации, в большей степени, будет зависеть от материнской компании. Соответственно, при анализе ценных бумаг подразделения или дочерней компании крупных холдингов, этот факт необходимо учитывать.
Существует две популярные модели, предназначенные для анализа подобных компаний:
· модель фундаментальных показателей (в том числе и метод аналогов Фуллера - Керра);
· модель бухгалтерского в.
Суть первого метода заключается в компоновке классического подхода к оценке в - коэффициента и отдельных фундаментальных показателей, которые можно найти в стандартной отчетности компании. Если быть точнее, то необходимы данные из бухгалтерского баланса и отчета о прибылях и убытках. Основным достоинством данного метода является учет положения компании на рынке и оценка ее стабильности.
Так, значимыми, по исследованиям А. Дамодарана, являются следующие показатели: дивидендная доходность, коэффициент вариации (как правило, стандартное отклонение) операционной прибыли, размер компании, финансовый рычаг (размер финансового рычага определяется по формуле D/S), темп роста прибыли и общие активы. Причем, данные показатели берутся с конкретными показателями, полученными в результате эмпирической оценки (опять же, по исследованиям Дамодарана). Таким образом, формула приобретает следующий вид:
Логическим продолжением данной модели является метод аналогов. Основным достоинством данного подхода можно назвать возможность проведения анализа компании даже в случае отсутствия отчетности. Одним (если не самым главным) из минусов является способ подбора компаний - аналогов. Каждый аналитик должен на свое усмотрение выбирать компании, которые лягут в основу оценки анализируемой компании, что делает эту оценку крайне субъективной и неоднозначной. В соответствии с работой Фуллера - Керра предполагается следующий алгоритм:
1. подбирается компания или несколько компаний, аналогичные анализируемой;
2. с помощью регрессионной модели оценивается в - коэффициент; если было выбрано несколько компаний, то берется медианное значение полученных показателей, либо усредненное с различными коэффициентами (например, с учетом рыночной капитализации);
3. полученный в пункте 2 результат корректируется с учетом фундаментальных показателей анализируемой компании.
Так как совершенно нормальным явлением будет расхождение в структуре операционных показателей и в структуре капитала анализируемой компании и компании - аналога, то 3 - й пункт необходим, чтобы сгладить неточности в - коэффициента при применении его к интересующей компании. Соответственно, приведение в - коэффициента предполагает следующий алгоритм:
1. устранение финансового риска компании - аналога, например, по формуле Хамады;
2. устранение операционного рычага, а затем рассчет фундаментального в - коэффициента компании - аналога;
3. скорректировать фундаментальный коэффициент компании - аналога на требуемы показатель анализируемой компании.
Как правило, используют поправку на финансовый рычаг компании, что приводит формулу к следующему виду:
.
2. Нейронные сети
2.1 Преимущества и недостатки нейронных сетей
Использование линейных моделей для определения систематического рыночного риска в некоторых случаях может давать близкие к реальности результаты. Однако основной проблемой данного подхода является предположение о том, что на целевом промежутке времени процесс ценообразования сохранит свои свойства по сравнению с анализируемым промежутком. На самом же деле, если оценить распределение доходностей актива в два случайно выбранных промежутка времени (даже внутри дня), например, в начале и в конце дня, то мы получим совершенно разные значения. Это справедливо в силу того, что ценообразование на финансовом рынке является авторегрессионным процессом и влияние предыдущих значений затухает с каждым лагом. Таким образом, линейные модели не могут гарантировать высокой точности прогноза систематического рыночного риска.
Соответственно, нелинейность моделей нейронных сетей является их основным преимуществом перед представленными выше моделями. Стоит также отметить, что в простых моделях нейронных сетей исследователю приходилось самому выбирать ключевые характеристики и преобразовывать входные данные для получения лучшего результата работы сети. Однако использование многослойных нейронных сетей (глубокое обучение) значительно упрощает работу исследователя, так как ключевые характеристики анализируемого процесса будут сформированы в процессе обучения.
2.2 Искусственная нейронная сеть
Прежде всего необходимо дать определение искусственной нейронной сети: математическая модель, в основе которой лежит принцип формирования естественных нейронных сетей - нервных клеток. Изучение таких моделей началось в середине 20 века, а если быть точнее, то, примерно, с 1943 года, когда Мак-Калок и Питтс в своей работе дали определение искусственной нейронной сети и формализовали модель нейрона. Следующими значимыми работами, определившими ход развития нейронных сетей на ближайшие десятилетия стали работы Дональда Хебба, который предложил алгоритм и сформулировал основные принципы обучения, и Франка Розенблатта, который создал математическую модель мозга для восприятия и обработки входящей информации.
Нейрон.
Нейронная сеть представлена одним и больше слоями нейронов. Нейрон, как самостоятельную единицу сети можно разделить на четыре части: синапсы, сумматор, функция активации и аксон. Стоит также отметить, что нейроны разделяют на входные и выходные (также можно выделить промежуточные, но они никак не отличаются от выходных). Входные нейроны не осуществляют никаких операций и принимают исходные значения в качестве данных. Соответственно, в дальнейшем мы будем говорить только о выходных нейронах.
Синапсы являются связями между нейронами соседних слоев и характеризуются собственными весами. Веса синапсов определяют значения, которые будут получены от предыдущего слоя. Произведение веса синапса и входного сигнала передаются сумматору, который складывает полученные значения, определяя уровень возбуждения нейрона. Формула сумматора может варьироваться в зависимости от модели сети, но, как правило, она неизменна и является просто суммой входных значений. Функция активации, которая также называется передаточной функцией, необходима для определения выходного значения нейрона. Передаточная функция может являться как пороговой функцией (функция Хевисайда), так и сигмоидной. В настоящее время, как правило, используется сигмоидальная передаточная функция, однако стоит учесть, что ее использование зависит от поставленной задачи. Под сигмоидой, обычно, понимают логистическую функцию, тем не менее, никто не ограничивает ее вид, поэтому автор волен использовать любую функцию, способную наиболее точно описать целевое значение. Так, например, если целевое значение лежит в диапазоне от минус одного до одного, то вполне логично было бы использовать гиперболический тангенс.
Последним элементом нейрона является аксон. По сути, в текущем контексте, аксон - выходное значение нейрона. Аксон не всегда модифицирует значение, полученное от передаточной функции, однако в некоторых ситуациях это необходимо. В дальнейшем будет говориться о семплировании нейрона (используется в алгоритмах обучения глубоких нейронных сетей) - процедуре переопределения значения нейрона. При семплировании значение, полученное на предыдущем шаге интерпретируется как вероятность активации нейрона (в силу такой интерпретации, активационная функция выбирается таким образом, чтобы выходное значение лежало в пределах от нуля до единицы). В случае биномиального типа нейронов, функция аксона сводится к функции Хевисайда. В остальных же случаях, например, когда значение нейрона должно иметь нормальное распределение, выходное значение может быть получено как произведение текущего значения нейрона и вероятности его активации. В этом случае, значение аксона можно интерпретировать как математическое ожидание.
2.3 Перцептрон и обратное распространение ошибки
Перцептрон Розенблатта является самой простой моделью нейронной сети. Изначально, в работах Розенблатта, сеть была представлена всего двумя слоями: входной и выходной. Однако в следующих свих работах он уже рассматривал многослойные перцептроны. Тем не менее, они еще были далеки от глубоких нейронных сетей, которые имеют большое количество скрытых слоев, в силу ограничений, связанных с алгоритмом обучения.
Основные идеи, лежащие даже в современных алгоритмах обучения, были предложены Дональдом Хеббом еще в 1949 году. Хебб был нейропсихологом и сформировал свои правила обучения нейронной сети, руководствуясь принципами работы естественных нейронов. Он сформировал два правила для случаев неверного сигнала нейронной сети:
· Если выходной сигнал равен нулю, следует увеличить значения синапсов, идущих к активным нейронам.
· Если выходной сигнал равен единице, следует уменьшить значения синапсов, идущих к активным нейронам.
Иными словами, можно сказать, что синаптическая связь между двумя нейронами увеличевается, если оба эти нейрона активны. В общем виде эти два правила представляют собой дельта-правило, которое определяет алгоритм изменения веса синапса. Если определить выходной вектор нейронной сети как Out, а целевой вектор данных как Real, то отклонения полученного из входных данных вектора от целевого вектора (ошибку) можно записать как разницу двух векторов:
Тогда, следуя правилам Хебба, изменение веса можно определить следующей формулой:
,
где W - вектор весов, In - вектор входных данных, - скорость обучения.
Дальнейшее развитие данного алгоритма, обусловленное необходимостью решать более сложные задачи (прогнозирование непрерывных значений), привело к изменению формулы ошибки:
.
В таком виде, задача обучения нейронной сети сводится к задаче минимизации среднеквадратичной ошибки. В случае такого задания ошибки, исследователь волен выбирать алгоритм решения данной задачи, но самым простым, который лег в основу алгоритма обратного распространения ошибки, является метод градиентного спуска. Соответственно, изменение веса представляется следующей формулой:
Данная формула актуальная для однослойного перцептрона, однако она требует некоторой модификации, если добавляется один и более скрытых слоев. Стоит заметить, что на данном этапе происходит переход от перцептрона Розенблатга к многослойному перцептрону Румельхарта. Важно понимать, что многослойную нейронную сеть создавал и Розенблатг, однако отличие от сети Румельхарта было в том, что у последнего один алгоритм обучал сразу все слои. При таком подходе выходное значение сети зависит от каждого слоя последовательно. Так как каждый нейрон представлен суммой произведения веса и входного значения (S=W*In), формула градиента представляется следующим образом:
.
После некоторых преобразований, в общем виде изменение веса записывается следующей формулой:
,
где определяется в зависимости от уровня слоя; в общем же виде получается следующая формула:
,
где l - уровень слоя.
Сходимость данного алгоритма и модели перцептрона в целом, была доказана Розенблатгом. Таким образом, в процессе обучения мы гарантированно находим такие значения весов, которые дадут нам минимальное значение ошибки. Однако, ввиду того, что алгоритм обучения является модификацией метода градиентного спуска, нельзя гарантировать, что полученное решение будет являться глобальным оптимумом. Следующим недостатком является размер шага. Сходимость метода гарантируется при достаточно малой скорости обучения, однако это приводит к увеличению времени обучения сети. Еще один недостаток алгоритма проявляется при увеличении количества слоев, поскольку при распространении ошибки происходит сжатие корректировки S с каждым следующим слоем, то изменения весов между слоями в начале сети практически не происходит.
Для устранения этих недостатков были разработаны другие модели и алгоритмы обучения нейронных сетей, а именно: сети, основанные на байесовском подходе, и алгоритмы обучения глубоких нейронных сетей (предобучение).
2.4 Байесовский подход
Совершенно иной подход к определению активации отдельных нейронов используется в байесовских сетях (сети доверия, belief network). В чем заключается суть байесовского подхода? Теорема Байеса говорит о том, что можно определить вероятность наступления какого-то случайного события при условии наступления другого взаимозависимого события. В виде формулы это выглядит следующим образом:
.
Стоит отметить, что интерпретируется как априорная вероятность события - как апостериорная. В текущем контексте - вероятность наступления интересующего нас события, в зависимости от состояния системы. В данном случае под состоянием системы подразумеваются значения весов синапсов (и других параметров, если таковые имеются). отражает вероятность активации нейронов видимого слоя, в зависимости от состояния нейронов скрытого слоя, при фиксированных параметрах сети. С одной стороны, нас не интересует обратная задача, так как мы имеем входные данные В и хотим получить выходные значения - А. С другой - нельзя забывать правила Хебба, а именно выводы из правил: в процессе обучения причинная связь между видимыми нейронами и скрытыми должна усиливаться. Таким образом, состояния нейронов видимого слоя, полученные на основе данных о нейронах в скрытом слое, должны быть идентичны входным значениям. Следовательно, концентрируясь на задаче максимизации апостериорной вероятности, нельзя забывать про условие:
.
Байесовская сеть доверия.
Развивая тему байесовской сети доверия, необходимо сказать про ее структуру. Изначально предполагалось, что входные данные независимы и имеют нормальное распределение. Это позволяло, в соответствии с правилами теории вероятностей, интерпретировать взаимное распределение двух и более случайных величин как произведение распределений плотности вероятности этих величин. Также была введена гипотеза об условной независимости, из которой следует, что любой выходной нейрон условно не зависит от любой родительской группы нейронов, не содержащей данного скрытого нейрона или его потомков. Использование двух данных предположений позволило в значительной степени упростить процедуру оценки условных вероятностей. Таким образом, формулы условной вероятности значения скрытых нейронов от одного видимого и значения скрытого нейрона от нескольких видимых можно представить:
.
Для построение сети любого размера необходимо рассмотреть всего два случая: сходящаяся связь и расходящаяся связь. Важно отметить, что сеть Байеса представляется как направленный граф без направленных циклов, поэтому визуально оценить структуру данной сети (в разрезе указанных случаев).
Расходящаяся связь говорит о том, что выходные нейроны являются условно независимыми. Соответственно, их условное распределение выглядит следующим образом:
.
Со сходящейся связью все несколько сложнее, так как формула условной вероятности скрытого нейрона записывается как:
и не раскладывается на:
,
если видимые нейроны не являются условно независимыми. Зависимость появляется после определения значения скрытого нейрона, так как оно начинает влиять на вероятность активации видимых нейронов. Интересным фактом является отсутствие условной независимости входных нейронов, даже если наблюдается не непосредственно сам скрытый нейрон, а его потомки (не зависимо от глубины графа).
2.5 Метод максимального правдоподобия
Еще одним простым, но эффективным методом обучения нейронной сети, который широко используется и в других моделях, является метод максимального правдоподобия. Суть метода заключается в максимизации функции правдоподобия. Как правило, в качестве данной функции используют логарифм. Однако, независимо от того, какая выбрана функция, дальнейший алгоритм сводится к методу градиентного спуска. Я считаю, что нет необходимо детально описывать сам метод, так как он является достаточно распространенным и его использование в нейронных сетях ничем не отличается от использования в других моделях анализа данных.
3. Физические системы и энергия
Физическая система, как и байесова сеть доверия использует вероятностный подход для определения состояния системы, однако отличие от какой-либо другой модели нейронной сети заключается в использовании энергии для определения данной вероятности. Логика статистической механики заключается в том, что определить вероятность состояния системы можно определить исходя из энергии системы в текущем состоянии и свободной энергии системы, которая не зависит от текущего состояния. Формула вероятности выглядит следующим образом:
...Подобные документы
История возникновения и развития нейронной сети, ее значение и применение. Реализация приложения, позволяющего определить фигуры изображенные пользователем на панели приложения. Создание однослойной нейронной сети (персептрон) с возможностью её обучения.
курсовая работа [860,1 K], добавлен 13.07.2012Анализ возможности применения нейронных сетей в оценке вероятности наступления банкротства предприятия в современных условиях хозяйствования. Проблема рисков в экономике. Финансовые коэффициенты, применяемые в российских методиках оценки банкротства.
курсовая работа [451,6 K], добавлен 14.08.2013Общая характеристика и функциональные особенности пакета SPSS для Windows, его назначение и анализ возможностей. Основные понятия и методики эконометрического прогнозирования, порядок использования для данного прогнозирования инструментов пакета SPSS.
курсовая работа [507,1 K], добавлен 28.03.2010Определение роли индексов потребительских цен в экономике. Нейронные сети и их применение в прогнозировании. Определение долгосрочной оценки паритета покупательной способности по странам, денежно-кредитной политики по установлению процентных ставок.
презентация [108,3 K], добавлен 14.08.2013Основные методы прогнозирования. Критерии качества прогнозных моделей. Разработка прогнозной модели. Классификация прогнозных моделей. Математическая прогнозная модель. Разработка аналитических моделей. Основные ограничения длины прогнозного периода.
презентация [1,2 M], добавлен 09.07.2015Принципы и методы построения линейных, нелинейных моделей спроса, применение эконометрических моделей на практике. Эконометрическое моделирование спроса на автомобили в РФ, проверка значимости коэффициентов, автокорреляции, наличия гетероскедастичности.
дипломная работа [3,9 M], добавлен 30.01.2016Понятие недвижимого имущества. Процесс оценки стоимости недвижимости. Влияние пространственного и экологического фактора на стоимость объекта недвижимости. Интуитивные (экспертные) и адаптивные методы прогнозирования. Модель многослойного персептрона.
дипломная работа [1,8 M], добавлен 21.03.2011Классические подходы к анализу финансовых рынков, алгоритмы машинного обучения. Модель ансамблей классификационных деревьев для прогнозирования динамики финансовых временных рядов. Выбор алгоритма для анализа данных. Практическая реализация модели.
дипломная работа [1,5 M], добавлен 21.09.2016Исследование особенностей разработки и построения модели социально-экономической системы. Характеристика основных этапов процесса имитации. Экспериментирование с использованием имитационной модели. Организационные аспекты имитационного моделирования.
реферат [192,1 K], добавлен 15.06.2015Методы социально-экономического прогнозирования. Статистические и экспертные методы прогнозирования. Проблемы применения методов прогнозирования в условиях риска. Современные компьютерные технологии прогнозирования. Виды рисков и управление ими.
реферат [42,4 K], добавлен 08.01.2009Подходы к оценке стоимости финансовых активов в рамках линейной и нелинейной парадигмы. Анализ фрактальных свойств американского фондового рынка. Разработка методики расчета параметров модели Веге-Изинга, построенной на основе гипотезы когерентных рынков.
дипломная работа [2,3 M], добавлен 13.12.2010Основные понятия и типы моделей, их классификация и цели создания. Особенности применяемых экономико-математических методов. Общая характеристика основных этапов экономико-математического моделирования. Применение стохастических моделей в экономике.
реферат [91,1 K], добавлен 16.05.2012Базовые понятия искусственного нейрона: структура, активационные функции, классификация. Изучение преимуществ нейронных сетей, позволяющих эффективно строить нелинейные зависимости, более точно описывающие наборы данных, чем линейные методы статистики.
реферат [88,7 K], добавлен 17.05.2010Раскрытие содержания математического моделирования как метода исследования и прогнозирования развития объектов народного хозяйства. Алгоритмы, модели и функции процедуры Эйткена. Оценивание ковариационной матрицы вектора при оценке объектов недвижимости.
статья [56,4 K], добавлен 14.10.2012Модель оценки долгосрочных активов (Capital Asset Pricing Model, САРМ). Оценка доходности и риска на основе исторических данных. Выбор оптимального портфеля из рискованных активов. Риск и неопределенность денежных потоков. Расчет бета-коэффициента.
презентация [104,1 K], добавлен 30.07.2013Определение понятия страховых рисков. Изучение основ математического и компьютерного моделирования величины премии, размера страхового портфеля, доходов компании при перестраховании рисков, предела собственного удержания при перестраховании рисков.
дипломная работа [1,7 M], добавлен 17.09.2014Анализ основных способов построения математической модели. Математическое моделирование социально-экономических процессов как неотъемлемая часть методов экономики, особенности. Общая характеристика примеров построения линейных математических моделей.
курсовая работа [1,3 M], добавлен 23.06.2013Типовые модели менеджмента: примеры экономико-математических моделей и их практического использования. Процесс интеграции моделей разных типов в более сложные модельные конструкции. Определение оптимального плана производства продуктов каждого вида.
контрольная работа [536,2 K], добавлен 14.01.2015Основные задачи и принципы экстраполяционного прогнозирования, его методы и модели. Экономическое прогнозирование доходов ООО "Уфа-Аттракцион" с помощью экстраполяционных методов. Анализ особенностей применения метода экспоненциального сглаживания Хольта.
курсовая работа [1,7 M], добавлен 21.02.2015Обзор основных инструментов, применяемых в прогнозировании. Характеристика базовых методов построения прогнозов социально-экономических систем при помощи программного обеспечения MS EXCEL. Особенности разработки прогнозных моделей на 2004, 2006 и 2009 гг.
лабораторная работа [218,4 K], добавлен 04.12.2012