Алгоритм выявления причинно-следственных связей на основе эмпирических данных
Формальные определения корневой, прямой и непрямой причин посредством математического аппарата причинных байесовых сетей (БС). Этапы задачи обучения БС на основе статистических данных. Разработка алгоритма структурного обучения причинной байесовой сети.
Рубрика | Математика |
Вид | статья |
Язык | русский |
Дата добавления | 27.05.2018 |
Размер файла | 442,4 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
УДК004.8; 122
Алгоритм выявления причинно-следственных связей на основе эмпирических данныхНаучно-исследовательская работа выполнена в рамках реализации ФЦП «Научные и научно-педагогические кадры инновационной России» на 2009-2013 гг. (государственный контракт № П770 от 20.05.10).
С.В. Ешин
Аннотация
Предложен алгоритм автоматизированного выявления причинно-следственных связей в эмпирических данных, представляющий собой улучшенный вариант алгоритма inductivecausation (IC), предложенного Т. Верма и Дж. Пэрлом. С помощью математического аппарата причинных байесовых сетей впервые даны формальные определения корневой, прямой и непрямой причин. Предложены новые правила ориентирования ребер в паттерне байесовой сети на основе информации о типах причин.
Ключевые слова: причина, причинно-следственные связи, байесова сеть, выявление причинности, эмпирические данные.
причинный байесовый обучение математический
Причинно-следственные рассуждения являются одними из наиболее мощных средств, которыми пользуются люди в своих попытках понять и объяснить происходящие события и явления. Обычно человек выстраивает некоторые причинно-следственные теории относительно того, что происходит и как это происходит. Позже эти теории применяются для устранения нежелательных явлений путем устранения их причин. Выявление причинно-следственных связей на основе данных занимает центральное место в эпидемиологии, социологии, статистике, психологии и, в последнее время, в искусственном интеллекте (ИИ). Данную задачу можно сформулировать как поиск походящего причинно-следственного объяснения имеющимся данным. Долгое время рассматриваемая проблема решалась в философии, затем в статистике и эконометрике (моделирование структурными уравнениями), а с середины 1980-х годов большой интерес к ней был проявлен в искусственном интеллекте, когда были найдены математические связи между теорией графов, вероятностью и причинностью [1]. В данной статье будем исходить из вероятностной концепции причинности как наиболее подходящего способа формального описания понятий «причина» и «следствие» (в частности, будем придерживаться теории и математического аппарата причинного моделирования).
Вероятностная концепция причинности. Вероятностная концепция причинности (probabilistic causation) представляет собой группу теорий, целью которых является попытка охарактеризовать причинно-следственные отношения, используя методы теории вероятностей. Центральной идеей этих теорий является предположение о том, что причина каким-то образом изменяет вероятность возникновения следствия. Стэндфордская философская энциклопедия выделяет две большие группы теорий вероятностной причинности [2]:
1. Теории причинности, основанные на принципе роста вероятности(probability-raising theories of causation) [3-8]. Центральная идея данных теорий: причина увеличивает вероятность возникновения следствия, т.е.
P(E | С) > P(E),
где E -- следствие, C -- причина (существуют различные вариации этого принципа в указанных работах).
2. Причинное моделирование (causalmodeling) [1; 9] -- относительно новое (берет свое начало с середины 1980-х гг.) междисциплинарное направление в статистике, искусственном интеллекте, философии, эконометрике и эпидемиологии. Причинное моделирование решает две проблемы. Первая -- выявление структуры причинно-следственных связей на основе информации о вероятностных связях между переменными и дополнительных допущениях о причинной структуре. Вторая проблема заключается в идентификации различных количественных характеристик, например вероятности того, что некоторое вмешательство приведет к некоторому результату. Качественная структура причинно-следственных связей представлена в рамках причинного моделирования в виде ориентированного графа без циклов, а количественные характеристики связей между причиной и следствием определяются либо условными вероятностями (как, например, в причинных байесовых сетях), либо более общими функциональными зависимостями (в функциональных причинных моделях). Следует отметить, что данная группа теорий не использует принцип роста вероятности следствия, а базируется на использовании понятия условной независимости между случайными переменными. В частности, Дж. Пэрл предлагает несколько критериев причинности: локальные критерии причинности [1, с.55-57] и причинное марковское условие [1, с.30]. Выражение причинности через понятие условной независимости позволяет, пользуясь статистической информацией, определять причинно-следственные связи между переменными. Установив, являются ли переменные условно независимыми в статистическом понимании, на основе вероятностного распределения или воспользовавшись статистическими тестами, можно сделать вывод о наличии или отсутствии между этими переменными отношения причинности. При этом математически строго могут быть различены истинные причины (genuine cause) и ложные корреляции (spurious associations).
Обзор указанных работ сторонников вероятностной концепции причинности позволяет сделать следующие выводы, накладывающие ограничения на попытки выявления причинно-следственных связей на основе данных (или вероятностей):
- корреляция не подразумевает причинности;
- причинность можно выразить как на основе принципа роста вероятности следствия [4-8], так и на основе понятия условной независимости между переменными [1; 9], причем второе предпочтительнее первого [1];
- причина предшествует во времени следствию, однако информация о предшествовании во времени в одиночку не позволяет отличить истинную причину от ложной корреляции, вызванной неизвестным (третьим) фактором [3; 4; 10; 11] (стрелка барометра сдвигается раньше, чем пойдет дождь, но это не вызывает дождя [1]);
- до тех пор пока неизвестны все причинные факторы или нет возможности манипулировать (варьировать)значениями некоторых переменных, выявление всех истинных причинных связей невозможно [7; 8; 12] («нет причинности без манипуляций» [12], «нет причинности на входе -- нет на выходе» [6]).
В данной статье в качестве математического языка для описания причинности мы будем использовать причинные байесовы сети (causal Bayesian networks), которые состоят из ориентированного графа без циклов G (также известного как причинная структура или причинный граф) с множеством V = {Vi} вершин и полного совместного распределения P(v) над множеством дискретных случайных переменных, полностью соответствующих вершинам причинного графа G [13]. Каждая дуга в G отражает прямую причинно-следственную связь между случайными переменными (более строгое определение можно найти в [1;13;14]). Обзор математического аппарата традиционных байесовых сетей приводился в работах [15-17].
Предварительная постановка задачи.
Укрупненно задача обучения байесовых сетей на основе статистических данных D состоит из следующих трех этапов:
1. Подготовка данных D к машинной обработке. Как правило, на этом этапе устраняются аномалии в данных, заполняются пропуски, проводится дискретизация непрерывных значений и т.д.
2. Определение структуры (графа G) байесовой сети, или структурное обучение (structurelearning), на основе данных D.Цель структурного обучения -- дать в виде ориентированного графа причинно-следственное объяснение статистическим данным D.
3. Определение условных и безусловных вероятностей на основе данных D с учетом отношений условной независимости в графе G, или обучение параметров (parameterlearning).
Целью данного исследования является разработка алгоритма структурного обучения причинной байесовой сети. Входными параметрами алгоритма являются данные о причинах и последствиях D, а также дополнительная информация о причинности С. Выходом алгоритма является паттерн причинной байесовой сети G. В дальнейшем будем предполагать, что данные D не содержат пропусков и представляют собой конечное множество конфигураций vk множества случайных переменных V байесовой сети. Каждая конфигурация vk полностью описывает состояние байесовой сети (представляет собой вектор присваиваний всех переменных V) на некоторый момент времени. Далее рассмотрим существующий алгоритм структурного обучения -- алгоритм IC и предложим идеи по его улучшению.
Алгоритм IC. Т. Верма и Дж. Пэрл предложили алгоритм (inductivecausation, или IC-алгоритм) для выявления графа причинно-следственных связей на основе заданного полного совместного распределения P над V[18]. Предполагая некоторые допущения о минимальности и стабильности, данный алгоритм позволяет получить максимально ориентированный паттерн графа G [18;19]. Ограничением данного алгоритма является невозможность выявления всех причинно-следственных связей на основе вероятностного распределения (или данных). Формально алгоритм IC позволяет выявить класс эквивалентности графов, поскольку для одного распределения могут быть найдены несколько графов, каждый из которых будет являться байесовой сетью для рассматриваемого распределения P(v)[20]. Другими словами, эти графы кодируют одинаковые отношения условной независимости, заложенные в P(v), но в то же время отражают различные причинно-следственные зависимости. Рассматриваемые графы также называют эквивалентными с точки зрения наблюдения. Два ориентированных графа без циклов называются эквивалентными с точки зрения наблюдения (observation alequivalence graphs), если они имеют одинаковые скелетоны и одинаковые множества v-структур Скелетоном ориентированного графа Gназывают неориентированный граф, построенный на основе исходного графа Gпутем замены всех дуг (стрелок) на неориентированные рёбра. V-структурой называют связь вида A > B < C.[1]. Существование такой эквивалентности накладывает ограничения на возможность поиска всех дуг в G на основе одних только вероятностей, так как два эквивалентных графа не могут быть различены с помощью P(v). Поэтому решают более простую задачу: найти скелетон и множество v-структур, или найти паттерн причинной байесовой сети.
В данной статье не будем приводить полностью текст алгоритма IC и рассматривать теоретические положения, заложенные в этом алгоритме, а заинтересованного читателя направим к источникам [1, c. 41-64; 20-22]. Отметим лишь, что входом алгоритма IC является полное совместное распределение, на основе которого выявляются причинно-следственные связи, выходом -- частично ориентированный паттерн байесовой сети, формально описывающий выявленные причинно-следственные зависимости, а сам алгоритм состоит из трех этапов:
1) нахождение скелетона графа байесовой сети;
2) выявление v-структур графа;
3) ориентирование дополнительных ребер графа.
Для ориентирования дополнительных ребер в паттерне байесовой сети предлагаются пять новых правил ориентирования ребер, основанных на так называемых иерархиях причин, используемых в анализе корневых причин при решении проблем. Предлагаемый алгоритм позволяет избавиться от двух основных ограничений алгоритма IC:
1) необходимости задания полного совместного распределения P(v);
2) невозможности выявить все причинно-следственные связи на основе статистических данных (данное ограничение может быть снято только частично).
Для устранения первого недостатка предлагается использовать статистический G-тест [23]. В большинстве случаев полностью задать совместное распределениеP(v) не представляется возможным: чаще всего исследователь имеет лишь ограниченное количество наблюдений. Несмотря на то, что на их основе может быть рассчитано P(v), оно в условиях недостатка наблюдений будет представлять собой частотные вероятности, т.е. являться приближенным. Решить эту проблему можно, воспользовавшись G-тестом для проверки гипотезы об условной независимости между случайными переменными в статистических данных. Второй недостаток является следствием фундаментального свойства причинных байесовых сетей и отражает особенности вероятностной концепции причинности вообще: одних только вероятностей недостаточно для выявления на их основе всех причинно-следственных связей -- необходима дополнительная информация о причинности (обозначим ее через C). Предлагается воспользоваться в качестве такой информации иерархиями причин (приведены ниже), которые традиционно применяются в методе анализа корневых причин при устранении проблем в области качества. Данные типы причин представляют собой один из способов задания отношений предшествования во времени между случайными переменными. Формализация этих типов причин (корневая причина, причина первого уровня (прямая), причина высокого уровня (непрямая)) с помощью математического аппарата причинных байесовых сетей позволяет сформулировать дополнительные правила ориентирования ребер в паттерне байесовой сети. При этом подразумевается, что информация о причинных иерархиях получена на основе знаний экспертов либо известна из других источников.
Формальная постановка задачи.
Пусть
V = {Vi} = {V1, V2, …, Vn} --
множество дискретных случайных переменных. Пусть D -- данные о принятых значениях переменных из V, на основе которых выявляются причинно-следственные связи между переменными из V. D представляют собой множество конфигураций V, т.е.
Здесь -- конфигурация V, представляющая собой множество означиваний
,
где нsi - значение переменной, принятое в конфигурации ; N -- общее количество конфигураций в D (размер выборки). При этом данные D не содержат пропусков (все переменные получили означивание). Пусть C-- дополнительная информация о причинности, формально заданная в виде множества причинных иерархий. Необходимо построить граф причинной байесовой сети
G = H(D, C),
который даёт причинно-следственное объяснение данным Dс учетом информации о причинности C, т.е. каждая дуга в таком графе отражает отношение прямой причинно-следственной связи между соответствующими переменными из V.
Рис.1 иллюстрирует основные этапы предлагаемого алгоритма, названного IC2(IC версии 2), который решает поставленную задачу. На 1-м шаге алгоритма с помощью G-теста выявляются отношения условной независимости в статистических данных. Каждое такое отношение, подтвержденное тестом с уровнем значимости б, добавляется в множество MI. Шаги 2-4 представляют собой шаги исходного алгоритма IC, адаптированные для работы с множеством MI. На 5-м шаге осуществляется ориентация ребер в графе H(D) с помощью дополнительных правил на основе причинной информации C. Ограниченный объем данной статьи позволяет нам подробно рассмотреть только пятый шаг алгоритма (полное содержание алгоритма приводилось в [30]). Для этого вначале приведем сведения о причинных иерархиях, применяемых в методе анализа корневых причин проблемы.
Причинные иерархии.
Б. Андерсен выделяет три основных типа причин проблемы: причина первого уровня, причина высокого уровня и корневая причина [24]. Причины первого уровня -- это причины, которые немедленно приводят к возникновению проблемы. Устранение этих причин может решить проблему на короткое время, однако она возникнет позже (возможно, в другом виде), поскольку корневая причина все еще существует. Например, причиной первого уровня того, что автомобиль не заводится, могут быть неполадки в системе зажигания, и, проведя ее ремонт, можно будет завести автомобиль. Однако корневая причина рассматриваемой проблемы -- недостаточный контроль качества на автозаводе, и эта причина может привести к другим проблемам и отказам. Причины верхних уровней - это причины, которые приводят к причинам первого уровня. Несмотря на то что они не приводят к проблеме напрямую, эти причины формируют связи между событиями в причинно-следственных цепочках, которые, в конечном счете, создают проблему. Корневая причина -- это причина самого высокого уровня. Когда она устранена, проблема больше никогда не возникнет. В этологии, социологии и психологии используются несколько иные типы причин [25-27], однако сходные с рассмотренными: проксимативная и ультимативная причины. Проксимативная (прямая) причина -- это событие, находящееся ближе всего к некоторому наблюдаемому результату или непосредственно ответственное за его возникновение. Ультимативная В этологии при изучении и объяснении поведения живых организмов под проксимативной причиной понимаются различные химические процессы, происходящие в клетках и приводящие к тому или иному поведению. Ультимативная причина есть причина более высокого уровня, вызывающая то или иное поведение живого организма, и, как правило, такая причина является результатом эволюции. причина (непрямая, удаленная причина)-- это высокоуровневое событие, которое обычно понимается как реальная причина возникновения чего-либо. По мнению автора, проксимативная причина есть то же самое, что и причина первого уровня, а ультимативная причина эквивалентна причине высокого уровня. Таким образом, корневая причина может быть определена как ультимативная причина, не имеющая причин (или эти причины существуют, но не могут быть найдены).
Рис. 1. Основные этапы алгоритма IC2
Формализация основных типов причин с помощью аппарата причинных байесовых сетей.
Дадим формальные определения указанных типов причин, пользуясь математическим аппаратом причинных байесовых сетей (ПБС), при этом будем руководствоваться следующими идеями (рис.2):
· Дуга в ПБС представляет собой отношение прямой причинно-следственной связи (связь A > B означает, что A является прямой причиной B).
· Термины «причина первого уровня», «проксимативная причина» и «прямая причина» эквивалентны и могут быть выражены формально через дугу в ПБС. Термин «причина высокого уровня» обозначает непрямую причину, которая оказывает влияние на целевую (проблемную) переменную-вершину посредством цепочки причинно-следственных связей. Формально это означает, что в ПБС существует ориентированный путь из вершины -- причины высокого уровня в целевую (проблемную) вершину, при этом причина высокого уровня не является прямой причиной проблемы. Причине высокого уровня эквивалентны термины «ультимативная причина», «непрямая причина».
· Корневая причина - это причина высокого уровня либо причина первого уровня, для которой в графе ПБС не задано родительских вершин.
Рис. 2. Иерархия причин в контексте математического аппарата причинных байесовых сетей
С учетом изложенного, дадим следующие определения. Обозначим через ‹G, P (v) причинную байесову сеть с причинным графом G и полным совместным распределением P(v) над множеством переменных V.
Определение 1 (причина первого уровня, проксимативная, прямая причина).
Переменная X называется причиной первого уровня другой переменной Y в ПБС , если X является родительской для Y в графе G, т.е., где PAY -- множество родительских вершин Y в графе G.
Определение 2 (причина высокого уровня, ультимативная, непрямая причина).
Переменная X называется причиной высокого уровня другой переменной Y в ПБС , если существует ориентированный путь из X в Y и X не принадлежит PAY ().
Определение 3(корневая причина).
Переменная X называется корневой причиной другой переменной Y в ПБС , если X не имеет родителей в графе G (PAX = Ш) и существует ориентированный путь из X в Y.
Определение 4(последствие).
Переменная X называется последствием другой случайной переменной Y (а Y называется причиной X) в ПБС , если существует ориентированный путь из Y в X в графе G.
Пусть FiV -- проблемная переменная (дефект, отказ, несоответствие и т.п.). Пусть
F = {Fi} --
множество всех проблемных переменных в V, FV. Тогда, согласно определениям 1-4, для каждой Fi могут быть определены 3 непересекающихся множества переменных TLC, FLC и E, где
TLCV --
причины высоких уровней проблемы Fi,
FLCV --
причины первого уровня проблемы Fi и
EV --
последствия проблемы Fi. Пусть
RC = RCT RCF --
множество корневых причин проблемы Fi, где RCT-- множество переменных, которые являются причинами высокого уровня и корневыми причинами проблемы Fi (RCT -- причины высокого уровня, не имеющие родителей в графе G), и RCF-- множество переменных, которые являются причинами первого уровня и корневыми причинами проблемы Fi. Исходя из этогоRCTTLC и RCFFLC.
Определение 5 (причинная иерархия проблемы).
Пусть
--
кортеж множеств переменных.называется причинной иерархией для проблемной переменной Fi в ПБС, если RC -- множество корневых причин Fi, TLC -- множество причин высокого уровня Fi, FLC -- множество причин первого уровня Fi и E -- множество последствий Fi.
Приведенные причины формируют примерно следующую цепочку причинно-следственных связей: корневая причина > причины высокого уровня > причины первого уровня > проблема > последствия. Тогда общая идея улучшения алгоритма IC будет выглядеть следующим образом: если в паттерне байесовой сети, полученном на выходе алгоритма IC, имеется ребро вида A -- B, при этом A является корневой причиной, а B -- причиной высокого уровня (или A -- проблема, а B -- последствие и т.д.), то ребро A -- B следует ориентировать в дугу A > B в том и только том случае, когда это ориентирование не приводит к появлению ориентированного цикла в графе ПБС и не создает новых v-структур в этом графе (ориентирование B > A противоречит здравому смыслу).
На самом деле отношения предшествования между различными типами причин не ограничиваются приведенной цепочкой. Рис.3 иллюстрирует все возможные причинно-следственные отношения в причинной иерархии для проблемы Fi.
Рис. 3. Причинно-следственные зависимости между различными типами причин
Каждая стрелка означает возможную прямую причинную связь между переменными в соответствующих множествах, т.е. дугу в ПБС. На данной диаграмме V -- множество всех остальных переменных за исключением Fi, RC, TLC, FLC и E (отношения между V и этими множествами не показаны).
Ниже приводится дополнительный 5-й шаг алгоритма IC2. Применение данного шага позволяет использовать причинные иерархии в качестве дополнительной информации для ориентирования большего числа дуг в паттерне ПБС. Входом этого шага является паттерн H(D), полученный в результате выполнения алгоритма IC, а его выходом - частично ориентированный граф H (D, C), соответствующий причинной информации C, которая представляет собой множество причинных иерархий для множества некоторых проблемных переменных.
Алгоритм (шаг 5 алгоритма IC2-- ориентирование ребер на основе информации об иерархии причин):
Вход:
? H(D) -- паттерн ПБС, полученный в результате выполнения алгоритма IC на основе данных D;
? F = {Fi} -- множество проблемных переменных;
? C -- причинная информация, представляющая собой множество причинных иерархий для каждой (или нескольких) проблемной переменнойFi в F,
.
Выход: H(D, C) -- частично ориентированный граф.
1. Для каждого ребра A -- B в графе H(P) проверить два условия:
1) ориентирование A -- B в дугу A > B не создает новых v-структур в H(D);
2) ориентирование A -- B в дугу A > B не создает ориентированного цикла в H(D).
2. Если оба условия выполняются, то для каждой причинной иерархии в C использовать следующие 5 правил (R5-R9) ориентирования A -- B в A > B:
R5: Ориентировать A -- B в A > B, если А -- проблемная переменная и B -- последствие (A = FiBE).
R 6 Ориентировать Ф -- ИвФ > Иб если ФАДСФКС(И = АшИУ)ю
R7: ОриентироватьA -- BвA > B,если ARCAFLC(B = FiBEBFLC) BRC.
R8: ОриентироватьA -- BвA > B,еслиATLСARC(BEBFLC)BRC.
R9: ОриентироватьA -- BвA > B,еслиATLCARC(BTLCBFLCBE) BRC.
Следует заметить, что предложенные правила ориентирования паттерна не гарантируют, что не появятся дополнительные v-структуры или ориентированные циклы, поэтому следует контролировать эти события.
Выявление причинных иерархий на основе экспертных знаний может быть проведено с помощью 5-шаговой процедуры, приведенной в [28]. Следует заметить, что выявление причинной иерархии намного проще, чем идентификация порядка предшествования во времени между каждой парой переменных в Vи чем выявление прямых причинно-следственных связей между переменными на основе экспертных знаний.
Сравнение алгоритмов IC и IC2.
Алгоритмы сравнивались следующим образом. На основе сокращенного варианта байесовой сети, используемой автором для анализа причин дефектов электрических соединителей [29] (далее будем называть эту сеть эталоном для сравнения, рис.4), были случайно сгенерированы данные размером N = 100, 150, 200, 250, 300, 350, 400, 450, 500, 750, 1000 и 5000 конфигураций, соответствующие полному совместному распределению сети-эталона. Для более точного сравнения алгоритмов было сгенерировано по 5 выборок для каждого размера N. Пример сгенерированных данных приведен в таблице.
Рис. 4.Байесова сеть для исследования алгоритмов
Множество проблем F и информация о причинности {Ci} для алгоритма IC2 были заданы следующим образом:
· Проблемы: I -- нарушение изоляции (F1), J -- механическое повреждение (F2), K -- растрескивание (F3);
F = {I, J, K}.
· Проблема «Нарушение изоляции»:
E = {L, M}, RC = {B, D}, TLC = {B, D}, FLC = {F, H}.
· Проблема «Механическое повреждение»:
E = {L, M}, RC = {A, C}, TLC = {A, B, C}, FLC = {G, F, E}.
· Проблема «Растрескивание»:
E = {L, M}, RC = {B, C}, TLC = {B, C}, FLC = {G, H}.
В качестве показателей для сравнения использовались:
? количество верно ориентированных дуг (ВД), т.е. количество ориентаций дуг в обученной сети, которые совпали с ориентацией дуг в эталонной сети;
? количество верно определенных ребер (ВР), т.е. количество ребер в обученной БС, которые совпали с ребрами в эталонной сети;
? количество неверно ориентированных дуг и неверно определенных ребер (НРД), или ошибка алгоритма, т.е. суммарное количество дуг и ребер в обученной сети, которые отсутствуют в эталонной сети.
Таблица. Пример исходных данных для обработки
№ конфигурации |
Переменная |
|||||||||||||
A |
B |
C |
D |
E |
F |
G |
H |
I |
J |
K |
L |
M |
||
1 |
Да |
Нет |
Нет |
Норм. |
Да |
Нет |
Нет |
Нет |
Нет |
Да |
Нет |
Да |
Да |
|
2 |
Нет |
Нет |
Нет |
Норм. |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
Да |
|
3 |
Нет |
Нет |
Нет |
Выс. |
Нет |
Нет |
Нет |
Да |
Да |
Нет |
Да |
Да |
Да |
|
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
|
99 |
Нет |
Нет |
Нет |
Норм. |
Да |
Нет |
Нет |
Нет |
Нет |
Да |
Нет |
Да |
Да |
|
100 |
Нет |
Нет |
Нет |
Норм. |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
Нет |
На рис.5 приведена зависимость количества верно ориентированных дуг и ошибки алгоритмов (среднее значение для 5 выборок каждого размера) от размера выборки N.
Рис. 5. Сравнение алгоритмов IC и IC2
Предложенное улучшение алгоритма IC позволяет выявить частично ориентированный граф причинной байесовой сети с большим (в 1,5-3 раза) количеством дуг, чем может выявить оригинальный алгоритм IC. Преимуществом предложенного алгоритма является возможность учета дополнительной причинно-следственной информации в терминах причинных иерархий. Сущность этих иерархий отражает специфику проблемной области, для которой строится байесова сеть.
Список литературы
1. Pearl, J. Causality: Models, Reasoning and Inference / J. Pearl. - 2-nd edition. -Cambridge University Press, 2009. - 464 p.
2. Hitchcock, C. Probabilistic Causation / C. Hitchcock // The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.). - 2010. - Режимдоступа: http://plato.stanford.edu/archives/fall2010/entries/causation-probabilistic.
3. Рейхенбах, Г. Направление времени:[пер. с англ.] / Г. Рейхенбах. - М.: Едиториал УРСС, 2003. - 360 с.
4. Suppes, P. A Probabilistic Theory of Causality / P. Suppes. - Amsterdam: North Holland Pub. Co, 1970. - 130 p.
5. Mellor, D.H. The Facts of Causation / D.H. Mellor. - Routledge, 1995. - 251 p.
6. Cartwright, N. Nature's Capacities and Their Measurements / N. Cartwright. - Oxford University Press, 1994. - 280 p.
7. Skyrms, B. Causal Necessity: Pragmatic Investigation of the Necessity of Laws / B. Skyrms. - Yale University Press, 1980. -176 p.
8. Eells, E. Probabilistic causality and the question of transitivity / E. Eells, E. Sober // Philosophy of Science. - 1983. - №50. - P.35-57.
9. Spirtes, P. Causation, Prediction, and Search / P. Spirtes, C. Glymour, R. Scheines. - New York: Springer-Verlag, 1993. - 565 p.
10. Good, I.J. A causal calculus (II) / I.J. Good // British Journal for the Philosophy of Science. - 1961. - №11. - P.305-318.
11. Shoham, Y. Reasoning About Change: Time and Causation from the Standpoint of Artificial Intelligence / Y. Shoham. - The MIT Press, 1987. - 200 p.
12. Holland, P.W. Statistics and causal inference / P.W. Holland // Journal of the American Statistical Associations. - 1986. - №81 (396). - P.945-960.
13. Tian, J. A New Characterization of the Experimental Implications of Causal Bayesian Networks / J. Tian, J. Pearl // Proceedings of the 8th National Conference on Artificial Intelligence. - AAAI Press, The MIT Press: CA, Menlo Park, 2002. - P.574-579.
14. Bareinboim, E. Local Characterizations of Causal Bayesian Networks / E. Bareinboim, C. Brito, J. Pearl // Proceedings of the 2nd International IJCAI Workshop on Graph Structures for Knowledge Representation and Reasoning (GKR 2011). - 2011. - P.6-11.
15. Подвесовский, А.Г. Применение байесовых сетей в задачах анализа и прогнозирования спроса / А.Г. Подвесовский, С.В. Ешин // Вестн. БГТУ. - 2011. - №1(29). - С. 61-70.
16. Мирошников, В.В. Методика построения байесовой сети для анализа причин дефектов продукции и процессов / В.В. Мирошников, С.В. Ешин // Вестн. БГТУ. - 2011. - №2(30). - С. 93-100.
17. Мирошников, В.В. Анализ причин дефектов продукции с помощью байесовых сетей / В.В. Мирошников, С.В. Ешин // Качество, инновации, образование. - 2011. - №8. - С. 54-61.
18. Verma, T. An algorithm for deciding if a set of observed independencies has a causal explanation / T. Verma, J. Pearl // Proceedings of the 8th Conference on Uncertainty in Artificial Intelligence. - Stanford, CA: Morgan Kaufmann, 1992. - P. 323-330.
19. Meek, C. Causal inference and causal explanation with background knowledge / C. Meek // Proceedings of the 11th Annual Conference on Uncertainty in Artificial Intelligence (UAI-95). - San Francisco: Morgan Kaufmann, 1995. - P. 403-441.
20. Pearl, J. A theory of inferred causation / J. Pearl, T. Verma // Principles of Knowledge Representation and Reasoning: Proceedings of the Second International Conference. - San Mateo, CA: Morgan Kaufmann, 1991. - P. 441-452.
21. Rebane, G. The recovery of causal poly-trees from statistical data / G. Rebane, J. Pearl // Proceedings of the Third Workshop on Uncertainty in AI. - Seattle, WA, 1987. - P. 222-228.
22. Verma, T. Equivalence and synthesis of causal models / T. Verma, J. Pearl // Proceedings of the Sixth Conference on Uncertainty in Artificial Intelligence. - Cambridge, MA, 1990. - P. 220-227.
23. Kjжrulff, U. Bayesian Networks and Influence Diagrams. A Guide to Construction and Analysis / Uffe B. Kjжrulff, Anders L. Madsen. - New York: Springer, 2008. - 303 p.
24. Andersen, B. Root cause analysis: simplified tools and techniques / B. Andersen, T. Fagerhaug. - American Society for Quality, Quality Press, 2006. - 240 p.
25. Alessi, G. Models of Proximate and Ultimate Causation in Psychology / G. Alessi // American Psychologist. - 1992. - Vol. 47(11). - P. 1359-1370.
26. Francis, R.C. Causes, proximate and ultimate / R.C. Francis // Biol. Phil. - 1990. - № 5. - P. 401-415.
27. Thierry, B. Integrating proximate and ultimate causation: Just one more go! / B. Thierry // Current Science. - 2005. - Vol. 89. -№ 7. - P.1180-1183.
28. Eshin, S. Recovering causal Bayesian network structure using information about causal hierarchies / S. Eshin // The Advanced Science Journal. - 2011. - №4. - P. 46-50.
29. Ешин, С.В. Анализ и моделирование причин дефектов электрических соединителей с помощью байесовых сетей / С.В. Ешин // Эффективность и качество в машиностроении и приборостроении: материалы IIМеждунар. науч.-техн.конф. (г. Карачев, 23-25 сент. 2011 г.) / под общ.ред. Ю.С. Степанова. - Орёл: Госуниверситет -- УНПК, 2011. - С. 92-99.
30. Ешин, С.В. Алгоритм выявления причинно-следственных связей в статистических данных / С.В. Ешин // Материалы III Международной научно-практической конференции «Достижения молодых ученых в развитии инновационных процессов в экономике, науке, образовании»: в 2 ч. / под ред. И.А. Лагерева. - Брянск: БГТУ, 2011. - Ч.1. - С. 161-163.
Материал поступил в редколлегию 3.02.12.
Размещено на Allbest.ru
...Подобные документы
Определение математического ожидания и среднеквадратического отклонения с целью подбора закона распределения к выборке статистических данных об отказах элементов автомобиля. Нахождения числа событий в заданном интервале; расчет значения критерия Пирсона.
контрольная работа [336,3 K], добавлен 01.04.2014Теория случайных графов, модели сетей (графы Барабаши-Альберт, Эрдеша-Реньи, Уотса-Строгатса и др.) Разработка ускоренного алгоритма калибровки больших сетей по коэффициенту кластеризации на языке Java в среде Eclipse. Анализ экспериментальных данных.
дипломная работа [2,0 M], добавлен 19.11.2013Рассмотрение видов арифметических задач, используемых в работе с дошкольниками. Этапы обучения решению арифметических задач. Изучение структуры, модели записи математического действия. Алгоритм решения задач. Роль данных занятий в общем развитии ребенка.
презентация [379,7 K], добавлен 19.06.2015Методика проведения группировки объектов на основе алгоритма K-средних, используя рандомизацию исходных данных (объединенной центрированной матрицы наблюдений). Оценка требуемого числа итераций. Расчет расстояния от объектов до новых центров кластеров.
практическая работа [195,6 K], добавлен 20.09.2011Первичный анализ и основные характеристики статистических данных. Точечные оценки параметров распределения. Доверительные интервалы для неизвестного математического ожидания и для среднего квадратического отклонения. Проверка статистических гипотез.
дипломная работа [850,9 K], добавлен 18.01.2016Остовное дерево связного неориентированного графа. Алгоритм создания остовного дерева, его нахождение. Сущность и главные особенности алгоритма Крускала. Порядок построения алгоритма Прима, вершина наименьшего веса. Промежуточная структура данных.
презентация [140,8 K], добавлен 16.09.2013Анализ исследований в области лечения диабета. Использование классификаторов машинного обучения для анализа данных, определение зависимостей и корреляции между переменными, значимых параметров, а также подготовка данных для анализа. Разработка модели.
дипломная работа [256,0 K], добавлен 29.06.2017Понятие текстовой задачи, ее роль в процессе обучения математике. Изучение основных способов решения текстовых задач, видов их анализа. Применение метода моделирования в обучении решению данных заданий. Описание опыта работы учителя начальных классов.
дипломная работа [69,6 K], добавлен 13.01.2015Методы решения задачи коммивояжера. Математическая модель задачи коммивояжера. Алгоритм Литтла для нахождения минимального гамильтонова контура для графа с n вершинами. Решение задачи коммивояжера с помощью алгоритма Крускала и "деревянного" алгоритма.
курсовая работа [118,7 K], добавлен 30.04.2011Понятие, критерии и порядок формирования ценовой политики в гостиничном бизнесе, факторы, влияющие на данный процесс. Построение многофакторной модели ценообразования в гостинице на основе статистических наблюдений данных процессов в заведениях Москвы.
контрольная работа [427,0 K], добавлен 21.08.2008Математические методы систематизации и использования статистических данных для научных и практических выводов. Закон распределения дискретной случайной величины. Понятие генеральной совокупности. Задачи статистических наблюдений. Выборочное распределение.
реферат [332,8 K], добавлен 10.12.2010Вычисление корня функции нелинейного уравнения методом деления отрезка пополам. Способы ввода, вывода и организации данных. Модульная организация программы. Разработка блок-схемы алгоритма задачи. Порядок создания программы на алгоритмическом языке.
реферат [30,0 K], добавлен 28.10.2010Построение доверительных интервалов для математического ожидания и дисперсии, соответствующие вероятности. Исследование статистических характеристик случайной величины на основе выбора объема. Теоретическая и эмпирическая плотность распределения.
курсовая работа [594,4 K], добавлен 02.01.2012Алгоритм определения вероятности события и выполнения статистических ожиданий. Оценка возможных значений случайной величины и их вероятности. Расчет математического ожидания, дисперсии и среднего квадратического отклонения. Анализ характеристик признака.
контрольная работа [263,8 K], добавлен 13.01.2014Основные этапы обработки данных натуральных наблюдений методом математической статистики. Оценка полученных результатов, их использование при принятии управленческих решений в области охраны природы и природопользования. Проверка статистических гипотез.
практическая работа [132,1 K], добавлен 24.05.2013Получение статистических данных для обобщенной характеристики состояния и развития явления. Виды, способы и организационные формы статистического наблюдения. Статистический формуляр, сводка и группировка данных. Статистические таблицы и графики.
реферат [33,3 K], добавлен 12.11.2009Математическая статистика как наука о математических методах систематизации статистических данных, ее показатели. Составление интегральных статистических распределений выборочной совокупности, построение гистограмм. Вычисление точечных оценок параметров.
курсовая работа [241,3 K], добавлен 10.04.2011Критерии выбросов в случае нормального распределения, их асимптотические свойства и эмпирическая мощность. Исследование распределения статистик по критериям Колмогорова и Смирнова. Реализация критериев определения выбросов в статистическом пакете R.
курсовая работа [521,9 K], добавлен 10.01.2016Рассмотрение понятий, лежащих в основе методики изучения нумерации чисел первого десятка. Анализ использования современных средств обучения детей начальной школы. Проектирование уроков по изучению нумерации чисел в методической системе "Школа России".
дипломная работа [2,9 M], добавлен 13.10.2015Определение вероятность срабатывания устройств при аварии. Расчет математического ожидания, дисперсии и функции распределения по заданному ряду распределения. Построение интервального статистического ряда распределения значений статистических данных.
контрольная работа [148,8 K], добавлен 12.02.2012