Теория хаоса и теория творчества: неожиданные аналогии

Теории динамического хаоса и самоорганизующихся систем, возникшие в XX в., расширившие понимание роли детерминированных и стохастических процессов в эволюции систем различной природы. Сопоставление результатов теории хаоса и концепции самоорганизации.

Рубрика Философия
Вид статья
Язык русский
Дата добавления 05.06.2022
Размер файла 56,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Институт психологии РАН Россия

Теория хаоса и теория творчества: неожиданные аналогии

Новиков Н.Б.

Аннотация

Теория динамического хаоса, а также теория самоорганизующихся систем, возникшие в XX столетии благодаря усилиям множества ученых (А.Пуанкаре, Э.Лоренц, Б.В.Чириков, И.Пригожин, Г.Хакен и т.д.), расширили наше понимание роли детерминированных и стохастических процессов в эволюции систем различной природы. Идеи и принципы, сформулированные в этих областях научного знания, отличаются необычной простотой и одновременно фундаментальностью, глубиной проникновения в сущность природных явлений. Как ни удивительно, сопоставление результатов теории хаоса и концепции самоорганизации с результатами, полученными учеными в попытках описать закономерности творческой деятельности (прежде всего, научного поиска), позволяет выявить многочисленные аналогии между этими сферами знания. Можно констатировать существование определенной эквивалентности (изоморфизма) между основными принципами теории хаоса, теории самоорганизации и теории творчества (теории научного поиска). Наиболее очевидный пример этой эквивалентности - стохастичность развития динамических систем (в том числе возникновения порядка в сложных системах) и стохастичность интеллектуальных процедур (творческих стратегий), используемых в процессе научного поиска. Примечательно, что стохастичность творческих стратегий позволяет решить 18-ю проблему С.Смейла, т.е. ответить на вопрос: каковы пределы интеллекта - как искусственного, так и человека?

Ключевые слова: хаос, самоорганизация, случайные флуктуации, энтропия, принцип открытости систем, детерминированные и вероятностные (стохастические) алгоритмы мышления и творчества, индуктивные методы исследования, случайные научные открытия, 18-я проблема С.Смейла.

Abstract

The theory of dynamic chaos, as well as the theory of self-organizing systems, which arose in the XX century thanks to the efforts of many scientists (A. Poincare, E. Lorenz, B.V. Chirikov, I. Prigogine, H. Haken, etc.), have expanded our understanding of the role of deterministic and stochastic processes in the evolution of systems of various nature. The ideas and principles formulated in these areas of scientific knowledge are distinguished by their unusual simplicity and, at the same time, by the depth ofpenetration into the essence of natural phenomena. Surprisingly, a comparison of the results of the theory of chaos and the concept of self-organization with the results obtained by scientists in the theory of creativity (first of all, scientific creativity) reveals numerous analogies between these spheres of knowledge. One can state the existence of a certain equivalence (isomorphism) between the basic principles of chaos theory, the theory of self-organization and the theory of creativity (the theory of scientific search). The most obvious example of this equivalence is the stochasticity of the development of dynamical systems (including the emergence of order in complex systems) and the stochasticity of intellectual procedures (creative strategies) used in the process of scientific research. It is noteworthy that the stochasticity of creative strategies allows us to solve the 18th problem of S. Smale, i.e. to answer the question: what are the limits of intelligence - both artificial and human?

Key words: chaos, self-organization, random fluctuations, entropy, the principle of openness of systems, deterministic and probabilistic (stochastic) algorithms of thinking and creativity, inductive research methods, random scientific discoveries, S. Smale 18th problem.

1. Ошибка Анри Пуанкаре и рождение теории хаоса

В 1885 г. выдающийся шведский математик Геста Миттаг-Леффлер убедил короля Швеции и Норвегии Оскара II учредить крупную денежную премию и подготовить медаль для вручения первому ученому, который получит глобальное (общее) решение задачи трех и более тел, взаимодействующих друг с другом по законам Ньютона. Эта задача заключалась в том, чтобы найти метод интегрирования дифференциальных уравнений, описывающих взаимодействие произвольного числа тел, т.е. получить аналитическое решение данной задачи. В 1888 г. Анри Пуанкаре отправил на конкурс свою работу, которая содержала 270 страниц и представляла собой результат почти трехлетних исследований французского математика. А.Пуанкаре был уверен, что ему удалось решить проблему, поставленную Г.Миттаг-Леффлером. Члены жюри, в том числе К.Вейерштрасс и Ш.Эрмит, высоко оценили труд Пуанкаре и вручили ему премию, согласившись с тем, что задача трех и более тел допускает интегрирование, как и задача двух тел, решенная еще Ньютоном.

Однако вскоре Пуанкаре обнаружил ошибку в своей работе. Оказалось, что траектории взаимодействующих тел могут непредсказуемым образом пересекаться и разбегаться (перепутываться), поэтому говорить об интегрируемости упомянутой задачи нет оснований. Исправляя свой просчет, французский математик установил, что динамика взаимодействующих тел может быть хаотичной [1, 2]. Обнаружилась зависимость поведения динамической системы от начальных условий, чувствительность к этим начальным условиям, что впоследствии было названо «эффектом бабочки». На средства полученной премии Пуанкаре был вынужден скупить все экземпляры журнала, содержавшего его ошибку, чтобы опубликовать исправленный вариант статьи. Так впервые появилась на свет теория хаоса, которая продемонстрировала ограниченность детерминизма Ньютона - Лапласа. Ю.А.Данилов [3] дал следующую оценку этой работы Пуанкаре: «Открытие сложных хаотических режимов позволило не только понять природу неинтегрируемости задач динамики, но и постичь ограниченность так называемого ньютоновского детерминизма, по-новому взглянуть на природу случайного. Экспоненциальное разбегание первоначально близких траекторий, вынужденных оставаться в ограниченной части фазового пространства, приводит к их перепутыванию, т.е. в конечном счете, к хаотизации» [3, с.175].

Впоследствии хаос открывался при исследовании других проблем. Так, американский математик и метеоролог Эдвард Нортон Лоренц (1961) столкнулся с ним, моделируя погодные явления с помощью нелинейных дифференциальных уравнений третьего порядка, описывающих ряд параметров атмосферы (движение воздушных потоков и т.д.). Обычно Лоренц вводил в компьютер все цифры с точностью до шестого знака после запятой, но однажды ограничился точностью до третьего знака. Получив в последнем случае результат, разительно отличающийся от предыдущих, Лоренц понял, что эволюция такой динамической системы, как земная атмосфера, весьма чувствительна к начальным условиям.

Одним из основоположников теории хаотических систем является российский физик Борис Валерианович Чириков (1928 -2008), который обнаружил явление динамического хаоса в 1959 г., изучая поведение заряженных частиц в магнитных ловушках, предложенных Г.И.Будкером в рамках проекта разработки управляемого термоядерного синтеза. Свои результаты Б.В.Чириков изложил в статье «Резонансные процессы в магнитных ловушках» [4]. В этой работе он сформулировал критерий стохастичности - критерий перекрытия резонансов для хаоса, возникающего в консервативной системе. Другими словами, Б.В.Чириков (1959) открыл критерий возникновения хаотических колебаний в такой системе.

Вместе с тем, первые признаки (проявления) динамического хаоса, как мы уже отметили, были описаны Пуанкаре (1888) в небесной механике, в процессе решения задачи гравитационного взаимодействия трех и более тел. И, как мы увидели, развитие нового раздела науки началось с ошибки - весьма серьезной, но своевременно исправленной Пуанкаре.

2. Ошибка Давида Гильберта и возникновение идеи об ограниченности формальных систем

Раздел науки, именуемый «теорией научного творчества» (или «методологией научного творчества»), развивался в XX столетии под знаком мысли об ограниченности формальных систем. Формальные системы - это теории, достигшие строгой формализации, предполагающей полную абстракцию от смысла слов используемого языка. В такой теории все условия, регулирующие употребление этих слов, явно высказаны посредством аксиом и правил, позволяющих вывести одну фразу из другой. Формальная система считается определенной, если а) задано конечное или счетное множество произвольных символов; б) имеется подмножество выражений, называемых формулами; в) выделено подмножество формул, называемых аксиомами; г) имеется конечное множество отношений между формулами, называемых правилами вывода.

Успехи формализации ряда математических теорий, выражения результатов этих теорий в аксиоматико-дедуктивной форме, заставили некоторых ученых поверить в то, что вся наука может быть формализована. Кроме того, они поверили, что и сам метод открытия научных истин может представлять собой формальную систему, четко определенную совокупность предписаний (инструкций), позволяющих постигать законы природы без обращения к опытам (экспериментам). Возникло убеждение, что единственный путь «проникновения в тайны Вселенной» - использование строгих (детерминированных) алгоритмов и, прежде всего, дедуктивных методов обработки информации. Разумеется, подобные алгоритмы - прямая противоположность нестрогих (вероятностных) алгоритмических стратегий.

Одним из тех, кто разделял подобное убеждение, был немецкий математик и философ Готфрид Вильгельм Лейбниц (1646 -1717), который выдвинул проект создания «универсальной характеристики», «универсального языка», под которым он понимал некий универсальный (строгий, детерминированный) алгоритм исследования окружающего мира. Парадоксально, но основой этого алгоритма он считал «механические манипуляции с символами», а не эксперимент и наблюдения. Восхищаясь строгостью геометрии Евклида, в которой те или иные утверждения дедуктивно выводятся из небольшого числа аксиом, Лейбниц забыл поинтересоваться, откуда берутся сами аксиомы. Другими словами, факт эмпирического происхождения этих аксиом оказался за пределами его внимания.

В начале XX века проект «универсальной характеристики» Лейбница возродился в несколько необычном виде: немецкий математик Давид Гильберт основал программу «формализации математики». Но на пути к достижению этой цели он предложил сначала формализовать арифметику - один из разделов математической науки. В частности, в 1900 г. на II Международном конгрессе математиков в Париже Д.Гильберт выступил с докладом, в котором изложил список 23-х математических проблем, ожидающих решения. В этом списке под номером 2 фигурировала задача «доказать непротиворечивость арифметики формальными средствами самой арифметики». Д.Гильберт верил в положительное решение этой задачи, так как считал возможным аксиоматизировать всю математику, превратить ее в строгую формальную систему, в которой новые математические истины открываются путем оперирования абстрактными символами, на основе дедуктивных правил, подобных правилам «универсального алгоритма» Лейбница.

Однако вскоре выяснилось, что Д.Гильберт серьезно заблуждается. В 1931 г. австрийский логик Курт Гедель опубликовал работу «О принципиально неразрешимых положениях в системе Principia Mathematica и родственных ей системах», в которой доказал свою знаменитую теорему о неполноте. Этот результат показал невозможность положительного решения задачи доказать непротиворечивость арифметики средствами самой арифметики. Кроме того, теорема Геделя показала невозможность аксиоматизировать всю математику, т.е. неосуществимость предложенной Д.Гильбертом программы формализации всей математической науки (и методов, с помощью которых открываются новые математические истины).

В 1936 г. английский математик Алан Тьюринг доказал теорему о неразрешимости проблемы остановки «универсальной машины Тьюринга». Этот результат показал алгоритмическую неразрешимость еще одной задачи Д.Гильберта («проблемы разрешимости», сформулированной им в 1928 г.): найти алгоритм, который, функционируя на основе формального языка, мог бы после конечного числа шагов определить истинность или ложность произвольного математического утверждения.

Описывая указанную «проблему разрешимости», поставленную Д.Гильбертом в 1928 г., и оценивая теоремы К.Геделя и А.Тьюринга, которые «разрушили надежды» Д.Гильберта, Н.Бурбаки в книге «Очерки по истории математики» [5] констатирует: «Уже среди обширных проектов Лейбница вопрос о решении этой проблемы занимал почетное место, и одно время школа Гильберта, по-видимому, считала, что подошла совсем близко к его разрешению. Действительно, для формализмов, содержащих мало первоначальных знаков и аксиом, можно описать эти процессы. Но усилия, направленные на уточнение проблемы разрешимости посредством четкого определения того, что следует понимать под «универсальным процессом», до сих пор приводили только к отрицательным результатам» [5, с.59].

По большому счету, теоремы Геделя и Тьюринга продемонстрировали, что процесс математического (и вообще научного) исследования не может сводиться к «механическому» использованию каких-либо детерминированных алгоритмов, к манипуляциям символами и правилами какого-либо формального языка. Научные открытия, расширяющие горизонт наших знаний, не могут быть результатом одной лишь дедукции. Мы можем делать эти открытия на основе правил, но эти правила (как показывает история науки) часто представляют собой вероятностные алгоритмы, а в ряде случаев - «обычный» метод проб и ошибок, в котором существуют элементы непредсказуемости (стохастичности).

Таким образом, ошибка А.Пуанкаре (1888), исправление которой привело к рождению теории хаоса, вполне аналогична ошибке Д.Гильберта (1900, 1928), исправление которой привело к пониманию ограниченности формальных систем и основанных на этих системах строгих (детерминированных) алгоритмов. Подобно тому, как исправляя свою ошибку, Пуанкаре открыл хаотические (стохастические) решения в эволюции динамических систем, так и корректировка ошибки Гильберта помогла осознать, что творческий процесс (процесс научного поиска) включает в себя стохастические стратегии, результат применения которых нельзя предсказать однозначно.

Если представить путь к открытию как эволюционный процесс от незнания к знанию, то уже сопоставление ошибок Пуанкаре и Гильберта позволяет заметить определенную аналогию между этим когнитивным процессом и эволюцией динамических систем, включающей элементы непредсказуемости (недетерминированности). Разница лишь в том, что Пуанкаре сам обнаружил и исправил свою ошибку, тогда как Гильберт не смог этого сделать, и понадобились усилия Геделя и Тьюринга, чтобы установить ограниченность формалистского подхода к описанию творчества.

3. Аналогия между теоремой Геделя о неполноте и принципом Берталанфи - Пригожина об открытости самоорганизующихся систем

В 1937 г. австрийский ученый Людвиг фон Берталанфи (1901-1972) предложил концепцию, названную «общей теорией систем». На семинаре по философии в Чикагском университете (США) он высказал идею о наличии общих закономерностей в функционировании ряда физических, биологических и социальных объектов. Иначе говоря, он обратил внимание на изоморфизм (эквивалентность) законов, управляющих функционированием систем различной природы. Кроме того, фон Берталанфи ввел понятие «открытых систем» - систем, которые постоянно обмениваются веществом и энергией с внешней средой.

Один из основоположников неравновесной термодинамики и создатель теории диссипативных структур Илья Пригожин (1917 -2003) подхватил и развил понятие открытых систем. Теперь можно говорить, что основным механизмом существования самоорганизующихся систем является принцип их открытости, принцип постоянного обмена веществом, энергией (и информацией) с той средой, которая окружает данную систему.

Система не в состоянии эффективно функционировать, если нарушается этот принцип открытости. Можно привести массу примеров «работы» этого правила, но, на наш взгляд, достаточно отметить, что если изолировать какой - либо крупный город, отрезать его от всех связей с внешним миром (включая транспортные и информационные сообщения), то будет поставлено под угрозу его дальнейшее развитие и существование.

И.Пригожин изложил свой взгляд на принцип открытости самоорганизующихся систем в интервью, представленном в статье [6]. Свой рассказ ученый начинает с книги Э.Шредингера «Что такое жизнь» (1944), которая оказала значительное впечатление на создателя неравновесной термодинамики: «Книгу Шредингера о жизни я читал с большим удовольствием, и в ней меня заинтересовали два аспекта. Первый состоял в том, что жизнь возможна только за счет обмена энтропией, то есть должен быть поток энергии. И второй: как это получилось, что жизнь так устойчива? Из крокодила получается крокодил, из курицы - курица. Речь идет не только о наследственности, но и о стабильности. Шредингер думал, что эта устойчивость подобна хорошим часам, то есть имеет механическое происхождение. Мне трудно было с этим согласиться. Аналогия, которая пришла мне тогда в голову, связана с городом. Ведь город живет только потому, что он есть открытая система - если вы изолируете его, то он постепенно прекратит существование. А взаимодействия внутри города - это то, что делает систему стабильной. В эту аналогию я верю еще и теперь, и думаю, что она представляет очень важный элемент моей теории» [6, с.31].

Внимательный анализ позволяет выявить глубокую аналогию между принципом открытости Берталанфи - Пригожина и теоремой Геделя о неполноте. Как мы уже отметили, эта теорема показала, что математика (и наука вообще) не может быть представлена в виде замкнутой формальной аксиоматико-дедуктивной системы, развивающейся без использования результатов наблюдения и эксперимента. Поскольку математика (как и наука вообще) постигает закономерности внешнего мира, наблюдение и эксперимент являются для науки «окном» в этот внешний мир. Перестаньте наблюдать и экспериментировать - и вы лишитесь способности правильно описывать этот мир. Таким образом, любая теория должна взаимодействовать с внешним миром посредством постоянного экспериментирования, проверяя и корректируя свои постулаты. Это взаимодействие, предполагающее постоянное извлечение новой информации из окружающего мира, - аналог постоянного обмена системы с внешней средой веществом, энергией и информацией. Выдвигая программу формализации математики, Д.Гильберт, по сути дела, хотел изолировать науку от наблюдения и эксперимента, тогда как теорема Геделя о неполноте, напротив, наложила запрет на успешное функционирование замкнутых формальных систем. Именно поэтому специалисты подчеркивают, что запреты и ограничения, налагаемые теоремой Геделя, снимаются, если формальные системы начинают взаимодействовать с внешним миром, т.е. избавляются от статуса «замкнутых (закрытых) формальных систем».

Одним из первых ученых, осознавших такой способ снятия ограничений теоремы Геделя, был отечественный математик и логик, академик АН СССР, Виктор Михайлович Глушков (1923-1982). В работе «Развитие абстрактного мышления и запрет Геделя» [7] он пишет: «...Налагаемый теоремой Геделя запрет снимается, когда формальные системы абстрактного мышления рассматриваются не изолированно, а в процессе непрерывного развития во взаимодействии с окружающим миром» [7, с.134].

В свое время американский математик, удостоенный премии Филдса за вклад в теорию множеств, Пол Джозеф Коэн (1934 -2007) высказал следующее суждение о программе формализации Д.Гильберта: «Жизнь была бы гораздо приятнее, не будь гильбертовская программа потрясена открытиями Геделя». Возражая ему, А.Н.Паршин подчеркнул, что «если бы не было теоремы Геделя, то жизнь не только не была бы приятнее, ее просто не было бы» [8, с.30]. Далее А.Н.Паршин высказывает предположение, что некий аналог теоремы Геделя должен существовать и в биологии.

Описанная нами аналогия между результатом Геделя и принципом Берталанфи - Пригожина, показывающая, что теорема Геделя о неполноте является «информационным эквивалентом» принципа открытости самоорганизующихся систем, свидетельствует о справедливости точки зрения А.Н.Паршина.

4. Стохастичность динамических систем и вероятностная природа индуктивных выводов

Как отмечено выше, А.Пуанкаре (1888) обнаружил хаотические решения в задаче трех и более тел, взаимодействующих друг с другом по законам Ньютона. Б.В.Чириков (1959), изучая поведение заряженных частиц в магнитных ловушках, сформулировал критерий стохастичности (перекрытия резонансов), а Э.Н.Лоренц (1961) открыл признаки хаоса, моделируя погоду с помощью нелинейных дифференциальных уравнений третьего порядка.

Добавим, что до Пуанкаре неинтегрируемость многих динамических систем установил немецкий математик Генрих Брунс (1848-1919). Он учитывал результаты Э.Бура и Ж.Лиувилля (1855), которые связали интегрирование гамильтоновой системы в квадратурах с существованием достаточно большого набора ее первых интегралов. Рассматривая задачу трех тел, Г.Брунс (1887) доказал теорему об отсутствии полного набора алгебраических интегралов, позволяющих исчерпывающим образом решить эту задачу. Обобщая этот результат, Пуанкаре сформулировал теорему о несуществовании интегрируемых систем.

И.Р.Пригожин описывает эти математические достижения в книге «От существующего к возникающему» [9]: «Физики и математики, работавшие в XIX в. над проблемами классической динамики, занимались поиском интегрируемых систем, и это вполне понятно: стоит найти преобразование, приводящее исходные уравнения к гамильтонову виду, как задача интегрирования становится тривиальной. Нужно ли говорить, сколь сильное потрясение испытало всё ученое сообщество, когда Генрих Брунс впервые доказал (а Пуанкаре обобщил полученные Брунсом результаты), что большинство наиболее интересных проблем классической динамики, начиная с проблемы трех тел (например, Солнца, Земли и Луны), не сводится к интегрируемым системам» [9, с.49].

Обсуждая указанную теорему Пуанкаре, И.Р.Пригожин раскрывает причину ее справедливости: «Резонансы приводят к столь нерегулярному движению, что инварианты движения, кроме гамильтониана, не являются более аналитическими функциями переменных «действие». Назовем это явление «катастрофой Пуанкаре». Оно играет важную роль в последующих главах нашей книги» [9, с.56].

Существует ли в теории творчества некий аналог этой «катастрофы Пуанкаре», которую И.Р.Пригожин связал с теоремой о неинтегрируемости большинства динамических систем? Да, существует.

После того, как Аристотель построил теорию дедуктивных рассуждений (силлогистику), он задался целью разработать аналогичную теорию для индуктивных рассуждений. Ему казалось, что достоверность индуктивных выводов легко достигается достоверностью исходных посылок (как в случае дедукции). Однако здесь нужно было учитывать еще один фактор, определяющий справедливость индуктивных умозаключений, - количество исходных посылок (описывающих отдельные элементы систем, о которых делается обобщающий вывод). Чтобы избежать ошибочных выводов, нужно рассматривать все элементы системы, а не отдельную их часть. Однако эта задача осложняется тем, что многие системы состоят из колоссального числа элементов, следовательно, нам требуется значительное время и значительные материальные ресурсы для изучения всех этих элементов. В результате Аристотель потерпел неудачу в построении теории индуктивных силлогизмов.

Д.А.Поспелов в книге «Моделирование рассуждений» [10] пишет об Аристотеле: «Увлеченный красотой и стройностью воздвигнутого им здания силлогистики, он попытался втиснуть в его объемы и индуктивное рассуждение, ввести схему индуктивного силлогизма. Но здесь его подстерегала неудача. Индуктивные рассуждения никак не хотели отливаться в ту стройную форму, которая так подошла дедуктивным рассуждениям» [10, с.87].

В дальнейшем ученые поняли, что индукция - в отличие от дедуктивных умозаключений - имеет вероятностную природу. Наши знания об элементах большинства изучаемых систем являются фрагментарными, то есть не охватывают все элементы. Поскольку существенная часть наших индуктивных обобщений основывается на неполной информации, эти обобщения обладают определенной вероятностью истинности (а не гарантированной истинностью). Этот факт понимал Лейбниц, что явилось одной из причин, заставивших его приступить к разработке проекта «универсальной характеристики» (универсального алгоритма, в самом себе содержащего критерии истинности). Г.Г.Майоров в предисловии к 3-му тому «Собрания сочинений» Лейбница [11] раскрывает его позицию относительно возможностей индуктивного метода: «В общем случае индукция всегда неполна, и ее выводы не имеют силы необходимости, они могут создавать лишь большую или меньшую уверенность в том, что и впредь всегда будет так, как было, т.е. могут обладать только «моральной достоверностью»; этого недостаточно для теоретических, аподиктических наук» [11, с.14].

Согласившись с тем, что индукция гарантирует вероятность истины, Пьер Лаплас (1749-1827) предположил, что эту вероятность можно описать математически, а именно с помощью разработанных к тому времени средств математической теории вероятностей. Свой подход он изложил в трактате «Опыт философии теории вероятностей» (1814). В конце концов, после многочисленных попыток, Лаплас вынужден был констатировать: «Трудно оценить вероятность результатов индукции» [12, с.338]. Аналогичные попытки предпринимал его соотечественник Николя де Кондорсе (1743-1794), который также не достиг успеха.

По существу, причиной этих неудач являются те же обстоятельства, которые помешали Аристотелю создать эффективную теорию индуктивных силлогизмов. Многие природные системы состоят из колоссального (иногда бесконечного) числа элементов. Чтобы изучить каждый из этих элементов, нужно обладать колоссальным временем и колоссальными материальными ресурсами. Степень истинности индукции зависит от количества рассмотренных элементов (A), поэтому для определения этой степени истинности нужно заранее и точно знать количество всех элементов изучаемой системы (B). Вычитание A из B даст нам величину, характеризующую достоверность индуктивного умозаключения. Однако в большинстве случаев мы не можем знать заранее число элементов той или иной системы, поэтому наши попытки математически точно выразить вероятность индукции оказываются безрезультатными («повисают в воздухе»).

Оценивая эту ситуацию, британский математик, логик и философ Бертран Рассел пишет: «Со времен Лапласа делались различные попытки показать, что вероятная истинность индуктивного вывода вытекает из математической теории вероятности. Теперь всеми признается, что все эти попытки были безуспешными...» [13, с.352]. «Во-первых, - продолжает автор, - в математической теории вероятности нет ничего, что оправдывало бы наше понимание как общей, так и частной индукции как вероятной, как бы при этом ни было велико установленное число благоприятных случаев» [13, с.361].

Об этом же говорит Д.Пойа в книге «Математика и правдоподобные рассуждения» [12]: «Никто еще не предложил ясного и убедительного метода вычисления правдоподобностей в нетривиальных случаях, и если мы ясно себе представим конкретные ситуации, в которых важна правильная оценка правдоподобностей, то мы легко сможем понять, что любое приписывание правдоподобностям определенных числовых значений подвергается большой опасности показаться глупым» [12, с.368].

Мы могли бы назвать эту ситуацию «катастрофой Аристотеля - Лапласа» или, например, «катастрофой Лапласа - Кондорсе», но не станем этого делать. Безусловно, неинтегрируемость большинства динамических систем (описываемая теоремой Пуанкаре) имеет сходство с невычислимостью степени вероятности индукции. Однако, учитывая огромное количество научных открытий, сделанных при помощи неполной индукции, т.е. учитывая высокую продуктивность индуктивных методов обработки информации, воздержимся от того, чтобы именовать указанную ситуацию «катастрофой». На самом деле (в глобальном смысле), катастрофой оказалось бы такое устройство мира, в котором нам была бы доступна лишь дедукция, а индукции физически не существовало. В этом случае не существовало бы и таких вещей, как наука и научное познание.

5. Аналогия между теорией энтропии и теорией информации

Мы знаем, что И.Р.Пригожин является одним из создателей теории самоорганизующихся систем. В состав этой теории вошли многие результаты, полученные им при разработке неравновесной термодинамики (термодинамики необратимых процессов). В свою очередь, основные принципы неравновесной термодинамики были сформулированы И.Р.Пригожиным (а также Ларсом Онсагером) по аналогии с равновесной термодинамикой [14]. Поэтому нет ничего удивительного в том, что, рассматривая концепцию самоорганизации, мы встречаем в ней ряд принципов этой термодинамики или, другими словами, статистической физики, в том числе понятие энтропии. Примечательно, что понятие энтропии, проникнув в теорию неравновесных процессов, давно перешагнуло границы этого раздела науки, и сегодня широко используется в области, весьма, казалось бы, далекой от термодинамики, - теории информации.

Понятие энтропии было введено в науку Рудольфом Клаузиусом (1865). Он обобщил идеи С.Карно (1824), который показал, что условием эффективной работы тепловой машины является наличие разности (перепада) температур. Р.Клаузиус заметил, что все физические процессы идут таким образом, что перепад температур между различными объектами уменьшается, поскольку энергия необратимо рассеивается. Это рассеяние энергии, приводящее к выравниванию температур между разными телами, он и назвал энтропией. Сформулированный им принцип постоянного роста энтропии (ее стремления к максимуму) стал называться «вторым законом термодинамики». В дальнейшем Р.Клаузиус пытался доказать этот принцип методами классической механики, но безуспешно (поскольку классической механике чужда идея необратимости).

Аналогичные попытки предпринимал австрийский физик Людвиг Больцман (1844-1906), но на одном из этапов исследований он понял, что второе начало термодинамики имеет статистическую природу. Л.Больцман показал, что принцип роста энтропии нельзя вывести из законов классической механики, что единственный способ доказать справедливость данного принципа состоит в использовании средств математической теории вероятностей. Той самой теории, которая выросла в трудах Б.Паскаля и П.Ферма из анализа азартных игр и тех случайных событий, которые доминируют в этих играх. Многие ученые (Й.Лошмидт, А.Пуанкаре, Э.Цермело и т.д.) не согласились с такой трактовкой энтропии, с тем, что она означает вероятность - всего лишь вероятность! - осуществления некоторого макроскопического состояния системы. Однако Л.Больцман был прав, и его знаменитая формула, связывающая энтропию и вероятность (S = lnW), вошла в золотой фонд науки.

А в 1948 г. американский математик и инженер Клод Шеннон (1916 -2001), разрабатывая теорию связи, предложил измерять количество информации с помощью формулы, совершенно аналогичной формуле энтропии Больцмана. Другими словами, К.Шеннон перенес формулу энтропии Больцмана из статистической физики в теорию информации, тем самым перебросив мост между весьма далекими научными дисциплинами. Сначала многие ученые, включая и самого К.Шеннона, объясняли этот перенос (транспонирование) удобством расчетов. Но постепенно стал проясняться глубокий смысл того, почему одно и то же математическое соотношение успешно «работает» в термодинамике и теории информации. Как пишет Е.А.Седов, «стало понятно, что и Больцман, и Шеннон, в сущности, занимались одной и той же проблемой соотношения хаоса и порядка, хотя и подошли к ней и к связанной с ней цепочке систем и явлений с противоположных сторон» [15, с.168].

Наблюдая за тем, как формула энтропии неожиданно «перекочевала» из статистической физики в теорию информации, можно задать вопрос: был ли это однонаправленный процесс? Не происходила ли обратная трансляция идей и методов из теории информации в статистическую физику? Оказывается, происходила, что позволяет говорить о взаимовыгодном обмене идеями между указанными разделами науки!

В 1957 г. преподаватель Стэнфордского университета Эдвин Томпсон Джейнс (Edwin Thompson Jaynes) в одной из своих статей показал, что методами К.Шеннона можно воспроизвести все результаты не только основ классической термодинамики, но и результаты Д.Гиббса, относящиеся к области статистической термодинамики. В 1961 г. эта идея была обобщена американским профессором М.Трайбусом в статье «Теория информации - основа термостатики и термодинамики» [16].

Результаты Э.Т.Джейнса получили высокую оценку со стороны специалистов. Так, Л.М.Мартюшев в работе «Принцип максимума производства энтропии: история возникновения и современное состояние» [17] подчеркивает: «Хотя изначально теория информации создавалась с помощью некоторых понятий статистической физики, в настоящее время, следуя Джейнсу, можно принять информационный подход за основу при построении статистической физики. Тогда формализм статистической механики оказывается некой последовательностью действий, выполняя которые, мы имеем возможность получить наилучшую оценку при существенной ограниченности наших знаний о микромире (это статистическая методика предупреждения возможных ошибок)» [17, с.593-594]. Аналогичная оценка работ Э.Т.Джейнса содержится в [18].

Интересно, что Э.Т.Джейнс отождествлял используемый в теории информации (и статистической физики) принцип максимума производства энтропии с принципом индуктивного вывода. Академик РАН В.П.Маслов в статье [19], написанной совместно с В.В.Вьюгиным, отмечает: «В теории информации принцип максимума энтропии также известен как принцип индуктивного вывода, который используется во многих прикладных задачах для построения вероятностных распределений на объектах, удовлетворяющих заданным ограничениям [1-3]» [19, с.97]. Здесь [1] - публикация Э.Т.Джейнса (1989).

6. Энтропия индуктивных и дедуктивных выводов

Какова энтропия индукции? Можно ли вообще применять понятие энтропии к этой мыслительной операции? Уместно ли сравнивать энтропию индукции и дедукции? Как ни удивительно, сформулированные вопросы имеют положительный ответ.

Прежде всего, следует вспомнить, что индуктивный метод исследования природы - это не только обобщение имеющихся эмпирических данных, но и постановка экспериментов, нацеленных на получение этих данных. Английский методолог Ф.Бэкон (1561-1626), развивая свою концепцию индукции и индуктивной деятельности, понимал ее именно таким образом: как постоянное экспериментирование, позволяющее получать новую информацию, которая в дальнейшем анализируется и обобщается.

Для получения дедуктивного вывода достаточно иметь большую и малую посылку силлогизма («все люди смертны», «Сократ - человек»). Сопоставление сведений, содержащихся в этих посылках, автоматически приводит к правильному умозаключению. Процедура использования индукции гораздо сложнее: здесь нужно последовательно накапливать информацию об интересующей нас системе (множестве), ставить эксперименты и затрачивать материальные ресурсы для того, чтобы добиться максимума рассмотренных элементов системы. Лишь в этом случае мы можем быть уверенными, что наши обобщения будут адекватными, правильно отражающими реальность.

Постановка экспериментов неизбежно связана с выполнением определенной работы или, другими словами, совокупности рабочих операций различных видов. Слово «работа» сразу напоминает закономерности термодинамики, и это неслучайно. Термодинамические принципы говорят о том, что выполнение любой работы сопряжено с затратами энергии, а затраты энергии - с энтропией. Максимум энергетических затрат соответствует максимуму энтропии. Отсюда следует, что индуктивные методы постижения окружающего мира - это «энтропийные» методы, то есть процедуры (стратегии), связанные с высокой величиной энтропии. И, наоборот, дедуктивные операции - это операции, соответствующие минимуму производства энтропии. Таким образом, энтропия индукции всегда выше энтропии дедукции (Зиндукции >S дедукции).

Сформулированный нами принцип о превосходстве энтропии индукции над энтропией дедукции мог быть открыт еще в 1929 г., но почему -то этого не произошло. В этом году венгерский физик Лео Сцилард (1898-1964) опубликовал статью, в которой содержалось решение парадокса «демона Максвелла». Как известно, этот «демон», придуманный Джеймсом Максвеллом (1831-1879), обладал способностью сортировать молекулы, находящиеся в замкнутом сосуде, по скоростям так, что в одной половине сосуда концентрировались быстрые («горячие») молекулы, а в другой половине - медленные. Максвелл считал, что его изощренный «демон-сортировщик» может нарушать второе начало термодинамики, то есть «отменять» принцип роста энтропии Клаузиуса. Однако в 1929 г. Л.Сцилард показал, что для осуществления подобной сортировки «демон» должен распознавать быстрые и медленные молекулы, а для этого требуется измерять их скорости. Иначе говоря, «демон» должен владеть информацией о динамике молекул, для чего необходимо выполнить работу (измерение), а работа связана с затратами энергии и, соответственно, ростом энтропии. Описание этой статьи Л.Сциларда можно найти в [20, 21].

Этот результат Л.Сциларда можно было применить для сравнения индуктивных и дедуктивных способов изучения природы, но никто этого не сделал. Ученые обратили лишь внимание на то, что Л.Сцилард, решая парадокс «демона Максвелла», ввел в физику понятие информации за три десятилетия до трудов К.Шеннона. Впервые сравнение «энтропийных» характеристик индукции и дедукции (хотя и бегло, мимолетно) провел канадский физик Джон Киркалди (John Kirkaldy) в 1965 г. в статье «Термодинамика человеческого мозга» [22]. Как пишет Л.М.Мартюшев в уже цитировавшейся нами работе [17], «Первое обсуждение процессов в мозге с позиции экстремизации производства энтропии можно обнаружить в 1965 г. у уже упоминавшегося ранее несколько раз Д.Киркалди [207], рассматривавшего мозг как необратимую систему, в которую поступают потоки энергии и информации из окружающей среды. Процессы в мозге сопровождаются, по мнению Киркалди, то уменьшением производства энтропии (например, при обучении и дедукции), то максимизацией (например, при творчестве и индукции)» [17, с.610]. Здесь [207] - это статья Д.Киркалди «Термодинамика человеческого мозга» (1965).

А.Азимов в книге «Путеводитель по науке» [23] отмечает: «Евклид сумел свести аксиомы к нескольким простым определениям. Из этих аксиом он создал сложную и величественную систему, получившую название евклидова геометрия. Никогда не было создано так много практически из ничего, и наградой Евклиду стало то, что его учебник используют с незначительными изменениями более 2000 лет. Греки были влюблены в заманчивую игру под названием «дедукция» и, увлекшись, совершили две серьезные ошибки. Они сочли дедукцию наиболее приемлемым средством достижения знаний, хотя и были достаточно осведомлены, что в некоторых случаях ее будет недостаточно; например, расстояние от Афин до Коринфа нельзя определить с помощью абстрактных принципов, это расстояние следовало измерить» [23, с.13].

Слова А.Азимова о том, что «греки были влюблены в заманчивую игру под названием «дедукция» (и недооценивали индукцию и эксперимент), допускают интересную интерпретацию. В свете сформулированного выше принципа о том, что индуктивным методам соответствует более значительная величина энтропии, чем дедукции, становится ясно, что греки попросту заставили себя поверить в возможность «проникновения в тайны Вселенной» без существенных усилий, т.е. постепенного накопления фактов, обосновывающих наши индуктивные гипотезы. На языке термодинамики можно сказать: греки пытались избежать затрат энергии и, следовательно, максимума производства энтропии.

Те же самые рассуждения применимы к «универсальной характеристике» (универсальному алгоритму) Г.Лейбница и программе формализации математики Д.Гильберта. Эти крупные математики делали ставку на формальные системы, так как «оставляли в тени» эмпирическое происхождение научных знаний, в том числе тот факт, что индуктивное исследование, опирающееся на эксперимент (а он может быть весьма дорогостоящим), - реальный механизм прогресса науки.

Наряду с понятием энтропии индуктивного вывода можно ввести понятие стоимости исходных посылок этого вывода. Стоимость исходных посылок индукции - это стоимость материальных ресурсов, которые мы затрачиваем на получение новой информации, являющейся материалом для индуктивных гипотез. Другими словами, указанная стоимость - это количество энергии и вещества, которые необходимы для получения информации. Ниже приводится таблица наиболее известных научных проектов последнего времени с указанием их стоимости. Данная таблица дополнительно иллюстрирует мысль о связи между индукцией, энтропией и стоимостью ресурсов, с помощью которых мы изучаем внешний мир.

Таблица 1. Научные проекты и их стоимость

Наименование научного проекта

Наиболее известное научное открытие, сделанное в рамках проекта

Стоимость

проекта

1.

Стэнфордский линейный ускоритель частиц (США)

Открытие кварковой структуры протонов (1973), авторы открытия - Джером Фридман, Ричард Тейлор, Генри Кендалл (Нобелевская премия 1990 г.)

125 миллионов

долларов США

2.

Кольцевой

ускоритель частиц

«Тэватрон» (США)

Открытие топ-кварка - самого тяжелого кварка (1995)

120 миллионов

долларов США

3.

Нейтринный детектор SNO (Садбери,

Канада)

Открытие осцилляций нейтрино (2000), руководитель проекта - Артур Макдональд (Нобелевская премия 2015 г.)

270 миллионов

канадских долларов

4.

Нейтринный детектор

«Супер-Камиоканде»

(Япония)

Открытие осцилляций нейтрино (1998), руководитель проекта - Кадзита Такааки (Нобелевская премия 2015 г.)

100 миллионов

долларов США

5.

Большой адронный коллайдер (Европа)

Открытие бозона Хиггса (2011),

предсказатели бозона - Питер Хиггс, Франсуа Энглер (Нобелевская премия, 2013 г.)

7,8 миллиардов

долларов США

6.

Проект LIGO (проект гравитационно-

Открытие гравитационных волн (2015), руководители проекта - Кип Торн, Райнер

365 миллионов

долларов США

волновой

обсерватории, США)

Вайсс, Барри Бариш (Нобелевская премия 2017 г.)

7.

Орбитальный телескоп «Хаббл»

(запущен в 1990 г.),

Подтверждена теория о сверхмассивных черных дырах в центрах галактик

2,5 миллиардов

долларов США

8.

Орбитальный телескоп «Комптон» (запущен в 1991 г.),

Обнаружение более 3000 гамма-всплесков, что приближает к построению теории этих всплесков

617 миллионов

долларов США

9.

Орбитальный телескоп «Чандра» (запущен в 1999 г.),

Доказательство существования темной материи (2006)

1,65 миллиарда

долларов США

10.

Орбитальный телескоп «Спитцер» (запущен в 2003 г.),

Прямое наблюдение экзопланет, а именно «горячих Юпитеров» (2005)

720 миллионов

долларов США

11.

Орбитальный телескоп «Кеплер» (запущен в 2009 г.),

Открытие 3500 кандидатов в планеты

600 миллионов

долларов США

7. Аргументы Р.Пенроуза о «невычислимости» творческого мышления

теория хаос самоорганизация

В 1989 г. английский физик и математик Роджер Пенроуз опубликовал книгу «Новый ум короля», которая впервые издана на русском языке в 2003 г. [24]. В данной книге Р.Пенроуз рассмотрел основные принципы, которыми руководствуются специалисты, разрабатывающие вычислительные машины и преследующие цель создать искусственный интеллект. Эти принципы он сопоставил с тем, что нам известно относительно особенностей (закономерностей) человеческого творчества. Р.Пенроуз задался вопросом: возможно ли описать алгоритмом (детерминированным вычислительным процессом) творческую деятельность человека, в ходе которой он создает нечто новое и общественно значимое: научные открытия, технические изобретения и т.д.? Ученый ответил на этот вопрос отрицательно. Далее он поставил вопрос: может ли искусственный интеллект, действующий в рамках программы, в которой нет ничего, кроме детерминированных алгоритмов, сравняться с человеком или превзойти его в своих мыслительных (познавательных) способностях? На этот вопрос он также ответил отрицательно. Как ни удивительно, для формулировки этих ответов ему хватило двух математических результатов: теоремы Геделя о неполноте и теоремы Тьюринга о неразрешимости проблемы остановки. Какая связь может существовать между этими теоремами и разработками в области искусственного интеллекта? Оказывается, самая непосредственная!

Когда ученые создавали первые вычислительные машины, они пришли к выводу, что лучший способ достичь цели - заложить в «мозг» машины программу, которая представляла бы собой набор четких инструкций, совокупность недвусмысленных правил, определяющих порядок обработки информации в ходе решения той или иной задачи. Наибольшее распространение получили вычислительные машины, чье программное обеспечение можно назвать «дедуктивным». В этих компьютерах инструкции (команды) соответствуют фиксированным правилам вывода некоторой формализованной аксиоматической процедуры. Другими словами, программа этих компьютеров - некая формальная, аксиоматико-дедуктивная система, способ построения которой глубоко изучали Д.Гильберт и представители его математической школы.

Анализируя возможности этих дедуктивных вычислительных машин, Р.Пенроуз пришел к совершенно правильному выводу, что они (эти возможности) ограничены так же, как и сами формальные системы, олицетворяющие стремление своих создателей превратить творческий поиск в «механический процесс». Аналогия между формальными системами (которые изучались сторонниками Д.Гильберта) и дедуктивными компьютерными программами привела Р.Пенроуза к достаточно простой мысли. Коль скоро теорема Геделя о неполноте и теорема Тьюринга о неразрешимости проблемы остановки показали неосуществимость программы формализации математики, предложенной Д.Гильбертом, те же математические результаты демонстрируют «ущербность» дедуктивных вычислительных машин, их неспособность вести полноценный творческий поиск.

Кроме того, Р.Пенроуз установил эквивалентность формальных систем и детерминированных алгоритмов. На высоком уровне математической строгости он показал, что для случая достаточно богатой формальной системы Ф мы имеем простое соотношение: алгоритм Т ^ правила формальной системы Ф. Детальное изложение схемы рассуждений, использованных Р.Пенроузом при определении этой эквивалентности, можно найти в [25]. Указанная эквивалентность стала «плацдармом», используя который Р.Пенроуз постулировал, что творческое мышление человека нельзя описать как реализацию детерминированных алгоритмов, а деятельность машин, основу программ которых составляют те же алгоритмы (формальные системы), - как «разумную» деятельность.

Науке повезло в том, что Р.Пенроуз - хороший математик. Именно он, используя современные математические средства (геометрию пространства - времени Шварцшильда), в 1965 г. строго доказал возможность гравитационного сжатия массивных звезд до сингулярного состояния. Это доказательство принесло ему совсем недавно (в 2020 году) Нобелевскую премию по физике. Занимаясь проблемами искусственного интеллекта, Р.Пенроуз обратил внимание на то, что эффективный алгоритм - это алгоритм, основанный на рекурсивных функциях. Ученый также знал, что рекурсивные функции являются стержнем теории вычислимости: объект, который можно представить в виде рекурсивных функций, может быть легко вычислен. Отсюда он сделал вывод, с которым трудно поспорить: поскольку творческое мышление не описывается детерминированными алгоритмами (рекурсивными функциями), то оно является «невычислимым».

8. Стивен Смейл формулирует 18-ю проблему

В 1995 г. должность вице-президента Международного математического союза занял Владимир Игоревич Арнольд, создатель знаменитой КАМ -теории, ученик А.Н.Колмогорова. Находясь в этой должности, он разослал крупным математикам письмо с предложением охарактеризовать важные математические проблемы, остающиеся пока нерешенными. Отвечая на письмо В.И.Арнольда, американский математик, внесший вклад в теорию динамических систем, Стивен Смейл (род. 1930 г.) представил свой список проблем математики, решение которых, по его мнению, должно способствовать ее дальнейшему прогрессу. Последней (восемнадцатой) в этом списке является проблема, которая звучит следующим образом: каковы пределы интеллекта - как искусственного, так и человека?

В 1997 г. по случаю 60-летия В.И.Арнольда Стивен Смейл выступил в Филдсовском институте (Торонто) с лекцией «Математические проблемы следующего столетия» [26]. Поясняя свою восемнадцатую проблему о пределах интеллекта, он говорит: «Пенроуз пытается привести некоторые ограничения для искусственного интеллекта. Фигурирующий в его доказательстве интересный вопрос - это неразрешимость множества Мандельброта и выводы из теоремы Геделя о неполноте. Однако необходимо более широкое изучение, которое включало бы более глубокие модели разума, а также компьютера...» [26, с.297].

Ссылка С.Смейла на множество Мандельброта связана с тем, что Р.Пенроуз рассматривал это множество в своей книге [24] в качестве одного из объектов, обладающих фантастической сложностью. В частности, он писал: «.Сложную структуру множества Мандельброта во всех ее деталях не под силу охватить никому из нас, и ее невозможно полностью отобразить на компьютере» [24, с.87]. Возможно, Р.Пенроуз считал, что сложность множества Мандельброта - некая аналогия, пусть и не совсем точная, сложности человеческого сознания.

Текст лекции С.Смейла [26] говорит о том, что он ознакомился с книгой Р.Пенроуза «Новый ум короля» [24] и серьезно воспринял его аргументы относительно того, что теоремы Геделя и Тьюринга - реальные факторы, ограничивающие формализацию человеческого творчества. Эти же теоремы показывают, что одних детерминированных алгоритмов (формальных систем) недостаточно для того, чтобы искусственный интеллект приблизился по своим возможностям к человеческому разуму. Однако С.Смейл уверен, что могут существовать и другие факторы, запрещающие полную формализацию (алгоритмизацию) человеческого творчества и искусственного интеллекта. Поэтому американский математик и поставил вопрос: каковы пределы интеллекта - как искусственного, так и человека?

9. Каковы же пределы интеллекта (в интерпретации С.Смейла)?

Разумеется, речь идет о пределах алгоритмизации (формализации) интеллекта. Этими пределами должны быть факторы научного творчества, которые препятствуют превращению творческого поиска в «механический процесс» манипулирования строгими (формальными, детерминированными) алгоритмами. Р.Пенроуз описал два указанных фактора: теорему Геделя о неполноте и теорему Тьюринга о неразрешимости проблемы остановки. Как ни удивительно, другими подобными факторами являются уже рассмотренные нами компоненты индуктивного метода: индукция и аналогия. Обозначив эти компоненты термином «правдоподобные рассуждения», Д.Пойа поясняет [12]: «Доказательное рассуждение надежно, неоспоримо и окончательно. Правдоподобное рассуждение рискованно, спорно и условно. Доказательные рассуждения пронизывают науки как раз в той же мере, что и математика, но сами по себе (как и сама по себе математика) не способны давать существенно новые знания об окружающем нас мире. Всё новое, что мы узнаем о мире, связано с правдоподобными рассуждениями, являющимися единственным типом рассуждений, которым мы интересуемся в повседневных делах. Доказательное рассуждение имеет жесткие стандарты, кодифицированные и выясненные логикой (формальной, или доказательной логикой), являющейся теорией доказательных рассуждений. Стандарты правдоподобных рассуждений текучи, и нет никакой теории таких рассуждений, которая могла бы по ясности сравниться с доказательной логикой или обладала бы сравнимой с ней согласованностью» [12, с.14-15].

...

Подобные документы

  • Причины хаоса. Роль энтропии как меры хаоса. От порядка к хаосу. Характеристики порядка и хаоса. Синергетика - наука о сложном. Порядок и хаос: механизм перехода. Социальная синергетика как постмодернистская философия истории.

    реферат [29,0 K], добавлен 05.09.2007

  • Хаос как бесформенное состояние мира, бесконечное пространство, неупорядоченная первопотенция мира. Превращение Хаоса в Космос, возникновение из него "жизнедеятельного". Социологизация понятий порядка и хаоса. Потеря устойчивости и переход к хаосу.

    реферат [16,9 K], добавлен 21.12.2009

  • Понятие самоорганизации, основные типы процессов. Сущность самоорганизующихся систем, обретающих присущие им структуры или функции без вмешательства извне. Первые фундаментальные результаты в области динамических систем, относящиеся к теории катастроф.

    реферат [26,9 K], добавлен 28.09.2014

  • Цели самодвижения природы в телеологическом подходе Аристотеля. Математическое описание взаимодействия Бытия и Небытия. Обоснование тройственной гармонии как условия развития социальных систем. Развитие личности как симметрия мер хаоса и порядка.

    контрольная работа [424,3 K], добавлен 28.03.2018

  • История возникновения общей теории систем как междисциплинарной области науки и исследования природы сложных систем в природе, обществе, науке. Мотивы, ведущие к выдвижению идеи общей теории систем. Вклад Людвига Берталанфи в развитие общей теории систем.

    реферат [67,1 K], добавлен 06.09.2015

  • Синергетика как направление и научная программа исследований, изучающих процесс самоорганизации и становления упорядоченных структур в сложных динамических системах, закономерности и принципы; бифуркации и флуктуации, конструктивное переосмысление хаоса.

    реферат [46,3 K], добавлен 25.11.2010

  • Анализ исторических истоков катализа, его сущность и содержание, основные этапы и назначение. Теория саморазвития элементарных открытых каталитических систем. Теория самоорганизующихся систем и направления практического использования ее принципов.

    реферат [44,8 K], добавлен 04.04.2015

  • Основные концепции о сотворении мира, их доказательность. Теория "Большого взрыва". Чарльз Дарвин: концепция о происхождении и постепенном развитии видов от простых к более сложным. Теория о происхождении и эволюции человека. Существование Высшего Разума.

    реферат [15,1 K], добавлен 24.04.2009

  • Синергетика или теория самоорганизации. Синергетическая картина мира и универсальный эволюционизм. Теория самоорганизации. Фазовое пространство и фазовые траектории. Точка бифуркации. Фракталы и аттракторы. Синергетическая концепция самоорганизации.

    реферат [69,9 K], добавлен 08.05.2015

  • Сущность и сравнение исторических и природных явлений, их волнообразные ритмы. Взаимосвязь хаоса и порядка как необходимое условие существования диссипативных систем, особенности их исследования. Анализ истории общества с синергетической точки зрения.

    реферат [42,6 K], добавлен 16.03.2010

  • Негационная теория зла Платона. Виды несправедливости в течении судебных процессов античности. Современный взгляд на понимание зла в философии. Теория эволюции и проект просвещения. Эволюционная теория происхождения морали. Концепция онтологического зла.

    дипломная работа [110,8 K], добавлен 01.09.2017

  • Объяснение познавательных способностей и возможностей человека основано на теории отражения, религиозных и разного рода иррациональных концепциях. Теория отражения изучает познание с научно-светских позиций. Теория познания - часть теории отражения.

    реферат [26,7 K], добавлен 25.01.2011

  • Категориальный аппарат генезиса теорий. Стандартная концепция научной теории. Практика научных исследований. Сущность и логика формирования теории. Интерпретация исходных понятий, принципов. Познавательный статус теории. Обоснование рациональности выбора.

    курсовая работа [180,4 K], добавлен 19.09.2013

  • Этапы формирования и развития диалектики. Современные методы познания. Диалектическая логика по Ильенкову. Способы понимания диалектики развития. Концепции, обновляющие миропонимание. Синергетика и кибернетика. Идея возникновения порядка из хаоса.

    курсовая работа [39,3 K], добавлен 26.06.2013

  • Содержательная характеристика человеческих знаний философского и научного характера. В классической концепции под истиной понимается соответствие человеческих знаний реальному положению дел. Когерентная теория истины. Экзистенциалистские концепции.

    реферат [21,6 K], добавлен 02.04.2009

  • Теория познания - важнейший раздел метафизики как философского учения о первоосновах сущего. Разработка проблем непосредственного, мистико-интуитивного познания в католической и православной богословской мысли Средневековья. Функции теории познания.

    реферат [16,4 K], добавлен 30.03.2009

  • Божественная теория происхождения человека. Возникновение материалистических теорий самозарождения жизни и эволюции антропоидных предков в человека. История креационизма - теологической и мировоззренческой концепции создания человека и планеты Богом.

    реферат [25,9 K], добавлен 06.09.2014

  • Категории пространства и времени в философском осмыслении. Их всеобщие и специфические свойства. Мифы творения из хаоса. Суть идеалистической диалектики Платона. Применение термина идея для обозначения сущности предмета. Его размышление о сущности знания.

    контрольная работа [18,6 K], добавлен 12.12.2014

  • Теория как форма научного познания. Функции теории и ее проверка. Основные формы умозаключений. Роль индукции и дедукции в философском и научном познании. Полная и неполная индукция: переход от частного к общему. Дедукция как выведение частного из общего.

    реферат [21,0 K], добавлен 29.04.2011

  • Общая характеристика творчества Юргена Хабермаса. Содержание теории коммуникативного действия. Философия коммуникативного дискурса как согласие людей друг с другом. Значение теории коммуникативного пространства для средств массовой коммуникации.

    курсовая работа [48,5 K], добавлен 17.05.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.