Конец науки: Взгляд на ограниченность знания на закате Века Науки - Хорган Джон. Страница 62
Холланд предположил, что возможно сконструировать «общую теорию комплексных адаптивнных систем», основанную на математических технологиях, таких как те, что воплощены в генетических алгоритмах. Он представил свое видение в лекции 1993 года: «Многие из самых острых долгосрочных проблем — пассивный торговый баланс, СПИД, генетические дефекты, умственное здоровье, компьютерные вирусы — концентрируются на определенных системах исключительной сложности. Системы, вмещающие эти проблемы — экономика, экология, иммунные системы, нервные системы, компьютерные сети — кажутся такими же разнообразными, как эти проблемы. Однако, несмотря на разнообразие, системы имеют общие важные характеристики, в результате мы в Институте Санта-Фе классифицируем их в одну группу под названием „комплексные адаптивные системы". Это больше чем терминология. Это показывает, что есть общие принципы, управляющие поведением всех комплексных адаптивных систем, принципы, указывающие на способы решения сопутствующих проблем. Большая часть нашей работы нацелена на превращение интуиции в факт» [137].
От амбициозности этого заявления захватывает дух. Ученые, занимающиеся хаососложностью, часто насмехаются над физиками, занимающимися физикой частиц, за их высокомерие, за то, что они думают, что могут создать теорию, объясняющую всё. Но на самом деле ученые, занимающиеся физикой частиц, довольно скромны в своих амбициях; они просто надеются, что смогут упаковать силы природы в одну аккуратную упаковку и, возможно, пролить свет на происхождение Вселенной. Лишь некоторые настолько смелы, чтобы заявлять, что их общая теория даст и истину (то есть взгляд внутрь природы), и счастье (решение мировых проблем), как предполагали Холланд и другие. А Холланд считается одним из самых скромных ученых, связанных с областью сложности.
Но могут ли ученые достичь общей теории сложности, если они не могут прийти к соглашению в том, что означает сложность? Изучающие сложность боролись, но с малым успехом, чтобы отделить себя от тех, кто изучает хаос. По мнению Джеймса Йорке (James Yorke), физика из Университета Мэриленда, хаос относится к ограниченному набору явлений, возникающих предсказуемо непредсказуемыми путями — демонстрируя чувствительность к изначальным условиям, апериодическое поведение, возвращение определенных образцов на различных пространственных и временных шкалах и так далее. (Йорке — личность известная, так как именно он придумал термин «хаос» в работе, опубликованной им в 1975 году.) Согласно Йорке, сложность, пожалуй, относится «ко всему чему хотите» [138].
Одно из широко используемых определений сложности — «грань хаоса». Эта живописная фраза была включена в подзаголовок двух книг, опубликованных в 1992 году: «Сложность: жизнь на грани хаоса» Роджера Льюина (Roger Lewin, Complexity: Life at the Edge of Chaos,1992) и «Сложность: появляющаяся наука на грани порядка и хаоса» М. Митчелл Валдроп (М. Mitchell Waldrop, Complexity: The Emerging Science at the Edge of Order and Chaos,1992). (Авторы, несомненно, намеревались пробудить этой фразой интерес, а также обозначить суть новой области.) Основная идея грани хаоса заключается в том, что ничего нового не может возникнуть из систем с высокими степенями порядка и стабильности, таких как кристаллы; с другой стороны, полностью хаотические, апериодические системы, такие как турбулентные потоки или нагретые газы, слишком бесформенны. По-настоящему комплексные вещи — амебы, биржевые брокеры и подобные им — оказываются на границе между строгим порядком и хаотичностью.
Большинство популярных отчетов приписывают идею исследователям из Сайта-Фе Норману Пакарду (Norman Packard)и Кристоферу Лангтону (Christopher Langton). Пакард, чей опыт лидера в теории хаоса научил его со всей серьезностью относиться к вопросу важности идеи «упаковки», придумал имеющую первостепенное значение фразу «грань хаоса» в конце восьмидесятых. В опытах с клеточными автоматами они с Лангтоном пришли к выводу, что вычислительный потенциал системы, то есть способность сохранять и обрабатывать информацию, доходит до высшей точки в режиме между высокопериодическим и хаотическим поведением. Но два других исследователя из Института Санта-Фе, Мелани Митчелл и Джеймс Кратчфилд, сообщили, что их собственные компьютерные эксперименты не подтверждают выводы Пакарда и Лангтона. Они также сомневались, является ли «что-то подобное движению в направлении всеобщих вычислительных способностей важной силой в эволюции биологических организмов». Хотя некоторые сотрудники Института Санта-Фе до сих пор пользуются фразой «грань хаоса» (например, Стюарт Кауффман, чья работа была описана в главе 5), большинство из них от нее отрекаются.
Было предложено много других определений сложности — по меньшей мере 31, в соответствии со списком, составленным в начале девяностых годов физиком Сетом Ллойдом (Seth Lloyd)из Массачусетского технологического института, который также связан и с Институтом Санта-Фе [139]. Определения заимствуют кое-что из термодинамики, информатики, компьютерных технологий и включают в себя такие концепции, как энтропия, беспорядочность и информация — сами по себе довольно скользкие термины. Все определения сложности имеют недостатки. Например, алгоритмическая теория информации, предложенная математиком из «IBM» Грегори Чайтином (Gregory Chaitiri), утверждает, что сложность системы может быть представлена самой короткой компьютерной программой, ее описывающей. Но в соответствии с этим критерием текст, созданный командой печатающих мартышек, более сложен, потому что он более беспорядочен, а следовательно, менее компактен, чем «Поминки по Финнегану» Джеймса Джойса.
Такие проблемы высвечивают тот неприятный факт, что сложность существует в некотором туманном смысле и каждый представляет ее по-своему (как, например, порнографию). Время от времени исследователи спорили, стала ли сложность такой бессмысленной, что ее следует бросить, но неизменно приходили к выводу, что термин имеет слишком большое значение для связи с общественностью. Сотрудники Института Санта-Фе часто используют слово «интересный» как синоним слова «сложный». Но какое правительственное учреждение даст средства на исследования по вопросам «общей теории интересных вещей»?
319
??? [140]
чали системы, демонстрирующие стабильность, периодичность и равновесие, но он и другие исследователи из Санта-Фе хотели понять «проходящие режимы», лежащие в основе многих биологических явлений. В конце концов, сказал Лангтон, «когда ты достигаешь точки равновесия для живых организмов, ты мертв».
Он улыбнулся. Шел дождь, и Лангтон включил «дворники». По мере того как «дворники» размазывали грязь по лобовому стеклу, оно быстро становилось из полупрозрачного непрозрачным. Лангтон, глядя на дорогу через незапачканный угол, продолжал говорить, и, казалось, его нисколько не беспокоило состояние лобового стекла. Наука, сказал он, очевидно, добилась значительного прогресса, разбив вещи на куски и изучая эти куски. Но эта методология обеспечила только ограниченное понимание явлений высшего уровня, которые были созданы, в большей степени, историческими случайностями. Однако эти ограничения можно преодолеть через синтетическую методологию, в которой базовые компоненты существования соединены вместе новыми способами в компьютерах для исследования того, что могло бы случиться.
— В конце вы оказываетесь с гораздо большим набором возможностей, — сказал Лангтон. — Затем вы можете анализировать набор, и не только на предмет уже существующих химических соединений, но и возможных химических соединений. И только в области возможных химических соединений вы увидите какую-то регулярность. Регулярность есть, но вы не можете увидеть ее в очень малом наборе того, чем нас изначально обеспечила природа.