Трудная проблема сознания - Васильев Вадим Валерьевич. Страница 28

Так или иначе, но, уяснив все эти обстоятельства, мы поймем, что Аргумент китайской комнаты показывает не совсем то или даже совсем не то, что думает Сёрл. Этот аргумент не разрушает «сильный ИИ», потому что такое разрушение подразумевает доказательство реальной возможности точных программных эмуляторов человеческого интеллекта, притом таких, которые не порождают осмысленное понимание: если эмулирующая его система заведомо не может проходить тест Тьюринга, нет ничего удивительного в том, что мы отказываем ей в понимании! Сёрл, разумеется, прав, различая синтаксис и семантику и говоря, что наличие чисто синтаксических эмуляторов не означало бы, что реализующие их системы что‑то реально понимают. Но проблема в том, что, как мы только что убедились, он не доказывает невозможности того, что определенного рода синтаксические эмуляции с необходимостью генерируют по крайней мере некое подобие семантических отношений. Соответственно, он не доказывает и того, что в случае существования таких программ инсталлирующие их материальные системы не обладали бы реальным пониманием. Что же касается чисто синтаксических эмуляторов, не порождающих понимание (это Сёрл доказал), то мы увидели, что они невозможны, если говорить не о частных интеллектуальных задачах, а об интеллекте в целом. И мысленный эксперимент с Китайской комнатой помогает уяснить, почему дело обстоит именно так.

Именно поэтому Аргумент китайской комнаты может использоваться для опровержения «слабого ИИ», т. е. возможности точной синтаксической эмуляции разумного поведения человека, в том числе его речевого поведения. Но еще раз подчеркну: Сёрл не обладает ресурсами для ответа на вопрос, можно ли эмулировать такое поведение программами с «семантическими» блоками, т. е. такими программами, которые приспособлены для взаимодействия с реальностью и отражения ее характеристик, и если да, то будут ли машины, реализующие эти программы, обладать сознанием и, в частности, осознанным пониманием. Так что пора переходить к другим авторам.

И все же еще несколько слов о Сёрле. Поскольку сам он убежден, будто доказал, что физическая реализация таких программ, которые позволяют точно воспроизводить человеческое поведение, может и не порождать сознания, то человеческий мозг, вынужден заключить он, генерирует сознание не потому, что в нем реализуются какие бы то ни было программы. Но тогда почему же? Если главное в порождающем сознание мозге не нейронные «алгоритмы» — функциональные связи нейронных популяций, отдельных нейронов или чего‑либо еще, — то, очевидно, решающую роль играют биохимические свойства мозга — такой довольно смелый ответ предложил Сёрл в той же статье 1980 г., где презентуется его Китайская комната [120].

Этот ответ вызвал много критики, и справедливо. Как вообще это можно помыслить, что сознание возникает вследствие определенных биохимических свойств мозга? Есть какие‑то вещества или соединения, присутствующие в мозге и несущие сознательный заряд? Более странное решение «трудной проблемы сознания» сложно вообразить. Впрочем, Сёрл быстро отказался от него. Он стал говорить, что в мозге есть некое каузальное ядро, ответственное за возникновение сознания, но входят ли в него биохимические компоненты, пока неизвестно [121], и тем самым пришел к той позиции, для которой характерен отказ от попыток философскими методами решить «трудную проблему»: она перекладывается на плечи будущей нейронауки. Как мы знаем, эта позиция была заявлена Сёрлом в ряде работ 90–х гг. Однако в [122]опубликованной в 2004 г. книге «Сознание» он уточнил, что, даже если ней — ронаука даст каузальное объяснение сознания, это не будет означать, что она объяснит все, что можно было бы объяснить касательно отношения сознания и мозга. Но полные объяснения — редкость и в физике. И он дает понять, что философы, требующие такого объяснения, поднимают псевдопроблему, спрашивают о том, о чем спрашивать бессмысленно.

Вдумавшись в эти пояснения Сёрла, мы увидим, что его отношение к «трудной проблеме» в середине 2000–х гг. нельзя суммировать той формулой, которая была уместна для работ, опубликованных в конце 90–х, а именно: «Мы не знаем, решаема ли она». Из более поздних текстов Сёрла следует, что если она ставится как проблема демонстрации концептуальной необходимости определенного соотношения мозга и сознания (философ мог бы удовлетвориться только таким объяснением), то она вообще не может быть решена. Очевидно, таким образом, усиление контраста взглядов Сёрла с его оптимистичными установками 80–х гг. Но в любом случае его отказ от «биохимического» решения «трудной проблемы» представляется чем‑то естественным или даже неизбежным: тот вариант не проходил по концептуальным соображениям [123]. В конце концов, все вещества состоят из одних и тех же элементарных частиц, и разница между ними должна сводиться к различным отношениям, различным каузальным взаимовлияниям между этими частицами. Т. е. так или иначе сознание должно генерироваться какими‑то функциональными [124]или каузальными отношениями между чем‑то и чем‑то. Но, каузальные схемы могут задаваться программными алгоритмами. Вспомним теперь, что исторически Сёрл начал свой путь к тезису о неразрешимости «трудной проблемы», оттолкнувшись от представления о некорректности компьютерной метафоры сознания. Но сейчас у нас может возникнуть чувство — подкрепляемое выявленными дефектами Китайской комнаты, — что он поспешил расстаться с этой метафорой. Так, собственно, и считает наш следующий герой, Д. Деннет, главный защитник «программной» концепции сознания. Актуальность рассмотрения его идей очевидна и потому, что, в отличие от Сёрла, который, как мы видели, в итоге оставил «трудные» вопросы о сознании без решения, Деннет обещает объяснить сознание. «Объясненное сознание» — так и называется его главный труд, который можно без колебаний называть одним из шедевров современной мысли. Начнем с выяснения предыстории этой работы Деннета.

Примечания

1 См., напр.: Мареева Е. В. Дж. Сёрл: старое и новое в понятии сознания // Философия сознания: история и современность. С. 216231.

2 Faigenbaum G. Conversations with John Searle. LibrosEnRed 2003. P. 170.

3 Searle J, R, The Mystery of Consciousness. L., 1998 (1997). P. 112. Деннет ответил Сёрлу в том же духе — ibid. P. 115.

4 Ibid. Р. 152–157, 162.

5 Разумеется, речь идет о философии.

6 Falgenbaum G. Conversations with John Searle. P. 19. Зато, судя по другому (видео) интервью, в то время он много читал Джойса, Пруста и Кафку.

7 Searle J. R. Mind: A Brief Introduction. Oxford, 2004. P. 1–2.

8 Ibid. P. 111.

9 Ibid. P. 114.

10 Cм.: Faigenbaum G. Conversations with John Searle. P. 28, 31.

11 Об этой оригинальной методике вспоминает А. Стролл, присутствовавший на семинарах Остина в Беркли в 1958 г. — см.: Stroll A. Twentieth‑Century Analytic Philosophy. N. Y., 2000. P. 163–164.

12 PI 360. Другой пример этого метода в действии — критические рассуждения Витгенштейна по поводу декартовского cogito ergo sum во время одной дискуссии 1947 г.: «Если кто‑то скажет мне, глядя на небо: "Думаю, что пойдет дождь, следовательно я существую", — я его не пойму» — Monk R. Ludwig Wittgenstein: The Duty of Genius. N. Y., 1991 (1990). P. 496.

13 Разумеется, не все технические термины такого рода авто матически окажутся философскими. Они будут таковыми лишь в том случае, если реальные различия, раскрываемые с их помощью, имеют непосредственное отношение к какой‑либо из философских проблем.

14 Не могу не упомянуть в этой связи замечательную книгу — Эдмондс Д., Айдиноу Дж. Кочерга Витгенштейна: История десяти минутного спора между двумя великими философами. М., 2004.