Эволюция разума - Курцвейл Рэймонд. Страница 61
Когда в 1999 г. вышла книга «Эпоха духовных машин», а за ней в 2001 г. та статья, это вызвало несколько критических замечаний следующего толка: закону Мура приходит конец; возможности железа могут изменяться экспоненциально, но программное обеспечение отстает; мозг слишком сложен; в мозге слишком много такого, что нельзя воспроизвести с помощью компьютеров, и т. д. Книгу «Сингулярность уже близка» я написал в том числе для того, чтобы ответить на эти возражения.
Я не могу сказать, что Аллен и другие критики обязательно должны были поверить моим аргументам, но они, по крайней мере, могли ответить на мои рассуждения. Аллен пишет, что «закон ускорения отдачи (ЗУО)… не является физическим законом». Я же утверждаю, что большинство научных законов — не физические законы, а являются результатом проявлений множества событий на более примитивном уровне. Классический пример — законы термодинамики. Если рассмотреть математические закономерности в основе этих законов, мы увидим, что каждая частица ведет себя случайным образом, так что по определению мы не можем предсказать, где она окажется в следующий момент времени. Но при этом общие свойства газов вполне предсказуемы с большой степенью точности, в соответствии с законами термодинамики. И то же самое относится к закону ускорения отдачи: каждый технологический проект развивается непредсказуемым образом, но общая траектория, выраженная в терминах цены — производительности и емкости, тем не менее идет по совершенно предсказуемому закону.
Если бы компьютерные технологии развивались лишь усилиями нескольких ученых, прогресс этих технологий действительно был бы непредсказуем. Однако здесь функционирует большая динамическая система конкурирующих проектов, что определяет параметр цены — производительности (например, выраженный в объеме информации в секунду в расчете на один доллар). И процесс этот следует гладкой экспоненциальной зависимости, начиная с американской переписи населения 1890 г., о чем я писал в предыдущей главе. Хотя теоретические основы ЗУО подробно изложены в книге «Сингулярность уже близка», мной и другими исследователями проведено множество эмпирических наблюдений.
Аллен пишет: «Подобные „законы“ работают лишь до тех пор, пока не перестают работать». Однако здесь он путает отдельные парадигмы с общим направлением развития информационных технологий. Если проанализировать процесс создания радиоламп все более и более мелкого размера (одна из парадигм в рамках общего проекта развития компьютерных технологий в 1950-х гг.), мы действительно увидим, что процесс этот развивался до своего логического конца. Но когда конец приблизился, исследователи переключились на другие направления. Дальнейший экспоненциальный рост поддерживался за счет технологии транзисторов, и это привело к пятой парадигме (закону Мура) и последовательному сокращению размеров интегральных схем. Закону Мура постоянно предсказывают конец. Международный план по развитию полупроводниковой технологии (ITRS) предусматривает переход на 7-нм технологию в начале 2020-х гг. [170] На этом этапе ключевые элементы схем будут составлять в толщину 35 атомов углерода, и дальше сокращать их размер станет сложно. Однако компания Intel и другие производители схем уже обдумывают первые шаги шестой парадигмы (трехмерных вычислений), которая позволит поддержать экспоненциальные изменения параметров цены — производительности. По прогнозам компании Intel, трехмерные схемы станут главным направлением исследований на протяжении десятилетия; трехмерные транзисторы и 3D-память уже стали реальностью. Эта шестая парадигма будет поддерживать ЗУО в отношении цены — производительности компьютеров в последующие годы, пока компьютеры за тысячу долларов не станут в триллионы раз мощнее человеческого мозга [171]. (Кажется, мы сходимся с Алленом во мнении, что именно такой уровень вычислительной техники необходим для функциональной симуляции человеческого мозга.) [172]
Далее Аллен приводит стандартный аргумент, заключающийся в том, что развитие программного обеспечения не успевает за экспоненциальным развитием компьютерного оборудования. В книге «Сингулярность уже близка» я подробно останавливался на этом вопросе и приводил разные методы оценки сложности и емкости программ, которые подтверждают-таки наличие экспоненциального роста [173]. В одном недавнем исследовании («Доклад президенту и Конгрессу относительно будущего цифровых технологий: исследования на федеральном уровне и развитие сетей и информационных технологий»), представленном Президентским экспертным советом по науке и технологии, говорится следующее.
«Еще более удивительным — и гораздо менее оцененным — фактом является то, что во многих областях повышение производительности за счет улучшения алгоритмов намного опережает значительное повышение производительности за счет ускорения работы процессоров. Используемые сегодня алгоритмы для распознавания речи, перевода разговорной речи, игры в шахматы и логистического планирования значительно эволюционировали за последние десять лет… Вот лишь один пример, приведенный профессором Мартином Грётшелем из Музея Конрада Цузе. Профессор Грётшель, эксперт в области оптимизации, замечает, что для решения задачи планирования в 1988 г. с помощью линейных алгоритмов и компьютеров того времени потребовалось бы 82 года. Через 15 лет, в 2003 г., ту же задачу можно было бы решить за одну минуту, что быстрее примерно в 43 млн раз. При этом примерно тысячекратное ускорение было бы достигнуто за счет повышения скорости процессоров, а фактор 43 тыс. объясняется усовершенствованием алгоритмов! Грётшель также отмечает 30 000-кратное улучшение алгоритмов смешанного целочисленного программирования в период между 1991 и 2008 гг. Создание и анализ алгоритмов, а также анализ вычислительной сложности задач являются важнейшими направлениями исследований в компьютерной области».
Обратите внимание, что упомянутое Грётшелем линейное программирование — тот математический метод, который используется для оптимального распределения ресурсов в таких иерархических системах памяти, как обсуждавшиеся выше иерархические скрытые модели Маркова. В книге «Сингулярность уже близка» я привел множество подобных примеров [174].
Что касается искусственного интеллекта, Аллен, как и многие другие критики, не признают способностей Ватсона. Многие из этих критиков практически ничего о Ватсоне не знают, кроме того, что это некая компьютерная программа (хотя и действующая на 720 процессорах). Аллен пишет, что подобные Ватсону системы «остаются хрупкими, пределы их возможностей строго определены их внутренними установками и алгоритмами, они не могут обобщать и часто дают бессмысленные ответы в тех областях, которые выходят за рамки их специфической области знаний».
Прежде всего, такое же замечание можно сделать и в отношении людей. Я также замечу, что «специфические области знаний» Ватсона включают в себя всю информацию, содержащуюся в «Википедии», а также много других баз данных, что составляет весьма широкий спектр. Ватсон владеет большим объемом человеческих знаний и способен воспринимать различные формы речи, включая каламбуры, шутки и метафоры, относящиеся практически к любой области человеческой деятельности. Он не идеален, но и люди не идеальны, однако он достаточно хорош, чтобы обыгрывать лучших игроков в «Джеопарди!»
Аллен пишет, что Ватсон был собран учеными, объединившими свои специфические знания в узких областях. Но это неправда. Хотя некоторые знания Ватсона были запрограммированы напрямую, значительную часть информации он раздобыл сам, изучая документы на человеческом языке, например «Википедию». В этом заключается его главная сила, а также в его способности понимать сложно сформулированные вопросы викторины «Джеопарди!», но знания свои он получил сам, читая литературу.