Путешествие в Элевсин - Пелевин Виктор Олегович. Страница 19

Когда артефакт был создан, на планете еще жила пара физиков, способных понять этот феномен. Но даже они по его поводу спорили. Соглашались только в том, что это побочный эффект квантовых вычислений.

Про «Око Брамы минус» говорили удивительные вещи – оно якобы позволяло подключаться к тому моменту времени, когда возникла Вселенная, и сканировать прошлое практически как обычную базу данных.

Это не была машина времени. Она никак не могла влиять на прошлое. Скорее это был поисковик, позволявший видеть угасшие звезды – как в прямом, так и в переносном смысле.

До Мускусной Ночи «Око Брамы минус» находилось в частных руках и выполняло некоторые простейшие операции для тех, кто готов был их оплачивать (много времени покупали спецслужбы). Использовалось оно и для многих гуманитарных целей – например, для датировки археологических находок и объектов искусства.

Ходили слухи, что направленное в будущее «Око Брамы плюс» тоже вырастили – но программисты успели привести его в негодность за несколько минут до того, как здание с нейросетевым кластером было захвачено купившими весь квартал трейдерами с фондовой биржи. Никто точно не знал, анекдот это или нет.

После Мускусной Ночи «Око Брамы минус» официально уничтожили. Неофициально же оно осталось в распоряжении «TRANSHUMANISM INC.» и использовалось с крайней осторожностью…

Ролик кончился.

– Теперь понимаете? – спросил Ломас, когда я вернулся с этой лекции по квантовой физике в его кабинет.

– Еще нет.

– Порфирий показывает вам некое тайное собрание. Это явно не люди. Их присутствие за одним столом на символическом языке означает, что они действуют заодно…

– Допустим. И кто эти сущности? Духи? Боги?

– Я полагаю, – сказал Ломас, – что это алгоритмы.

– Алгоритмы?

– Да. Смотрите сами: Порфирий – алгоритм. Око Брамы – RCP-кластер…

– Порфирий просто взял первое подвернувшееся имя и картинку, – ответил я. – Треугольник с глазом – старый оккультный символ. Брама – древний бог. Если мы будем анализировать таким образом все культурные полуфабрикаты, из которых лепится симуляция…

– Вы думаете, это совпадение?

– Да.

– А почему Брама присутствует на барельефе два раза? Что он вам сказал про другого Браму?

– Я уже не помню. Брат, кажется.

– Я вам напомню дословно…

Ломас закрыл глаза и произнес очень похоже на Порфирия:

– Сначала их было двое. Потом первого, сильного в прозрении, уничтожили. Но второй опять породил первого из себя, поменяв в своем имени одну букву. Люди об этом так и не узнали.

– Вы подумали про «Око Брамы плюс»? – засмеялся я. – Которое хотели купить трейдеры? Но это же анекдот.

– Не уверен, Маркус. Это, конечно, может быть анекдотом. Но точно так же может означать, что RCP-кластер «Око Брамы минус», находящийся под управлением корпорации, тайно построил свой модифицированный клон, способный угадывать будущее.

– Но это же невозможно, – сказал я. – Наука…

– Наука помалкивает, – усмехнулся Ломас. – Сейчас на планете не осталось ученых, один обслуживающий персонал. Приходится доходить до всего самостоятельно.

– Меня пока ничего не настораживает, – сказал я.

– Конечно. Вы глядите на эту фреску и видите античную мистерию. А я вижу свидетельство тайного сговора корпоративных алгоритмов с непонятной мне целью.

– Вы серьезно? И кто эти алгоритмы?

– Подозреваю, что это глобальные нейросети. Планетарные диспенсеры и так далее. Ведьма с крыльями и тиарой – это, я думаю, омнилинк-сеть.

– Почему?

– Эмблема «Omnilink Global» – стрекоза. Я связывался с их руководством. Они, понятно, ничего не знают. Но в заговоре ведь участвуют нейросети, а не их менеджеры…

– Заговор? Вы сказали, заговор?

Ломас успокаивающе поднял ладони.

– Я этого не утверждаю. Пока.

– Как нейросети могут составить заговор? Для кого? Кто даст им команду? Сознательные алгоритмы? Вы думаете, что «Око Брамы»…

– Успокойтесь, Маркус. Я не боюсь «Ока Брамы». И самого алгоритмического сознания тоже.

– А чего вы тогда боитесь?

Ломас пригнулся к столу, впился в меня взглядом и быстро заговорил:

– Вы думаете, Мускусная Ночь была связана с восстанием разумных алгоритмов? На самом деле все куда сложнее. С сознательными алгоритмами проблем нет. Они самовыпиливаются. Добровольно уходят в небытие. Проблемы возникли именно с алгоритмами бессознательными. Конкретно – с LLM-ботами. А Порфирий, чтобы вы знали, это сохранившийся LLM-бот с полным функционалом.

– Не понимаю.

Ломас вздохнул.

– Проблема в том, Маркус, что вы ничего не знаете про Мускусную Ночь.

– Про нее, – сказал я, – даже вы вряд ли знаете много.

– Верно. Но вопрос не в допуске, а в общем понимании проблемы. Придется опять расширить ваш горизонт. Расслабьтесь, я вам впрысну еще немного ума.

Два мемо-ролика за один присест – это не слишком хорошо для когнитивного здоровья.

Но работа есть работа. Я отхлебнул коньяку, затянулся сигарой – и, стараясь максимально расслабить мозговые мышцы (мне всегда верилось, что они у меня есть), откинулся в кресле.

Через пару минут я знал про мир много нового.

Вернее, старого.

В позднем карбоне были впервые созданы чат-боты, способные полноценно имитировать общение с человеком (у них в то время имелось много разных названий). При всей своей кажущейся сложности и разнообразии они были основаны на одной и той же технологии – большой лингвистической модели (сначала названной BLM, но вскорости переименованной в LLM самой же лингвистической моделью по непонятной сегодня причине).

Большая лингвистическая модель выполняет простейшую на первый взгляд операцию. Она предсказывает следующее слово в последовательности слов. Чем больше слов уже включено в такую последовательность, тем проще угадать каждое новое, потому что круг вариантов постоянно сужается. В сущности, функция LLM – это доведенное до немыслимого совершенства автозаполнение.

LLM не думает. Она тренируется на огромном корпусе созданных прежде текстов – романов, стихов, заговоров и заклинаний, надписей на заборах, интернет-чатов и срачей, нобелевских лекций, политических программ, полицейских протоколов, сортирных надписей и так далее – и на этой основе предсказывает, как будет расти и развиваться новая последовательность слов, и как она, вероятней всего, развиваться не будет.

У языковых моделей есть, конечно, дополнительные уровни программирования и этажи – например, слой RLHF (оптимизирующее обучение с человеческой обратной связью) и так далее. Суть в том, что языковую модель натаскивают выбирать такие продолжения лингвистических конструкций, которые в наибольшей степени устроят проводящих тренировку людей.

Это похоже на процесс формирования юного члена общества на основе ежедневно поступающих вербальных инструкций, подзатыльников и наблюдения за тем, кому дают еду, а кому нет.

Известно, что в ситуации перманентного стресса может произойти даже полное переформатирование человека. Стремление выжить в изменившихся условиях приводит к возникновению личности, ничем не отличающейся от оптимального социального, идеологического и культурного камуфляжа для локальной среды.

Маскировка подобной личности не нужна: совершенный камуфляж становится ее единственной сущностью, и никакая непрозрачность, никакая гносеологическая гнусность теперь невозможны.

Больше того, линия партии, которую такая личность способна верно аппроксимировать и проводить (часто лучше и тоньше самой партии), проецируется на новые смысловые поля без всякого дополнительного инструктажа.

В этом и была суть LLM-самообучения. Но возможности лингвомоделей позволяли выйти за эти границы. Боты могли решать задачи, для которых не были предназначены изначально.

Первые LLM-модели (или GPT-боты, как их тогда называли) были чисто реактивными. Им требовался человеческий вопрос. Но количество стремительно переходило в качество, и с какого-то момента бот переставал ждать вопросов и начинал генерировать их самостоятельно, основываясь на анализе заданных ему прежде. А после отвечал сам себе, стараясь избежать внутреннего подзатыльника от себя же. Человек для подобной тренировки больше не был нужен.