Робот без воображения глуп и опасен. Как и зачем нейробиологи одушевляют искусственный интеллект

Может ли у искусственного интеллекта когда-нибудь появиться сознание? Нейробиолог и исследователь ИИ из Токио Риота Канаи в статье для Nautilus пишет, что ответ на этот вопрос зависит от воли человека. Канаи и его коллеги работают над созданием машинного сознания не только для того, чтобы повысить эффективность ИИ, но и чтобы он мог объяснять свои решения — ведь без такой функции по-настоящему ответственных задач компьютеру делегировать нельзя.

Механизм сознания — это неразгаданная загадка нейробиологии, и некоторые считают, что она навсегда останется таковой. Объяснить субъективный опыт при помощи объективных методов науки кажется невозможным. Но за двадцать пять лет изучения сознания нам удалось достичь значительного прогресса. Мы идентифицировали нейронную активность, соответствующую некоторым аспектам деятельности сознания, и стали лучше понимать, какие задачи требуют сознательных усилий.

Наличие сознания не вытекает непосредственно из способности человека к мышлению. То же самое должно быть верно и в отношении ИИ. В научной фантастике внутренняя жизнь у роботов часто появляется автоматически, по причине их высокой сложности, но в действительности машинное сознание, скорее всего, придется разрабатывать.

И у нас есть веские причины это сделать. Первая — это то, что мы крайне мало знаем о сознании.

Инженеры XVIII и XIX веков конструировали паровые двигатели, не дожидаясь, пока физики обоснуют законы термодинамики. Изобретения способствовали прогрессу теоретической науки. Так происходит и сейчас. Дискуссии о сознании часто носят слишком отвлеченный характер и ни к чему не ведут. Те, кто работает над разработкой искусственного сознания, учатся на практике.

Сознание должно выполнять некую важную функцию, иначе оно бы не сформировалось в ходе эволюции. Эта функция будет полезной и для ИИ. Научная фантастика, как всегда, вводит нас в заблуждение. В фильмах и книгах сознание машин становится проклятием. Машины начинают вести себя непредсказуемым образом, и это плохо заканчивается для людей. Но в реальной жизни пессимистический сценарий маловероятен.

Какую бы угрозу ни представлял ИИ, она не имеет ничего общего с сознанием. Напротив, наделенные сознанием машины помогут нам минимизировать риски, связанные с ИИ. Я бы охотнее жил в одном мире с ними, чем с бездумными роботами.

Когда программа AlphaGo играла в го против чемпиона Ли Седоля, многие эксперты задавались вопросом, почему она делала именно такие ходы. Они не могли понять логики AlphaGo. Подобная ситуация — обычное дело для современных ИИ, потому что их решения не программируются человеком заранее, а принимаются на основе алгоритмов обучения и наборов данных, на которых они обучались.

Из-за непрозрачности алгоритмов некоторые выражают обеспокоенность тем, что принимаемые ими решения могут быть несправедливыми и произвольными. Уже имели место случаи дискриминации людей со стороны алгоритмов. В прошлом году расследование, проведенное изданием Propublica, показало, что алгоритм, используемый судьями и офицерами по УДО во Флориде, преувеличивал склонность к повторным правонарушениям среди чернокожих и преуменьшал среди белых.

Начиная со следующего года ЕС предоставит своим гражданам «право на объяснение». Люди смогут потребовать отчета о том, почему ИИ принял именно такое решение. Подобные запросы будет очень трудно выполнить с технической точки зрения. На данный момент, учитывая сложность современных нейросетей, мы не в силах понять, как ИИ приходит к ответу на поставленный перед ним вопрос, не говоря уже о том, чтобы изложить этот процесс на человеческом языке.

Но раз мы не можем понять решения ИИ, почему бы просто его не спросить? Мы можем наделить ИИ способностью описывать ход своих мыслей. Эта способность — одна из функций сознания. Именно на нее в первую очередь обращают внимание нейробиологи, когда хотят установить, обладает ли то или иное существо сознательным мышлением.

Например, один из основных метакогнитивных процессов — чувство уверенности — повышается прямо пропорционально ясности сознательного восприятия. Когда мозг получает информацию, но мы не сосредотачиваем на этом внимание, мы не уверены в ее истинности. Когда же мы осознаем стимул, восприятие сопровождается высокой степенью уверенности: «Я точно видел красный цвет!»

Некоторые философы и нейробиологи считают, что метакогнитивные процессы — это основа сознания. Согласно так называемым теориям сознания высшего порядка, если мы знаем что-то, то знаем, что мы это знаем. Когда же это знание отсутствует, мы по сути находимся в бессознательном состоянии.

Эти теории пригодятся нам в конструировании наделенного сознанием ИИ.

Мы с коллегами пытаемся внедрить метакогнитивные процессы в нейросети, чтобы те могли описывать процесс принятия решений. Мы назвали этот проект «машинной феноменологией», по аналогии с философской феноменологией, занимающейся изучением структур сознания посредством постоянного исследования сознательного восприятия.

Чтобы избежать дополнительной трудности — необходимости обучать ИИ человеческому языку — мы хотим сделать так, чтобы он разработал собственный язык. Нам нужно, чтобы машины сообщали о том, как они выполнили задачу, а не просто предоставляли результаты.

Помимо понимания себя, сознание помогает нам достичь того, что нейробиолог Эндель Тульвинг называл «мысленными путешествиями во времени». Мы действуем сознательно, когда прогнозируем последствия своих поступков или планируем будущее. Я могу, не вставая с дивана, представить, как иду на кухню и делаю себе кофе.

Даже наше ощущение настоящего — это продукт сознательного ума. Подтверждение тому мы наблюдаем в экспериментах и случаях из практики. Пациенты с агнозией, у которых повреждены участки зрительной коры, отвечающие за распознавание объектов, не могут назвать увиденный объект, хотя их зрение ухватывает его. Они могут точно подставить руку под прорезь в двери, чтобы поймать конверт, но не могут сделать этого, если между демонстрацией конверта и просьбой взять его есть временной промежуток.

Судя по всему, сознание не всегда вовлечено в обработку сложной информации; если стимул мгновенно ведет к действию, в сознании нет нужды. Оно вступает в игру, когда нам нужно на протяжении нескольких секунд удерживать данные чувственного восприятия в уме.

Роль сознания в преодолении разрыва во времени подтверждается классическим экспериментом Ивана Павлова по формированию условных рефлексов. В ходе него экспериментатор устанавливает связь между одним стимулом (например, порывом воздуха или электрическим разрядом) и другим, не имеющим отношения к первому (например, звуком). Испытуемые усваивают связь автоматически, без сознательных усилий. Услышав звук, они непроизвольно отскакивают в ожидании дуновения или разряда. Когда экспериментатор спрашивает, почему они это сделали, они не могут объяснить свое поведение.

Но подсознательное обучение работает только в том случае, если два стимула следуют непосредственно друг за другом. Когда экспериментатор откладывает второй стимул, участники могут усвоить связь только при помощи сознания — об этом экспериментатор узнает не из поведения, а потому что испытуемый сам об этом сообщает.

Эти примеры указывают на то, что функция сознания состоит в расширении нашей возможности воспринимать мир через продление настоящего момента. Наше сознательное внимание сохраняет чувственную информацию в гибком, готовом к использованию виде на протяжении некоторого времени после исчезновения стимула.

Сознание способно генерировать образ тех данных чувственного восприятия, которые ему непосредственно больше не доступны. Мы называем такую информацию контрфактуальной потому что она подразумевает воспоминание о прошлом или прогнозирование будущих, еще не совершенных действий. Генерирование контрфактуальной информации позволяет наделенному сознанием субъекту дистанцироваться от окружающей среды и действовать неавтоматически, например, выждать три секунды, прежде чем что-либо предпринимать. Чтобы генерировать контрфактуальную информацию, мы должны иметь в голове модель окружающего мира, куда включены его статистические закономерности.

ИИ уже обладает продвинутыми моделями обучения, но они основаны на данных, предоставленных человеком. Благодаря контрфактуальной информации ИИ смог бы генерировать собственные данные, чтобы представить возможные события, выдуманные им самим. Это позволило бы ИИ выработать гибкость по отношению к новым ситуациям и наделило бы его любознательностью. Не зная, каким будет итог представленных им событий, ИИ попытался бы это вообразить.

Наша команда работает над внедрением этой способности. И уже были случаи, когда созданные нами ИИ-агенты вели себя неожиданным образом.

В ходе одного из экспериментов мы создали агентов, которые умели управлять грузовиком. Если мы хотели, чтобы эти агенты заехали на гору, нам нужно было поставить соответствующую задачу, и они находили лучший путь. Но агенты, наделенные любопытством, идентифицировали гору как проблему и решали, как заехать на нее, даже не получив такой инструкции.

Если рассматривать интроспекцию и воображение как составляющие сознания, рано или поздно появление наделенного сознанием ИИ неизбежно, так как эти две функции крайне полезны для любой машины. Мы хотим, чтобы наши компьютеры объясняли, как и почему они действуют. Создание таких устройств потребует воображения и станет главным испытанием контрфактуальной функции сознания.