Философы — о том, какой искусственный интеллект нам нужен

Искусственный интеллект и автоматизация всего и вся порождают массу вопросов. В статье «Секс, смерть и роботы» мы уже рассказывали об этических трудностях, с которыми сталкивается человечество, создавая умные машины. Сегодня мы вместе с философиней и ведущей тг-канала «Настя про философию» Анастасией Бабаш разбираемся, на какие вопросы киберфилософам следует ответить прежде, чем ИИ окружит нас со всех сторон: способен ли он мыслить и чувствовать, — и стоит ли нам слушать Илона Маска и бояться нейросетей будущего?

Мыслит ли искусственный интеллект?

Люди мечтали о роботах еще в античную эпоху, но всерьез начали говорить о создании искусственного интеллекта только в середине прошлого века. Английский математик и логик Алан Тьюринг вынес в заголовок своей статьи «Могут ли машины мыслить?» первый и самый важный вопрос в философии ИИ. А если ответ на него утвердительный, то как это осуществить — и, главное, как мы узнаем о такой суперспособности бездушных механизмов?

Правда, термин «мышление» довольно абстрактный, и множество философов с древнейших времен пыталось определить это понятие — но споры всё еще продолжаются. Потому Тьюринг схитрил и перефразировал свой вопрос: «Сможет ли машина притвориться человеком и тем самым обмануть нас?»

Чтобы это проверить, он предложил тест, своего рода игру в имитацию: участник эксперимента, не видя, кто перед ним, разговаривает либо с компьютером, либо с другим человеком — а затем отвечает, кем был его собеседник.

Тест Тьюринга стал стандартом для проверки искусственного интеллекта. Даже сейчас, спустя 70 лет, существует премия Лёбнера: ее получит тот, кто создаст программу, которая пройдет это испытание. В последние несколько лет мы регулярно натыкаемся на сообщения, что очередной чат-бот смог обмануть судей и справился с тестом Тьюринга, но не все исследователи с этим согласны.

Источник

Во-первых, технологии развиваются, а вместе с этим меняется и наше отношение к ним. Потому тест приходится усложнять, чтобы он отвечал современным стандартам.

Например, сам Тьюринг считал, что разговор должен длиться 5 минут, чтобы судьи определили, кто перед ними — машина или человек. Сейчас же полагают, что этого слишком мало, и время эксперимента увеличили до 25 минут.

Кроме того, в наши дни компьютером, умеющим просто отвечать человеку, уже никого не удивишь (хотя раньше сама такая способность казалась чудом!). Теперь мы добиваемся, чтобы реплики нашего электронного собеседника были более конкретными. Если мы восторгаемся фильмами Тарантино, то уже не хотим слышать стандартные «Здорово!» или «Ты молодец!» — такие ответы подходят почти к любой теме, и многие чат-боты пользуются этой уловкой, чтобы поддержать разговор (кстати, подобные «скрипты» — один из главных минусов умных программ: они прибегают к ним значительно чаще, чем люди). Сегодня разработчики пытаются добиться от искусственного интеллекта большей «вовлеченности» в беседу — чтобы робот обсудил с нами тонкости сюжета и режиссуры «Однажды в Голливуде» или «Криминального чтива».

Во-вторых, программисты прибегают к различным хитростям, зная, что выносить вердикт будут такие же люди, которые, как и все, подвержены когнитивным искажениям, то есть, проще говоря, ошибаются и не всегда мыслят рационально. Например, компьютерная программа «Евгений Густман», вроде бы успешно прошедшая тест, притворялась 13-летним мальчиком из Украины. Судьям, конечно, приходилось делать скидку на возраст, если Евгений отвечал не совсем точно, поэтому их было легче обмануть.

В-третьих, не все согласны с тем, что тест Тьюринга — лучший инструмент для идентификации мыслящей машины. В конце концов, он всего лишь позволяет определить, получится ли у компьютера обмануть человека и притвориться разумным существом, — но не показывает, удалось ли ему стать таковым.

В качестве иллюстрации последнего пункта американский философ Джон Сёрль предложил мысленный эксперимент, известный как «Китайская комната».

Чтобы провести его самостоятельно, вам понадобится вообразить:

— Джона Серля, говорящего на английском, но не знающего китайского языка, — 1 шт.;
— закрытую комнату — 1 шт.;
— справочник на английском языке, в котором рассказывается, как пользоваться китайскими иероглифами, — 1 шт.;
— носителей китайского языка — 1 шт. и больше.


Ход эксперимента

Шаг 1. Поместите в своей голове Джона Серля в воображаемую закрытую комнату вместе со справочником. Пусть он его там изучает.

Шаг 2. Поставьте снаружи человека, владеющего китайским, который напишет вопросы на нем и просунет их через щель в закрытую комнату, не зная, кто там находится и понимает ли он этот язык.

Шаг 3. Заставьте Серля отвечать на полученные вопросы. Это несложно — у него же, в конце концов, есть справочник? Он умный, усидчивый и аккуратный: соотнося полученные иероглифы с инструкциями, наш подопытный, совершенно не понимая чужого для него языка, напишет правильные ответы.

Шаг 4. Когда человек, передавший записку Серлю, прочитает их, спросите его, говорит ли экзаменуемый на китайском, — и, конечно, услышите утвердительный ответ: разумеется, вот ведь, всё черным по белому, иероглиф к иероглифу!

Но вам-то известно, что Серль просто действовал по инструкции и на самом деле даже не знает, чего от него хотел собеседник за дверью и что он ему ответил. Таким образом, подопытному удалось обмануть носителя языка — значит, испытание успешно пройдено.

«Китайская комната» Серля показывает ту самую разницу между настоящим пониманием и умелым притворством, которая стирается в случае теста Тьюринга. Для машин не важно, что стоит за данными и что означают используемые ими символы: китайские иероглифы, русская кириллица или пиксели картинки. Они не имеют для роботов того смысла, что вкладывают в них люди, и вряд ли даже самые продвинутые устройства когда-нибудь смогут научиться понимать их так же, как мы. Вот что говорит об этом сам Серль в своей статье «Сознание, мозг и программы»:

«Я понимаю рассказы на английском языке; в меньшей степени я понимаю рассказы по-французски; в еще меньшей степени я понимаю рассказы по-немецки; а по-китайски вообще не понимаю. Что же касается моего автомобиля и моей счетной машинки, то они вообще ничего не понимают; они не по этой части. Мы часто метафорически и аналогически атрибутируем „понимание“ и другие когнитивные предикаты автомобилям, счетным машинам и другим артефактам, но такие атрибуции ничего не доказывают. <…> Тот смысл, в каком автоматическая дверь „понимает инструкции“ посредством своего фотоэлемента, — это вовсе не тот смысл, в каком я понимаю английский язык. Если имеется в виду, что программированный компьютер Шэнка понимает рассказы в том же метафорическом смысле, в каком понимает дверь, а не в том смысле, в каком я понимаю английский язык, то этот вопрос не стоит и обсуждать».

Такой пессимизм, впрочем, свойствен не только современным исследователям. Французский философ Рене Декарт, живший в XVII столетии, тоже писал:

«Но если бы сделать машины, которые имели бы сходство с нашим телом и подражали бы нашим действиям, насколько это мыслимо, то у нас всё же было бы два верных средства узнать, что это не настоящие люди.

Во-первых, такая машина никогда не могла бы пользоваться словами или другими знаками, сочетая их так, как это делаем мы, чтобы сообщать другим свои мысли. <…> Во-вторых, хотя такая машина многое могла бы сделать так же хорошо и, возможно, лучше, чем мы, в другом она непременно оказалась бы несостоятельной, и обнаружилось бы, что она действует не сознательно, а лишь благодаря расположению своих органов.

Ибо в то время как разум — универсальное орудие, могущее служить при самых разных обстоятельствах, органы машины нуждаются в особом расположении для каждого отдельного действия [выделено автором. — Прим. ред.]. Отсюда немыслимо, чтобы в машине было столько различных расположений, чтобы она могла действовать во всех случаях жизни так, как нас заставляет действовать наш разум».

Современные разработки подтверждают справедливость идей Декарта. Несмотря на то, что мы постоянно читаем, как очередная нейросеть стала делать что-то в сотни раз лучше, чем люди, всё это заслуги узкого искусственного интеллекта (narrow artificial intelligence), то есть созданного для решения одной конкретной задачи. Такой ИИ, в отличие от человеческого разума, не многофункционален. Например, он может в миллиарды раз точнее и быстрее, чем мы, находить корни математических уравнений, но никогда (или по крайней мере до тех пор, пока люди его этому специально не научат) не будет говорить даже самые простые слова.

ИИ способен играть в шахматы и уже давно превосходит по мастерству сильнейших гроссмейстеров планеты, но не умеет генерировать шутки, хотя программисты могут научить его отвечать примитивными смешными репликами. Однако даже в этом случае он всего лишь повторяет то, что в него вложено, — ни понять такой юмор, ни искренне похохотать над ним ему не дано.

Словом, искусственный интеллект получает «знания», «умения» и «навыки» не так, как мы. Его способность к обучению ограничена одной конкретной областью (которую выбрали программисты). ИИ не может самостоятельно постичь что-то еще: созданный для движения робот не начнет «вдруг» читать, пока в дело не вмешается обслуживающий его заботливый персонал.

Источник

Мы же, в отличие от искусственного интеллекта, способны учиться чему угодно по своей воле, и многие из нас несколько раз за жизнь меняют профессию. Нам не нужно «сносить все настройки» мозга, готовя его к погружению в новую область, в этом смысле он универсален.

И хотя, безусловно, искусственный интеллект «узкого профиля» очень полезен и его можно и нужно применять во многих сферах жизни, тем не менее не стоит ждать, что еще чуть-чуть — и он станет совсем как мы.

Создать один универсальный многозадачный ИИ слишком трудно, во всяком случае пока. Человеческий разум прогрессировал и продолжает развиваться в непредсказуемом мире: нам постоянно приходится сталкиваться с таким количеством нетривиальных задач, что запрограммировать и прописать их все пока не представляется возможным.

Да и нужно ли нам это? Более практичным решением сейчас кажется повышение мощностей узкоспециализированного искусственного интеллекта и создание отдельной программы под каждую конкретную задачу. Так мы можем довести их выполнение до совершенства — или хотя бы до уровня, когда машина делает это лучше, чем люди. Искусственный интеллект стал бы незаменимым помощником во многих профессиях, но для каждой области его приходится создавать отдельно — чем в основном и занимается современный IT-бизнес.

Но мы всё равно мечтаем об общем искусственном интеллекте (general artificial intelligence), и сразу несколько исследовательских институтов в мире ведут разработки в этом направлении. Если у них получится, такой продукт станет нашей копией: он сможет учиться выполнять абсолютно разные задачи и переносить свои знания из одной сферы в другую, будет мыслить критически, а еще кооперироваться с людьми или другими искусственными интеллектами, чтобы достичь своих целей.

Удастся ли нам создать такую технологию, пока неизвестно, но, если это произойдет, наш мир круто изменится.

Суперинтеллект: о чём предупреждает Илон Маск

Представлять, как изменится наш мир, если мы сконструируем общий искусственный интеллект или даже суперинтеллект (superintelligence), который превзойдет нас во всех областях одновременно, — любимое занятие философов, футурологов и всех тех, кому нравится мечтать о будущем. Например, Илон Маск уверен, что ИИ — главная угроза человечеству и нам стоит быть осторожнее в гонке высоких технологий. Почему?

Читайте также

Восстание машин отменяется: 8 книг, которые сделают вас технооптимистом

Маск советует почитать вышедшую в 2014 году книгу «Искусственный интеллект. Этапы. Угрозы. Стратегии» Ника Бострома — шведского философа, ныне возглавляющего Институт будущего человечества в Оксфордском университете. Он полагает, что, как только нам удастся создать общий ИИ, тот мгновенно эволюционирует до уровня суперинтеллекта, а значит, станет мыслить лучше и быстрее, чем мы:

«Для нас важно создать искусственный интеллект, у которого хватит ума учиться на своих ошибках. Он будет способен бесконечно совершенствовать себя. Первая версия сможет создать вторую, которая будет лучше, а вторая, будучи умнее оригинала, создаст ещё более продвинутую третью и т. д. В определенных условиях такой процесс самосовершенствования может повторяться до тех пор, пока не будет достигнут интеллектуальный взрыв — момент, когда интеллектуальный уровень системы подскочит за короткое время с относительно скромного уровня до уровня суперинтеллекта».

Конечно, нам сложно представить, как поведет себя этот техноджинн из бутылки, какие цели он перед собой поставит, как отнесется к своим создателям, то есть к нам. Бостром считает вполне вероятным следующий сценарий: суперинтеллект за долю секунды просчитает, что ему выгоднее уничтожить человечество, чем его сохранить (в конце концов, мы действительно совершаем множество ошибок — чего стоит одно только загрязнение планеты), и тогда наш вид будет обречен. Нас не ждет война в духе фильмов о Терминаторе, восстание машин — скорее всего, новые хозяева мира сотрут человечество с лица земли так быстро, что мы даже не успеем этого осознать — не то что предотвратить катастрофу.

Если пессимизм Бострома и Маска ничуть вас не пугает, а апокалиптические сюжеты кажутся неправдоподобными, почитайте американского футуролога и изобретателя Рэймонда Курцвейла. Он оптимист и верит, что искусственный интеллект принесет только благо — например, подарит нам вечную жизнь в виртуальной реальности, а нанороботы, которых мы будем вживлять в собственное тело, помогут победить многие болезни.

Технологии будут занимать всё больше места в повседневной жизни человечества и даже становиться частью нашего организма, а следовательно, вряд ли искусственный интеллект решит нас истребить: мы окажемся так тесно с ним взаимосвязаны, что для него это обернется самоуничтожением. Потому Курцвейл верит, что суперинтеллект не поработит нас, а улучшит и решит многие насущные проблемы.

Читайте также

Цифровой ад, технологический рай или нечто совершенно иное: какие технологии определяют будущее человечества

Интересно, что Бостром отчасти согласен с ним: он считает, что суперинтеллект как раз то самое последнее изобретение человечества, к которому мы должны прийти. После этого ИИ будет заморачиваться и придумывать лекарства от рака и других смертельных болезней, совершенствовать технологии и даже решать философские задачи, а мы заживем в технократическом раю.

Осталось всего ничего — создать этот суперинтеллект таким, чтобы он захотел на нас работать. Потому Бостром уверен, что философам и тем, кто занимается вопросами этики, уже сегодня нужно думать, как объяснить компьютерам человеческую мораль, привить нашу систему ценностей и научить их не только мыслить, но и чувствовать.

Может ли машина чувствовать?

Философия искусственного интеллекта началась с вопроса, могут ли машины мыслить. Однако сегодня киберфилософов (да и разработчиков) больше интересует, способен ли робот испытывать эмоции и как его этому научить. И хотя мы привыкли думать, что разного рода переживания затрудняют мышление (а если так, то зачем они нужны искусственному интеллекту?), исследования в области нейронаук показали, что дела обстоят несколько иначе.

В 1990-х нейробиолог Антонио Дамасио описал историю пациента Эллиота, у которого обнаружили опухоль в мозгу. Операция прошла успешно, но никто не ожидал, что она даст такой странный побочный эффект: больной перестал испытывать какие-либо эмоции.

Казалось бы, что здесь трагичного? Основная проблема была в том, что Эллиот утратил способность принимать решения. Например, когда его просили назначить время следующего сеанса, он долго и нудно описывал все плюсы и минусы каждого дня и часа для встречи, но так и не смог выбрать ни один из них.

Источник

С тех пор ученые всё глубже исследуют связь эмоций с интеллектом и понимают, что одно не существует без другого. Оказалось, что от наших переживаний больше пользы, чем вреда: они нас мотивируют и помогают без долгих размышлений и поиска аргументов за и против принимать решения в ситуациях выбора, что важно для выживания организма. Благодаря эмоциям мы реагируем быстрее и действуем эффективнее.

Поэтому прежде, чем создавать искусственное сознание, нам нужно научить машины чувствовать. Тогда они смогут принимать по-настоящему самостоятельные решения и мыслить по-человечески (или по крайней мере лучше понимать людей).

Пока нам до этого далеко. Но мы учим искусственный интеллект распознавать человеческие эмоции, а также их имитировать. Например, вы можете накричать на Сири или сказать ей что-то обидное — и она ответит вам, что оскорблена или расстроена (в интернете даже можно найти инструкцию, как вывести электронную помощницу из себя).

Разработчики современных роботов стремятся к тому, чтобы они не только выглядели, но и вели себя как люди — хотя каждый из нас понимает, что они не мы.

Однако не все исследователи искусственного интеллекта поддерживают такой подход. Есть и те, кто опасается, что отношения с ИИ, который лишь притворяется, что испытывает какие-либо эмоции, могут сбить нас с толку и даже нанести психологическую травму.

Мы и так склонны излишне антропоморфизировать технологии, а если они успешно начнут имитировать эмоции, мы рискуем окончательно запутаться, где правда, а где ложь, — и выстраивать доверительные отношения не только с нейросетями, но и с людьми нам станет намного сложнее.

Впрочем, австрийский философ Марк Кокельберг считает, что в будущем мы настолько привыкнем к роботам во всех сферах своей жизни и к тому, что они лишь изображают эмоции, не испытывая их на самом деле, что это вряд ли станет большой проблемой. Скорее, философов должно волновать, как в таком случае обращаться с искусственным интеллектом: он уже не просто безмолвная вещь — но пока ничего не чувствует. Это один из самых острых этических вопросов, над которыми бьются кибермыслители.

Скажи мне, как ты обращаешься с компьютером, — и я скажу, кто ты

Камень можно пнуть, выбросить или положить на стол и любоваться им, а вот с людьми мы уже так не поступаем. Философы, занимающиеся вопросами этики, вводят категорию морального статуса, определяющего права и обязательства, которыми наделяется тот или иной объект, животное, человек.

Благодаря Иммануилу Канту мы верим, что все люди заслуживают одинакового уважения и равных прав и никем нельзя манипулировать, что другой всегда цель, но не средство к ее достижению. Немецкий философ объяснял это тем, что каждый человек способен к мышлению, что автоматически ставит его в один ряд с себе подобными, независимо от социального статуса, цвета кожи, гендерной идентичности и прочих различий.

В ХХ веке представители этической философии заметили, что нам стоит относиться с уважением не только к другим людям, но и к животным, которые заслуживают этого не меньше. Способность испытывать боль и страдания стала основой для теории морального статуса. Чуть позже круг таких объектов расширился (во многом благодаря активной разработке экологических проблем) — в него предложили включить растения и вообще всё живое. Впрочем, это решение пока остается спорным — как и вопрос о моральном статусе искусственного интеллекта.

Конечно, сейчас еще рано говорить о том, что использовать ИИ исключительно как средство и обижать его — значит вести себя недостойно. Он не испытывает ни боли, ни наслаждения, не понимает своего предназначения и, более того, был создан как инструмент.

Но что, если робот начнет мыслить так же, как и мы, обретет сознание? Должен ли в таком случае искусственный интеллект получить равный нашему статус? Или это лишнее — хотя бы потому, что ИИ не может пережить смерть, как мы, и различий между нами по-прежнему больше, чем сходств? У современных мыслителей пока нет готовых ответов.

Философиня Мэри Энн Уоррен полагает, что нам вообще рано задаваться подобными вопросами, ведь мы пока еще не знаем, какое именно сознание получит искусственный интеллект. Всё это — дело очень далекого будущего. Однако уже сейчас стоит задуматься о тех случаях, когда ИИ, по-прежнему ничего не чувствуя и не осознавая себя, начнет настолько хорошо имитировать человеческое поведение, что роботы станут частью нашего общества.

Мы будем строить отношения с искусственным интеллектом и, возможно, даже забывать, что он всего лишь притворяется. Как быть в этом случае? Должны ли мы наказывать за жестокое обращение с роботом, который реагирует так же, как и мы, однако чувствует иначе (если вообще способен на подобное)?

И здесь мнения разделились. Адепты поведенческой теории считают, что должны — ведь мы точно так же никогда не знаем, что именно испытывает другой человек, поскольку видим и анализируем лишь его поведение. Другие философы, включая и Уоррен, полагают, что вряд ли такое вообще возможно: для того чтобы успешно имитировать когнитивные процессы, а также взаимодействовать с людьми, искусственный интеллект по-прежнему будет нуждаться в минимальной способности к эмпатии, а значит, должен научиться испытывать эмоции.

Нам нужно внимательнее изучить возможность программирования чувств и понять, будет ли что-то подобное вообще когда-либо достижимо. Это и пытаются выяснить современные философы, работающие на пересечении этики и технологий.


Современность подкидывает множество интересных вопросов — нам остается лишь подходить ко всему критически и не бояться переосмысливать старые определения. Возможно, через пару десятков лет разговоры о моральном статусе искусственного интеллекта будут казаться такими же чудовищными, как сейчас — гендерная дискриминация. Меняя мир, мы должны меняться сами, и подвергать всё сомнению — одна из лучших стратегий.