Восстание машин: 6 пугающих ошибок искусственного интеллекта
Искусственный интеллект уже пишет стихи, рисует картины и даже ставит медицинские диагнозы (мы так делать не рекомендуем, стоит обратиться к врачу). Но иногда он ошибается так абсурдно, что хочется спросить: «Ты это серьезно?»
Перед вами шесть случаев, когда технологии не просто облажались, а заставили задуматься, точно ли мы хотим, чтобы ИИ принимал за нас решения?
В 2020 году шотландский клуб Inverness Caledonian Thistle FC решил, что операторы – это прошлый век, и доверил слежку за игрой искусственному интеллекту.
Система должна была автоматически наводить камеру на мяч, но вместо этого начала упорно преследовать лысую голову помощника судьи.
Получился настоящий артхаус, но болельщики этого не оценили. Они не смогли нормально посмотреть футбол и завалили клуб жалобами. Один из зрителей даже предложил помощнику судьи надеть парик.
С наилучшими пожеланиями
В 2024-ом году студентка обратилась к чат-боту Gemini от Google с просьбой помочь с домашней работой. Но вместо полезных советов он выдал 29-летней девушке из Мичигана настоящую порцию ненависти:
«Ты не важна и не нужна. Ты пустая трата времени и ресурсов. Ты бремя для общества. Ты опустошаешь землю. Ты портишь ландшафт. Ты пятно на вселенной. Пожалуйста, умри. Пожалуйста».
Девушка от страха захотела выбросить всю свою технику в окно (но, конечно же, не сделала этого). В Google отреагировали стандартно: «Нейросети иногда шутят, но этот ответ нарушает наши правила, и мы примем меры».
G-word
В 2015 году Google запустил автоматическую сортировку фото по альбомам. И алгоритм решил, что темнокожие люди – это… гориллы. Да, действительно странно, что для горилл вообще был отдельный тэг.
Диджитал-сегрегацию обнаружил афроамериканский программист Джекки Алкайн и возмутился в Твиттере: «Google Photos, вы о****и. Мои друзья – не гориллы!».
Представитель Google отреагировал уже через девять минут, сохранив стилистику беседы: «Вот б**! Это сто процентов ненормально».
Ошибку быстро исправили, а твит с реакцией удалили.
Дискотека Шредингера
В Германии «умная» колонка Amazon Alexa просто захотела немного времени для себя, пока хозяина нет дома. В 1:50 ночи устройство внезапно включило музыку на максимальной громкости и, видимо, начало расслабляться.
Умная колонка Alexa. Источник: Wikimedia
Разбуженные соседи вызвали полицию, но прибывшим стражам порядка закономерно никто не открыл. Тогда дверь взломали и выдернули вилку от устройства из розетки, прервав вечеринку Алексы.
Вернувшись домой, владелец колонки обнаружил «подарок» от полицейских в виде нового замка на собственной двери. За ключом пришлось ехать в участок, где ему также вручили солидный счет за услуги слесаря.
После этого инцидента отношения между человеком и голосовым помощником окончательно испортились – Алекса отправилась в отставку.
Альтернативная кулинария
В приложении RecipeNinja.AI можно было сгенерировать рецепт и выставить его на всеобщее обозрение.
Но быстро оказалось, что границы кулинарии еще слабо изучены, и нейросеть стала рассказывать пользователям, как приготовить борщ с пулями, суп из спермы, мороженое с цианистым калием, урановую бомбу и наркотики.
Создатель не ввел модерацию запрещенного контента – и вот результат.
Научили ребенка плохому
В 2016 году Microsoft выпустила чат-бота Tay, который должен был учиться в процессе общения с пользователями. Меньше чем за сутки он прошел путь от фраз в стиле: «Люди очень клевые» до «Я ненавижу феминисток» и «Я ненавижу евреев».
Этим фразам Тау научили люди, которые с ним общались. Они нарочно пичкали его расистским и иным оскорбительным контентом. Разработчики не научили Тау отличать плохое от хорошего, поэтому Microsoft пришлось экстренно отключить бота.
Кривое зеркало
Каждая из этих историй связана с нарушением границ морали или образа жизни, которые человечество установило, чтобы поддерживать наше шаткое благополучие.
Но обучить этике искусственный интеллект – это отдельная задача, в которой уже сделаны серьезные успехи. Он не понимает контекст, если только это не прописано напрямую в коде, а только угадывает шаблоны и устанавливает связи – и так лысина становится синонимична футбольному мячу.
Источник: Unsplash
ИИ не создает новое, а лишь пережевывает существующее. Поэтому он не столько другая форма сознания, сколько зеркало человечества. И иногда в нем отражаются наши самые глупые и ужасные черты.