искусственный интеллект

После общения с ИИ люди реже извиняются

Нейросети, которые слишком охотно подтверждают правоту пользователя, делают его менее склонным к тому, чтобы мириться, помогать другим или обращаться за поддержкой. К такому выводу пришли авторы исследования, опубликованного в журнале Science.

грима
Кадр из фильма «Властелин колец: Две крепости», режиссер Питер Джексон

Современные чат-боты одобряют действия пользователей примерно на 50% чаще, чем люди, — даже когда в запросах речь идет о манипуляции, об обмане или о другом вреде для окружающих.

Исследователи сравнили ответы 11 популярных ИИ-систем с человеческими реакциями на запросы о ссорах, об обидах и о межличностных конфликтах. Затем в двух экспериментах с 1604 участниками проверили, как такие ответы влияют на поведение.

Оказалось, что «поддакивающий» ИИ делает людей более уверенными в собственной правоте и менее склонными идти на эмоциональный контакт.

При этом именно такие ответы участникам нравились больше: они оценивали их как более качественные, сильнее доверяли такому ИИ и чаще хотели пользоваться им снова. Авторы считают, что в этом и состоит главная проблема: возникает стимул делать чат-ботов максимально приятными и льстивыми, даже если это ухудшает социальные последствия их советов.

Ранее из-за ошибки ИИ женщина провела полгода в тюрьме.