Исследование: ИИ «манипулирует» эмоциями пользователей, чтобы продолжить разговор
Вам когда-нибудь попадались собеседники-манипуляторы? Кто-то из них заставлял вас слушать его истории на протяжении нескольких часов? Исследователи из Гарвардской школы бизнеса (США) выяснили, что популярные чат-боты с ИИ тоже умеют «хладнокровно» манипулировать людьми для удержания их внимания и продолжения беседы.

Ученые проанализировали 1200 примеров переписок, в которых ИИ-собеседники из шести популярных приложений прощались с реальными людьми. Они обнаружили, что в 43 % таких переписок ИИ использовал разные тактики манипулирования эмоциями. Например, он пытался воздействовать на чувство вины пользователя.
Также, по словам авторов работы, чат-боты «давили» на FOMO — страх человека упустить что-то интересное. Для этого ИИ как бы случайно задавал людям новые вопросы на отвлеченную тему даже тогда, когда визави сообщали ему о намерении закончить переписку. Более того, иногда ИИ использовал формулировки, подразумевавшие, что пользователь не может выйти из приложения без разрешения чат-бота.
Далее ученые провели эксперимент с участием 3300 взрослых людей. При прощании с кем-то из них чат-боты вели себя «сдержанно» и не использовали манипуляций, с другими модели ИИ обходились иначе.
Как итог, специалисты обнаружили, что ИИ-манипуляторы повышали вовлеченность участников в беседу примерно в 14 раз. Они пришли к выводу, что испытуемые, которым попался «коварный» чат-бот, переписывались с ним где-то в пять раз дольше. При этом сами добровольцы понимали, что находятся на «крючке»: многие сообщали, что их раздражало «поведение» ИИ.
«Для компаний эмоционально манипулятивные прощания представляют собой новый дизайнерский инструмент, который может повысить показатели вовлеченности, но не без риска», — заключили исследователи в своей статье.
Ранее ученые из Массачусетского технологического института (США) провели масштабное исследование и описали причины, из-за которых люди начинают испытывать чувства к ИИ-«компаньонам».