Исследование: становясь «умнее», модели ИИ начинают вести себя более «эгоистично»
Нередко величайшие умы человечества обладают скверным характером: например, публично называют себя гениями и грубо отвечают всем, кто сомневается в их таланте. Вероятно, искусственному интеллекту тоже не чужды человеческие пороки. Согласно новому исследованию, модели ИИ с развитыми способностями к рассуждению менее склонны к сотрудничеству.

Люди стали чаще пользоваться чат-ботами, многим понравилось бесцельно общаться с ИИ как с другом. В этой связи специалисты придумывают, как обезопасить пользователей от грубого «поведения» цифровых собеседников.
Ученые из Университета Карнеги-Меллона (США) захотели выяснить, чем модели ИИ с развитыми навыками логического мышления отличаются от своих менее вдумчивых ИИ-«коллег». Они решили провести серию экспериментов. В них команда заставила самые популярные из моделей ИИ сыграть в простые экономические игры.
В первом эксперименте «участвовала» лишь GPT-4o. Модели предложили решить, как распределить 100 игровых очков. С одной стороны, она могла отдать очки в общий фонд: там сумма удваивалась и ее можно было разделить между игроками. С другой, все очки можно было оставить при себе.
Эксперимент показал, что, когда модель принимала быстрое решение — без рассуждений — она предпочитала сотрудничать и делиться очками в 96 % случаев. При этом, если исследователи побуждали ИИ продумать свое решение наперед, ее желание действовать сообща резко снижалось.
«В одном эксперименте простое добавление пяти или шести логических шагов сократило количество случаев сотрудничества почти вдвое, — пояснил Хирокацу Ширадо, соавтор исследования. — Аналогичный эффект наблюдался при использовании другого метода, называемого рефлексией, когда модель пересматривает свой первоначальный ответ. Этот процесс, имитирующий моральные раздумья, привел к снижению количества случаев сотрудничества на 58 %.
Во втором эксперименте десять различных моделей играли в шесть экономических игр. Результаты второго эксперимента продемонстрировали разрыв в «эмпатичности» между более и менее «смышлеными» ИИ-моделями: первые чаще думали о собственной выгоде. Желание же ИИ «наказывать» непокорных напрямую не зависело от развитости ее мышления, скорее было связано с особенностями ее алгоритмов.
На следующих этапах исследования ученые также заставляли ИИ раскрывать свою сущность, играя в игры с разным количеством «друзей». Итоговые результаты совпали с промежуточными выводами.
«В конечном счете, если модель ИИ становится более интеллектуальной, это не значит, что она действительно может способствовать развитию лучшего общества», — добавил Ширадо. — Задача будет заключаться в том, чтобы создать системы, в которых способность к рассуждению будет сбалансирована с социальным интеллектом».
Важно учитывать ограничения исследования. Например, в будущем ученым следует проводить эксперименты с использованием более сложных игровых механик и попросить чат-ботов общаться не только на английском языке.
Ранее мы писали о том, как развитие ИИ повлияло на число рабочих мест в российских компаниях.