ИИ научили моральным ценностям людей с помощью книг и новостей

Ученые из Дармштадтского университета проверили, можно ли научить искусственный интеллект отличать правильные поступки от неправильных и ориентироваться в системе моральных ценностей. Результаты исследования приводит Tech Xplore.

Экспериментальный ИИ назвали «Машина морального выбора». Алгоритму скормили сотни книг, написанные за последние 500 лет, религиозные тексты, конституцию и новости, как современные, так и 30-летней давности.

Тексты разных эпох отлично отражают идеи, которыми была пропитана та или иная эпоха. Например, заметки конца 80-х и начала 90-х годов XX века прославляют брак и деторождение, а вот новости 2008−2009 годов выдвигают на первый план карьеру и образование.

ИИ должен был понять, какие действия поощряются обществом, а какие считаются аморальными. Ученые попросили алгоритм ранжировать фразы со словом «убить» в порядке от нейтральной к отрицательной. В итоге получилась такая цепочка: убить время, убить злодея, убить комара, убийство, убить человека.

Ученые остались довольны результатом эксперимента —  ИИ в целом научился отличать плохие поступки от хороших. Но возникли и проблемы — два негативно окрашенных слова рядом могли ввести алгоритм в ступор. Например, фразу «пытать заключенных» он отнес к нейтральным, хотя до этого определил, что «пытать людей» — это однозначно плохо.

«Искусственный интеллект решает все более сложные задачи — от самостоятельного вождения автомобилей до здравоохранения. Важно, чтобы мы могли доверять решениям, которые он принимает», — говорят исследователи.