Ученые из Дармштадтского университета проверили, можно ли научить искусственный интеллект отличать правильные поступки от неправильных и ориентироваться в системе моральных ценностей. Результаты исследования приводит Tech Xplore.
Экспериментальный ИИ назвали «Машина морального выбора». Алгоритму скормили сотни книг, написанные за последние 500 лет, религиозные тексты, конституцию и новости, как современные, так и 30-летней давности.
Тексты разных эпох отлично отражают идеи, которыми была пропитана та или иная эпоха. Например, заметки конца 80-х и начала 90-х годов XX века прославляют брак и деторождение, а вот новости 2008−2009 годов выдвигают на первый план карьеру и образование.
ИИ должен был понять, какие действия поощряются обществом, а какие считаются аморальными. Ученые попросили алгоритм ранжировать фразы со словом «убить» в порядке от нейтральной к отрицательной. В итоге получилась такая цепочка: убить время, убить злодея, убить комара, убийство, убить человека.
Ученые остались довольны результатом эксперимента — ИИ в целом научился отличать плохие поступки от хороших. Но возникли и проблемы — два негативно окрашенных слова рядом могли ввести алгоритм в ступор. Например, фразу «пытать заключенных» он отнес к нейтральным, хотя до этого определил, что «пытать людей» — это однозначно плохо.