искусственный интеллект

Австралийский адвокат извинился за использование ИИ во время работы над делом об убийстве

Использование ИИ для написания эссе, курсовых или отчетов может приводить к разным казусам. Однако если к «услугам» искусственного интеллекта обращается врач или юрист, последствия могут быть куда более серьезными. Например, австралийский адвокат Риши Натвани публично извинился за создание фальшивых цитат во время работы над делом об убийстве.

Credit: AP Photo / Rod McGuirk

Натвани имел престижный юридический статус, и никто ранее не подозревал его в подлогах. Все изменилось, когда Риши стал адвокатом подростка, обвиняемого в убийстве. По какой-то причине мужчина решил сэкономить время и предоставил суду материалы, сгенерированные при помощи ИИ.

Судья Джеймс Элиотт намеревался огласить приговор в прошлую среду. Незадолго до финального заседания его коллеги потребовали организовать проверку документов, предоставленных защитой подсудимого.

Экспертиза показала, что в материалах дела использованы фейковые цитаты из «выступлений» перед законодательным собранием штата и несуществующие ссылки на решения Верховного суда.

Днем позже, в четверг, судья Эллиотт постановил, что подросток — клиент Натвани психически болен и, как следствие, не виновен в убийстве.

Риши Натвани извинился перед судом за некомпетентное поведение. По словам адвоката и его коллег, они проверили точность исходных цитат и предположили, что в остальных текстах не будет ошибок.

«Мы глубоко сожалеем о случившемся и испытываем неловкость», — заявил Натвани, представляя команду защиты.

В мае мы писали, как дипфейк-клон убитого мужчины «выступил» в суде перед подозреваемым.