Робот научился жестикулировать, насмотревшись TED Talks

Корейские ученые научили робота жестикулировать по записям TED Talks. Трехмерной системе показали 52 часа выступлений спикеров, пишет N+1 со ссылкой на препринт научной статьи.

Жесты ораторов на видео были размечены с помощью открытого алгоритма OpenPose и соотнесены с акцентами в речи. В результате получилась трехмерная система, способная воспроизводить жесты.

Затем ученые попросили 46 добровольцев оценить по шкале от 1 до 5, насколько компьютерные жесты похожи на человеческие и соответствуют сказанному, чтобы отобрать самые точные движения.

По словам авторов исследования, гуманоидному роботу NAO, на котором испытали систему, удалось воспроизвести заданные комбинации жестов.