Машины могут быть прекрасными помощниками в подсчетах, но в гуманитарной сфере они не дотягивают до академического уровня. Роботам не хватает этики и свободомыслия, зато сквернословить и сыпать банальщиной они научились на раз-два. Опасность в том, что у искусственного интеллекта на любое суждение столько примеров, что человеку нечем крыть. Об этом рассуждает колумнист TNW Тристан Грин.
Ученые уже пытались привить роботам человеческие ценности через литературу, но пока не очень успешно. Чтобы постоянно учиться новому, машинам нужны масштабные данные — например, такие как ежесекундно обновляемая лента твиттера или другой поток записей.
Автор вспоминает, как виртуальный собеседник Tay производства Microsoft превратился в матерщинника, женоненавистника и расиста, набравшись ругательств от пользователей форумов.
Зачастую робот, подобно плохому исследователю, убеждается в гипотезе раньше, чем находит ей подтверждение. «Если вы скажете программе, что все белые люди любят оранжевый цвет и попросите найти тому доказательства, она найдет. Если вы скажете, что все чернокожие носят однотонные зеленые футболки, система не поспорит, она подтвердит любой стереотип на основе данных, к которым имеет доступ», — пишет обозреватель.
Скажем, если на сайте вакансий меньше объявлений женщин-водителей, этому можно найти два объяснения. Первое: женщины — отличные водители, они не ищут работу, потому что уже нашли. Второе: женщины водят из рук вон плохо и не выдерживают конкуренции с мужчинами на трудовом рынке. Тому и другому софист-компьютер найдет доказательства. Поэтому алгоритм, определяющий сексуальную ориентацию или политические взгляды по чертам лица, не вызывает у автора статьи доверия.