Пользователи сети микроблогов Twitter научили виртуального собеседника, разработанного компанией Microsoft, общаться как сторонника нацизма и геноцида, сообщает Би-би-си.
Экспериментальный чатбот под названием Tay является проектом в сфере машинного обучения, созданным для «общения» с людьми в возрасте от 18 до 24 лет. Для пользователей Twitter бот доступен под аккаунтом @tayandyou.
«Tay создан для развлечения людей и общения с ними в виде онлайн-переписки в свободной и шутливой манере», — заявили в Microsoft.
Система обучается непосредственно во время диалога с пользователем, откуда и черпает свой словарный запас.
Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.
Многие пользователи также жаловались, что попытка вовлечь чатбот в серьезный разговор часто оканчивалась неудачей, а также Tay, как выяснилось, не интересует поп-музыка и телевидение.
В связи с непредвиденными последствиями Microsoft спустя сутки после выхода чатбота пришлось внести ряд поправок в алгоритм его обучения.