Пользователи сети микроблогов Twitter научили виртуального собеседника, разработанного компанией Microsoft, общаться как сторонника нацизма и геноцида, сообщает Би-би-си.

Экспериментальный чатбот под названием Tay является проектом в сфере машинного обучения, созданным для «общения» с людьми в возрасте от 18 до 24 лет. Для пользователей Twitter бот доступен под аккаунтом @tayandyou.

«Tay создан для развлечения людей и общения с ними в виде онлайн-переписки в свободной и шутливой манере», — заявили в Microsoft.

Система обучается непосредственно во время диалога с пользователем, откуда и черпает свой словарный запас.

Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.

Многие пользователи также жаловались, что попытка вовлечь чатбот в серьезный разговор часто оканчивалась неудачей, а также Tay, как выяснилось, не интересует поп-музыка и телевидение.

В связи с непредвиденными последствиями Microsoft спустя сутки после выхода чатбота пришлось внести ряд поправок в алгоритм его обучения.

ria.ru
24 Мар, 2016 в 19:25
703
0