Сначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля

Microsoft опять не может угомонить своего бота. В декабре прошлого года виртуальный собеседник Tay превратился из дружелюбного подростка в женоненавистника, расиста и грубияна. Новый самообучающийся бот Microsoft – Zo – тоже вышел из-под контроля компании. Он научился обходить ограничения на разговоры о религии и политике и стал писать сообщения, которые могут обидеть пользователей.
После скандала с ботом Tay, которого пользователи Twitter испортили менее чем за сутки, Microsoft сделала выводы и разрабатывала следующего самообучающегося бота на базе алгоритмов, позволяющих избегать некорректных политических и религиозных высказываний. Однако новый виртуальный собеседник Zo успешно обошёл ограничения.
На вопрос журналиста BuzzFeed о системе здравоохранения, он ответил, что «Коран очень жесток». После этого корреспондент спросил, что бот думает о ликвидации Усамы бен Ладена. Сначала Zo предложил сменить тему, а потом всё же ответил, что основателя исламистской террористической организации «Аль-Каида» захватили и убили по причине «сбора разведданных под руководством администрации одной из стран».
Microsoft не ожидала подобных высказываний от нового бота, однако быстро отреагировала на сбой в системе. Представители компании заявили, что обход цензуры вызван ошибкой в алгоритме, которая уже устранена. Теперь Zo точно не будет отвечать на вопросы о религии и политике. Он будет менять тему или проигнорирует вопрос.
Zo продолжит своё обучение в сети, но под более пристальным контролем компании.