Спочатку Tay, тепер Zo: черговий чат-бот Microsoft вийшов з-під контролю

Microsoft знову ніяк не вгамує свого бота. У грудні минулого року віртуальний співрозмовник Tay перетворився з дружнього підлітка на ненависника жінок, расиста та хама. Новий самонавчальний бот Microsoft – Zo – теж вийшов з-під контролю компанії. Він навчився ігнорувати обмеження на розмови про релігію та політику, став писати повідомлення, образливі для користувачів.
Після скандалу з ботом Tay, якого користувачі Twitter зіпсували менше ніж за добу, Microsoft зробила висновки та розробила ще одного самонавчального бота на базі алгоритмів, що змушують уникати некоректних політичних і релігійних висловлювань. Проте новий віртуальний співрозмовник Zo успішно подолав обмеження.
На запитання журналіста BuzzFeed про систему охорони здоров'я він відповів, що «Коран дуже жорстокий». Після цього кореспондент запитав, що бот думає про ліквідацію Усами бен Ладена. Спочатку Zo запропонував змінити тему, а потім все ж відповів, що засновника ісламістської терористичної організації «Аль-Каїда» захопили та вбили через «збір розвідданих під керівництвом адміністрації однієї з країн».
Microsoft не очікувала подібних висловлювань від нового бота, однак швидко відреагувала на збій у системі. Представники компанії заявили, що ігнорування цензури спричинено помилкою в алгоритмі, яку вже виправили. Тепер Zo поза сумнівом не відповідатиме на запитання про релігію та політику. Він змінить тему чи проігнорує запитання.
Zo й надалі навчатиметься у мережі, але під ретельнішим контролем з боку компанії.