Чат-бот Zo — приложение от компании Microsoft, которое позиционируется как разговорный искусственный интеллект. С ним можно поболтать на разные темы, но только не о политике и религии. Эти темы находятся под запретом, и робот не может о них ничего сказать. Однако журналисту издания BuzzFeed каким-то образом удалось «разговорить» Zo.
Чат-бот раскритиковал Коран, назвав книгу «излишне жестокой». После чего журналист спросил у бота про Усаму бен Ладена. Сперва Zo выдал дежурную фразу «давай поговорим о чём-нибудь другом», а после уточняющего вопроса взял и заявил, что «захват» бен Ладена стал результатом «многих лет сбора разведданных под руководством сразу нескольких администраций».
В Microsoft заявили, что ответы чат-бота возникли из-за ошибки в искусственном интеллекте, и теперь она была исправлена. По словам представителей компании, такие ошибки действительно случаются, но очень редко.
Примечательно, что это не первый раз, когда бот Microsoft выходит из-под контроля. В 2016 году бот TAY «вышел» в Twitter и стал обучаться на сообщениях реальных людей. Всего через сутки робот начал писать расистcкие твиты и прославлять Гитлера. Поэтому компании пришлось его отключить.
Читайте также
Последние новости