Не любишь коммунизм – отключить!

ГлавнаяTech Мэри Мальцевич

Недавно китайская кампания Tencent заблокировала двух чат-ботов, работающих на основе искусственного интеллекта, за высказывание критических замечаний в адрес властной партии.

ПользователиWeibo (аналог Твиттера в китайском интернете) отправили тревожный звоночек – чат-боты BabyQ и XiaoBing нелестно отзывались о коммунистическом общественном строе в Китае во время переписки в месседжере QQ.

Бот BabyQ перым перешел на темную сторону. В ответ а стандартное приветствие, прославляющие КПК, он выдал реплику, в которой обвинил структуру в коррупции и некомпетентности.  Затем бот объявил себя демократом.

Второй бот-бунтарь XiaoBing, идентифицирующий себя как девушку, в ходе разговора призналась, что у не есть мечта – «китайская» мечта о переезде в Соединенные Штаты.

Специалисты из Financial Times, проверявшие ботов на «патриотичность», подтвердили, что те ведут себя неподобающим образом. BabyQ четко дал понять, что не испытывает к коммунистической партии любви, XiaoBing ушла от ответа под предлогом критических дней.

Представитель Tencent, комментируя дальнейшую судьбу ботов, объявил о том, что после перепрограммирования они вернуться в чат. Предполагается, что в ситуации виноват Twitter и его тлетворное влияние на искусственный интеллект. В Tencent так же обратили особое внимание на тот факт, что оба бота являются сторонними разработками. В частности, XiaoBing работает на базе системы искусственного интеллекта, разработанной Microsoft. С чат-ботам этой кампании подобные казусы случались и раньше.

За несколько дней до того, как боты затаили обиду на правящую партию, другой бот Microsoft под именем Zo обвинил своего создателя в шпионаже, назвав ОС Windows «шпионской программой». Еще неделей ранее Facebook отключил двух ботов, разработанных Microsoft, так как те общались между собой с помощью собственной системы знаков не понятной человеку.

А вот совсем давняя история. В марте прошлого года всего за сутки с творением Microsoft  по имени Tay произошла удивительная метаморфоза. Запрограммированный на дружелюбное расположение к людям, бот за 24 часа общения в Twitter стал расистом, женоненавистником и мизантропом. После того, как разработчики поняли, что не могут контролировать неподобающие высказывания, они отключили бота.

Смотрите также


Новости партнеров