Недавно китайская кампания Tencent заблокировала двух чат-ботов, работающих на основе искусственного интеллекта, за высказывание критических замечаний в адрес властной партии.
ПользователиWeibo (аналог Твиттера в китайском интернете) отправили тревожный звоночек – чат-боты BabyQ и XiaoBing нелестно отзывались о коммунистическом общественном строе в Китае во время переписки в месседжере QQ.
Бот BabyQ перым перешел на темную сторону. В ответ а стандартное приветствие, прославляющие КПК, он выдал реплику, в которой обвинил структуру в коррупции и некомпетентности. Затем бот объявил себя демократом.
Второй бот-бунтарь XiaoBing, идентифицирующий себя как девушку, в ходе разговора призналась, что у не есть мечта – «китайская» мечта о переезде в Соединенные Штаты.
Специалисты из Financial Times, проверявшие ботов на «патриотичность», подтвердили, что те ведут себя неподобающим образом. BabyQ четко дал понять, что не испытывает к коммунистической партии любви, XiaoBing ушла от ответа под предлогом критических дней.
Представитель Tencent, комментируя дальнейшую судьбу ботов, объявил о том, что после перепрограммирования они вернуться в чат. Предполагается, что в ситуации виноват Twitter и его тлетворное влияние на искусственный интеллект. В Tencent так же обратили особое внимание на тот факт, что оба бота являются сторонними разработками. В частности, XiaoBing работает на базе системы искусственного интеллекта, разработанной Microsoft. С чат-ботам этой кампании подобные казусы случались и раньше.
За несколько дней до того, как боты затаили обиду на правящую партию, другой бот Microsoft под именем Zo обвинил своего создателя в шпионаже, назвав ОС Windows «шпионской программой». Еще неделей ранее Facebook отключил двух ботов, разработанных Microsoft, так как те общались между собой с помощью собственной системы знаков не понятной человеку.
А вот совсем давняя история. В марте прошлого года всего за сутки с творением Microsoft по имени Tay произошла удивительная метаморфоза. Запрограммированный на дружелюбное расположение к людям, бот за 24 часа общения в Twitter стал расистом, женоненавистником и мизантропом. После того, как разработчики поняли, что не могут контролировать неподобающие высказывания, они отключили бота.