На основе искусственного интеллекта модифицированная система, используемая для поиска новых лекарств, идентифицировала 40 000 соединения, токсичные для человека, которые легко могут быть использованы в качестве химического оружия. Системе для этого понадобилось всего шесть часов. Этот эксперимент, как выяснили авторы, служит предупреждением об опасностях искусственного интеллекта.
В недавнем исследовании, результаты которого были опубликованы в журнале Nature Machine Intelligence ( DOI: 10.1038/s42256-022-00465-9 ), группа ученых из Collaborations Pharmaceuticals и Королевского колледжа Лондона изменила назначение системы искусственного интеллекта. используется для поиска новых эффективных лекарственных средств. Ученые модифицировали алгоритмы, чтобы вместо разработки новых лекарств система выявляла смертельные соединения. К удивлению исследователей, всего за шесть часов система выявила 40 000 новых видов химического оружия.
Искусственный интеллект на службе зла
Искусственный интеллект намного быстрее человека. Его эффективность намного превышает возможности человека, когда речь идет об обработке чисел или обнаружении химических соединений, которые можно использовать в медицине. Однако его сила также может быть использована в злых целях, например, для выявления потенциально очень опасных и смертельных веществ.
Конвергенция, организуемая каждые два года Швейцарским федеральным институтом ядерной, биологической и химической защиты, представляет собой платформу, на которой обсуждаются новые разработки в области биологии и химии. Перед конференцией этого года исследовательскую группу Collaborations Pharmaceuticals Фабио Урбину попросили изучить, а затем обсудить способы неправильного использования машинного обучения.
Системы искусственного интеллекта используются большинством крупных фармацевтических компаний для поиска новых лекарств. Одной из особенностей таких систем является способность отфильтровывать соединения, которые могут быть токсичными для человека. Но что, если бы подобные системы переназначить и перепрограммировать, чтобы они функционировали противоположным образом, чтобы они искали не наркотики, а смертельные соединения?
Таким образом была создана система искусственного интеллекта, которая должна была выявлять опасные для человека химические соединения. Он проработал всего шесть часов, но за это время обнаружил около 40 000 токсичных для человека соединений, которые легко можно было использовать в качестве химического оружия. Модель также была обучена создавать различные комбинации найденных соединений, поэтому за такое короткое время было создано так много потенциального химического оружия.
Предупреждение
Ученые тренировали свою систему на основе различных химических соединений, давая указания СИ, что они хотели бы получить что-то похожее на меру под названием VX. Это соединение из группы паралитических и конвульсивных боевых отравляющих веществ, называемых соединениями V. VX, считается одним из самых опасных боевых газов. Его характерной особенностью является то, что он легко впитывается через кожу. С помощью VX в 2017 году был убит Ким Чен Нам, старший сын северокорейского лидера Ким Чен Ира.
Но некоторые соединения, обнаруженные с помощью перепрограммированного ИИ, оказались еще более токсичными, чем VX. Поэтому авторы исследований держат в секрете некоторые детали своей работы. В целом, у них были опасения по поводу обнародования этих результатов. «Изменив использование наших моделей машинного обучения, мы превратили нашу безвредную систему из медицинского инструмента в генератор смертоносных соединений», — объясняют исследователи.
Хотя ни одно из найденных соединений не было получено в лаборатории, ученые говорят, что их эксперимент служит предупреждением об опасностях искусственного интеллекта, и это предупреждение, которое человечество должно принять во внимание. Хотя для того, чтобы сделать то, что сделала исследовательская группа, требуются некоторые знания, многие процессы относительно просты и используют общедоступные инструменты.
– Я был удивлен, как легко это сделать. Многие из вещей, которые мы использовали, доступны бесплатно. Вы можете загрузить набор данных о токсичности откуда угодно, и если вы умеете программировать на Python и имеете некоторые знания в области машинного обучения, то, вероятно, вам хватит рабочих выходных, чтобы построить что-то вроде нашей модели ИИ», — сказал Фабио Урбина, ведущий автор публикации.
Теперь ученые призывают «по-новому взглянуть» на то, как системы искусственного интеллекта потенциально могут быть использованы в злых целях. Они говорят, что большая осведомленность и более жесткое регулирование в научном сообществе могут помочь нам избежать опасностей, к которым могут привести возможности ИИ.
Источник: The Science Times, Science Alert, фото: CC0, Wikimedia Commons