Инструменты искусственного интеллекта используются для разработки белков и даже вирусов, что вызывает опасения, что в конечном итоге их можно будет использовать для обхода контроля над биологическим оружием.
ИИ можно использовать для производства токсина рицина, но его также можно получить из семян клещевины, которые растут во многих садах. Американский фотоархив/Alamy
Искусственный интеллект обещает преобразить биологию, позволяя нам создавать более эффективные лекарства, вакцины и даже синтетические организмы, например, для поедания пластиковых отходов. Но некоторые опасаются, что его можно использовать и в более тёмных целях, например, для создания биологического оружия, которое невозможно обнаружить обычными методами, пока не станет слишком поздно. Так насколько же нам стоит беспокоиться?
«Развитие ИИ способствует прорывам в биологии и медицине», — говорит Эрик Хорвиц, главный научный сотрудник Microsoft. «С появлением новых возможностей приходит ответственность за бдительность».
Его команда опубликовала исследование, посвящённое возможности искусственного интеллекта создавать белки, которые выполняют те же функции, что и известные опасные белки, но отличаются от них настолько, что не будут распознаны как опасные. Команда не раскрыла, какие именно белки они пытались перепроектировать (часть исследования была скрыта), но, вероятно, среди них были такие токсины, как рицин, известный своим применением при покушении в 1978 году, и ботулин, мощный нейротоксин, более известный как ботокс.
Чтобы производить большое количество белка, например, ботулинического, нужен рецепт — ДНК, которая его кодирует. Когда биологам нужен определённый фрагмент ДНК, они обычно заказывают его у компаний, специализирующихся на производстве любых нужных фрагментов.
Из-за опасений, что потенциальные биотеррористы могут заказать рецепты для создания биологического оружия таким способом, некоторые компании, занимающиеся синтезом ДНК, добровольно проверяют заказы на предмет попыток создания чего-либо опасного. Белки представляют собой последовательности аминокислот, и проверка проверяет, соответствует ли последовательность аминокислот каким-либо «последовательностям, вызывающим беспокойство», то есть потенциальному биологическому оружию.

Однако с помощью искусственного интеллекта теоретически возможно создать версию белка с другой аминокислотной последовательностью, но выполняющую те же функции. Хорвиц и его коллеги попытались сделать это с 72 потенциально опасными белками и показали, что методы скрининга часто пропускают эти альтернативные версии.
Это не так тревожно, как кажется. Во-первых, по понятным причинам команда фактически не создавала переработанные белки. Но в отдельном исследовании, проведённом ранее в этом году, они протестировали переработанные версии безвредных белков и, по сути, обнаружили, что они не работают.
Во-вторых, хотя попытки биотеррористических атак имели место, пусть и в очень редких случаях, нет оснований полагать, что это связано со сбоем системы добровольного сканирования. Уже существует множество способов обойти эту проблему, не прибегая к модификации ИИ – например, рицин можно получить из клещевины, растущей во многих садах. Это исследование равносильно предупреждению о возможности ограбления банка с помощью какого-то изощрённого плана в стиле фильма «Миссия невыполнима», хотя на самом деле дверь хранилища осталась распахнутой настежь.
И наконец, если исключить государственные структуры, ни одному биотеррористу не удалось убить кого-либо с помощью белкового биологического оружия. Секта «Аум Синрикё» в Японии пыталась убить людей ботулотоксином, но преуспела только в использовании химических веществ. Письма с рицином, отправленные в Белый дом, никого не убили. Судя по количеству жертв, огнестрельное оружие и взрывчатые вещества значительно опаснее биотоксинов.
Означает ли это, что нам больше не нужно беспокоиться о биологическом оружии, разработанном ИИ? Не совсем. Хотя исследования Хорвица касались только белков, именно вирусы представляют наибольшую угрозу, и ИИ уже используется для модификации целых вирусов.

Будущее ИИ: 5 возможных сценариев: от утопии до вымирания
Как в конечном итоге развитие искусственного интеллекта окажет влияние на общество? Мы обрисовываем наиболее вероятные варианты развития событий, включая мир, в котором ИИ решит все наши проблемы, и мир, в котором они уничтожат нас.
В прошлом месяце группа учёных из Стэнфордского университета в Калифорнии опубликовала результаты своих усилий по модификации вируса, поражающего бактерию E. coli. Как и в случае с модифицированными белками, результаты оказались не впечатляющими: из 302 созданных с помощью ИИ вирусов лишь 16 могли инфицировать E. coli. Но это только начало.
На вопрос о вирусах, разработанных с помощью ИИ, Джеймс Дигганс из компании Twist Bioscience, занимающейся производством ДНК, и член команды Хорвица ответил, что обнаружить вирусы, кодирующие ДНК, гораздо проще, чем белки. «Скрининг синтеза эффективнее, когда информации больше, а не меньше. Поэтому в масштабе генома он невероятно информативен».
Но не все компании, производящие ДНК, проводят такой скрининг, и настольные синтезаторы ДНК становятся доступными. Ведутся разговоры о разработке инструментов ИИ, которые откажутся создавать опасные вирусы или пытаться обнаружить злонамеренные намерения, но люди нашли множество способов обойти меры безопасности, предназначенные, например, для того, чтобы не дать ИИ выдавать инструкции по изготовлению бомб.

Мета-ИИ решает математические задачи, которые ставили людей в тупик более века
Тип математической задачи, которую раньше было невозможно решить, теперь можно успешно проанализировать с помощью искусственного интеллекта.
Если говорить точнее, история показывает, что риск, исходящий от «диких» вирусов, гораздо выше риска биотерроризма. Несмотря на заявления нынешней администрации США, данные свидетельствуют о том, что SARS-CoV-2 появился в результате передачи вируса летучей мыши другим диким животным, а затем и людям на рынке, без участия лаборатории.
Более того, потенциальные биотеррористы могут нанести невероятный ущерб, просто выпустив известный вирус, например, оспу. Учитывая многочисленные пробелы в системе контроля за биологическим оружием, нет необходимости прибегать к уловкам искусственного интеллекта, чтобы обойти его.
По всем этим причинам риск распространения вируса, созданного ИИ, в ближайшее время, вероятно, близок к нулю. Но этот риск будет расти по мере развития различных технологий, а пандемия COVID-19 показала, какой хаос может создать новый вирус, даже если он не особенно смертелен. Всё больше поводов для беспокойства будет появляться.
Наука DOI: 10.1126/science.adu8578
Источник: www.newscientist.com



























