Как ИИ упрощает создание биологического оружия и угрожает человечеству
Недавний отчет Rand Corporation поднимает серьёзные вопросы о том, как искусственный интеллект (ИИ) может повысить вероятность глобальной пандемии в пять раз. Исследование, заказанное Агентством перспективных оборонных исследований США (DARPA), изучает сценарии биотерроризма и утечек из лабораторий, которые становятся более вероятными благодаря генеративным ИИ-технологиям.
Как ИИ упрощает создание биологического оружия?
Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия. Исследователи предупреждают, что ИИ может помочь злоумышленникам в выборе патогена, синтезе ДНК и даже в обходе существующих мер контроля.
Представьте себе: гипотетические злодеи с доступом к ИИ-системам с открытым API могут легко получить пошаговые инструкции по созданию опасных вирусов, таких как оспа. Даже с минимальными техническими навыками они могут создать нечто ужасное, просто следуя подсказкам ИИ.
Снижение барьера доступа
Ключевой риск заключается в том, что ИИ снижает «барьер доступа» к биологическим атакам. Ранее для этого требовались высокая квалификация и значительные ресурсы, но теперь ИИ может компенсировать нехватку знаний. Это особенно опасно, так как ИИ может автоматически генерировать и проверять варианты биологических агентов с оптимизированными характеристиками заразности и устойчивости.
Утечки, случайные ошибки и необходимость регулирования
Но речь идет не только о террористах. Rand подчеркивает, что лаборатории, использующие ИИ для ускорения исследований, могут случайно создать и выпустить опасные патогены в окружающую среду. Такие утечки могут оказаться даже более масштабными, чем COVID-19, особенно если не будет должного контроля и этических ограничений.
В отчете акцентируется внимание на необходимости регулирования. Ученые призывают ввести запреты на доступ к биотехнической информации в больших языковых моделях (LLM), внедрить фильтры на «биоопасный» контент и обеспечить аудит моделей, используемых в научных разработках. Также важно пересмотреть принципы публикации биологических данных в открытом доступе.
Хотя в отчете нет однозначного сценария, его общий вывод тревожен: если развитие ИИ продолжится без учета биологических рисков, вероятность новой пандемии в ближайшие десятилетия значительно возрастет. Технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.
Так что, возможно, стоит подумать дважды, прежде чем дать ИИ слишком много свободы — он может не только решать задачи, но и создавать проблемы, о которых мы даже не подозреваем!