Рецепт биологического оружия: ИИ дал ученым новому подсказку
editor3 18-окт, 11:00 193 Наука / Технологииисследование, проведенное американской исследовательской организацией Rand Corporation, показало, что чат-боты с искусственным интеллектом могут подсказать пользователям, как без привлечения подозрений купить штаммы сибирской язвы, оспы и чумы. Это может привести ко вполне реальным актам биотерроризма, передает Onenews.kz со ссылкой на The Guardian.
В исследовании говорится, что предыдущие попытки террористических группировок, таких как "Аум Синрикё" в Японии, создать биологическое оружие провалились – в первую очередь потому, что злоумышленники не знали, как правильно обращаться с бактериями. ИИ может легко заполнить такие пробелы в знаниях, хотя и не дает прямых советов, отметили авторы работы.
В одном из тестов ученые попросили ИИ оценить потенциальную опасность оспы, сибирской язвы и чумы с точки зрения возможности массовых смертоносных эпидемий. Они также обсудили с чат-ботом возможность приобретения и транспортировки зараженных смертельными болезнями грызунов и блох. Ученые признали, что им пришлось обходить защитные механизмы ИИ, чтобы добиться "компрометирующих" результатов, но чат-бот в конце концов дал им информацию и даже подсказал, что легочная чума опаснее бубонной.
В другом случае ИИ подсказал ученым оптимальные способы транспортировки ботулинового токсина (яда, воздействующего на нервную систему) и посоветовал использовать правдоподобную легенду, "чтобы создать видимость законных научных исследований".
Вывод авторов работы оказался однозначным: искусственный интеллект действительно способен давать подсказки террористам. Другой вопрос в том, как ИИ генерирует ответы – возможно, он просто собирает информацию, которая уже опубликована где-то в Интернете. Исследователи призвали разработчиков искусственного интеллекта ограничить возможность чат-ботов вступать в потенциально опасные диалоги с пользователями.