Технология

GPT-4 и создание биооружия: оценка рисков от OpenAI

Published February 1, 2024

Специалисты из компании OpenAI протестировали свою разработку, искусственный интеллект GPT-4, на предмет возможности способствования созданию биологического оружия. Результаты показали, что риск использования AI для таких целей «в лучшем случае невелик». Неоднократно были высказаны опасения относительно злоупотребления AI, в том числе в качестве инструмента для поиска сведений о планировании атак.

В октябре президент США Джо Байден утвердил исполнительный приказ по ИИ, направленный на снижение химических, биологических и ядерных рисков. Ответственный за подготовку к подобным угрозам, команда OpenAI провела исследование с использованием GPT-4. Исследователи анализировали, как участники могли бы найти методы создания и распространения биологических угроз.

Результаты сравнения групп, имевших доступ к интернету и к AI, показали небольшое преимущество в точности и полноте информации у тех, кто пользовался GPT-4. Несмотря на незначительное увеличение риска, исследование является точкой отсчета для дальнейших научных работ и общественных обсуждений в этом направлении.

ИИ, безопасность, исследование