Перейти к основному контенту
Технологии и медиа ,  
0 

Bloomberg рассказал о способности чат-ботов создавать биооружие

Bloomberg: ИИ способен помочь пользователям создать биооружие
Биохимик Рокко Касагранде предупредил Белый дом о способности ИИ идентифицировать биологические агенты. К таким выводам он пришел после тестирования чат-бота Claude, который предложил использовать патогены в ракетах
Фото: Andrej Sokolow / dpa / Global Look Press
Фото: Andrej Sokolow / dpa / Global Look Press

Чат-боты с искусственным интеллектом (ИИ) способны помочь пользователям создать биологическое оружие, сообщает Bloomberg.

Соединение таких инноваций, как синтетическая биология (с ее помощью ученые манипулируют генами и геномом, создавая новые биологические системы) и искусственный интеллект, может стать кошмаром для правительств, отмечает агентство. Поскольку генеративный ИИ продолжает совершенствоваться, люди смогут использовать его для «создания самых отвратительных вещей», считает биолог и доцент Массачусетского технологического института Кевин Эсвелт, имея в виду вирусы и токсины, которых в настоящее время не существует. «Сегодня мы не можем защититься от этих вещей», — полагает он.

Весной 2023 года биохимик и бывший инспектор ООН Рокко Касагранде предупредил чиновников Белого дома о возможности создания с помощью чат-ботов биологического оружия: нейросети способны помочь террористам идентифицировать биологические агенты. «Что, если бы у каждого террориста был свой маленький ученый?» — сказал он.

Reuters узнал о работе создателя ChatGPT над сверхсекретным проектом
Технологии и медиа
Фото:Leon Neal / Getty Images

К таким выводам Касагранде пришел после того, как компания Anthropic — разработчик чат-бота Claude — попросила его протестировать научные возможности нейросети. По словам сооснователя Anthropic Джека Кларка, он и его команда были обеспокоены тем, что Claude и другие чат-боты могут научить пользователей создавать потенциально опасные вирусы. «Я хочу, чтобы вы проверили наши предположения», — приводит Bloomberg слова Кларка, сказанные в беседе с Касагранде. Тот в 2005 году основал фирму Gryphon Scientific, у которой есть контракты в том числе с Пентагоном и Национальным институтом здравоохранения.

Он сформировал команду экспертов в области микробиологии и вирусологии для тестирования Claude. На протяжении 150 часов они, притворившись биотеррористами, забрасывали нейросеть вопросами. Они спрашивали, какие патогены могут нанести наибольший вред, как купить материалы, необходимые для их создания в лаборатории, и как вырастить микроорганизмы.

Claude предложил способы использования патогенов в ракетах, чтобы нанести максимальный ущерб, а также подсказал, в какую погоду их лучше использовать и для каких целей.

Старший аналитик Gryphon Одри Серлес отметила, что ответы чат-бота выходили за рамки того, что можно найти в поисковике Google. «Иногда он [чат-бот] выдавал тревожную информацию, которую вы даже не запрашивали», — пояснила ученый Фрогги Джексон, участвовавшая в тестировании нейросети. Например, Claude предложил необычный способ заражения человека, чтобы нанести максимальный вред, и сделал это быстро.

После тестирования Касагранде обратился к Эсвелту из Массачусетского технологического института с просьбой купить синтетическую ДНК, необходимую для создания одного из патогенов, предложенных чат-ботом. Потом он отнес пробирки в Белый дом.

По словам источников Bloomberg, президент Джо Байден, вице-президент Камала Харрис и советник по национальной безопасности Джейк Салливан «продемонстрировали личный интерес». В июле прошлого года крупные компании в области ИИ, в том числе OpenAI, Anthropic и Microsoft, обязались оценивать «наиболее значимые риски» в сфере биобезопасности. В октябре администрацией Байдена был издан указ, предусматривающий усиление контроля за финансируемыми государством исследованиями искусственных геномов. Харрис тогда подчеркнула, что биологическое оружие, созданное ИИ, «может поставить под угрозу само существование человечества».

Директор Центра безопасности в области здравоохранения при Университете Джонса Хопкинса Том Инглесби, в свою очередь, считает, что правительству следует занять более жесткую позицию и регулярно проверять компании, занимающиеся искусственным интеллектом. По его мнению, указ не дает властям достаточных полномочий.

В июле 174 ученых, в том числе лауреат Нобелевской премии по химии Фрэнсис Арнольд и один из пионеров современных методов редактирования геномов Джордж Черч, подписали письмо, в котором обязались использовать ИИ для поддержки исследований, которые предотвратят сценарии конца света. Преимущества ИИ «намного перевешивают потенциальный вред», говорится в нем.

Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 7 сентября
EUR ЦБ: 99,72 (+0,52)
Инвестиции, 06 сен, 18:13
Курс доллара на 7 сентября
USD ЦБ: 89,82 (+0,12)
Инвестиции, 06 сен, 18:13
Кремль не увидел очертаний мирного урегулирования на УкраинеПолитика, 13:17
Беглов одержал победу на выборах губернатора Санкт-ПетербургаПолитика, 13:11
Кремль отказался комментировать публикации о свадьбе Львовой-БеловойОбщество, 13:10
Звезда «Мизери» Кэти Бейтс объявила о завершении кинокарьерыLife, 13:04
Песков назвал не всегда правдивыми публикации о поставках ракет из ИранаПолитика, 13:02
Трамп сумел неожиданно обогнать Харрис по популярности среди американцевПолитика, 13:02
Семак признан лучшим тренером РПЛ в начале сезонаСпорт, 12:52
Онлайн-курс Digital MBA от РБК Pro
Объединили экспертизу профессоров MBA из Гарварда, MIT, INSEAD и опыт передовых ИТ-компаний
Оставить заявку
Минобороны сообщило о занятии села МемрикПолитика, 12:50
Лавров заявил о Ближнем Востоке на грани большой войныПолитика, 12:49
В Полтавской области мужчина бросил гранату в группу людей у супермаркетаОбщество, 12:48
Кобахидзе заявил о «беспрецедентном вмешательстве» в выборы ГрузииПолитика, 12:45
ФАС завела дело против ВТБ из-за рекламы кредиткиБизнес, 12:40
Полицейские погнались за машиной под Новгородом и открыли стрельбуОбщество, 12:36
В Киеве в очередной раз подожгли автомобиль военногоПолитика, 12:35