Перейти к основному контенту
Политика ,  
0 

В Совбезе ООН призвали не допустить создание «машин-убийц» на основе ИИ

В Совете Безопасности ООН указали на опасности использования искусственного интеллекта
Тему искусственного интеллекта впервые обсудили в Совете Безопасности ООН. Участники говорили об опасности его военного применения. Россия раскритиковала сам факт обсуждения темы искусственного интеллекта в Совбезе
Фото: Brendan McDermid / Reuters
Фото: Brendan McDermid / Reuters

Какие опасности представляет ИИ

Искусственный интеллект (ИИ) «бросает вызов» текущим представлениям об обороне и сдерживании, ставит моральные вопросы о принятии летальных решений на поле боя, ускоряет распространение дезинформации, создает новые риски, когда речь заходит об оружии массового уничтожения, но с такой же эффективностью ИИ может посодействовать с решением проблемы ядерного распространения, заявил глава МИД Великобритании Джеймс Клеверли на первом в истории заседании Совета Безопасности ООН по теме искусственного интеллекта. Заседание «Искусственный интеллект: возможности и риски для международного мира и безопасности» прошло во вторник, 18 июля, по инициативе британской стороны, которая сейчас председательствует в Совете Безопасности, его трансляция велась на сайте ООН.

«Технические и финансовые барьеры для доступа к ИИ низкие, в том числе для преступников и террористов. И военные, и невоенные варианты применения искусственного интеллекта могут иметь серьезные последствия для глобального мира и безопасности», — заявил выступивший на заседании генеральный секретарь ООН Антониу Гутерриш. По его словам, непредусмотренные последствия некоторых систем могут создать риски из-за просчетов или случайностей. «Взаимодействие между ИИ и ядерным оружием, биотехнологиями, нейротехнологиями и робототехникой вызывает особую тревогу», — подчеркнул он. Гутерриш рассказал, что был «поражен и шокирован» тем, как быстро развивается генеративный ИИ — «скорость и охват этой новой технологии во всех ее формах абсолютно беспрецедентны». По оценке генсекретаря, к 2030 году вклад ИИ в глобальную экономику составит от $10 трлн до $15 трлн.

«Нужно сделать все, чтобы не допустить появления рисков, которые неподконтрольны человечеству. Нельзя допустить, чтобы появились машины-убийцы, — заявил постоянный представитель Китая при ООН Чжан Цзюнь. — Нам нужно внимательно следить за всем циклом создания и применения искусственного интеллекта, с тем чтобы у человечества в любой момент была возможность нажать на кнопку «Пауза» в развитии этих технологий».

Что такое Азиломарские принципы и зачем они искусственному интеллекту
Футурология
Фото:Pexels

Какие меры предлагают в ООН

Генсекретарь Гутерриш поддержал идею создать на базе ООН орган, который бы сформулировал глобальные стандарты по регулированию сферы ИИ. По его словам, такая площадка могла бы действовать по аналогии с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК). Он обозначил пять целей и задач такого органа: помощь странам в получении максимальной пользы от ИИ; устранение существующих и будущих угроз; выработка и реализация международных механизмов мониторинга и контроля; сбор экспертных данных и их передача мировому сообществу; изучение ИИ для «ускорения устойчивого развития».

По оценке Клеверли, ИИ может повлиять и на работу Совета Безопасности ООН: «Он может укрепить или же подорвать глобальную стратегическую стабильность».

Армия Израиля использовала искусственный интеллект для авиаударов
Политика
Фото:Getty Images

Необходимо создать глобальную систему, с помощью которой технологию можно контролировать, сказал министр и привел четыре принципа, на которые, по мнению Лондона, должна опираться такая система. Искусственный интеллект, согласно позиции Лондона, должен «поддерживать свободу и демократию»; «действовать в соответствии с верховенством права и правами человека»; «быть безопасным и предсказуемым, гарантируя неприкосновенность собственности, неприкосновенность частной жизни и национальную безопасность»; «пользоваться общественным доверием» и не угрожать критически важным системам.

С посылом о двойственности искусственного интеллекта и необходимости его контролировать выступили другие члены Совета — представители Японии, Мозамбика, ОАЭ, Китая, США, Бразилии, Швейцарии, Ганы, Франции, Эквадора, Мальты, Габона, Албании.

Россия раскритиковала дискуссию

Первый зампостпреда России при ООН Дмитрий Полянский, выступая на заседании последним, раскритиковал решение обсуждать тему ИИ в Совбезе. «С учетом оценок, высказанных сегодня докладчиками, складывается впечатление, что искусственный интеллект как технология находится на ранней стадии развития, и неизвестных в этой теме пока гораздо больше. Поэтому выбор организаторами Совета Безопасности ООН в качестве площадки для дискуссии по данной теме выглядит, на наш взгляд, неочевидным», — сказал он. По его словам, «органической связи» между темой искусственного интеллекта и вопросами международного мира и безопасности «пока не наблюдается».

Для начала, заявил Полянский, надо «определиться с природой и характером возможных рисков и угроз», которые несет ИИ, «оценить их масштаб, возможные меры реагирования». Для этого нужна профессиональная научная дискуссия, которая займет не один год и уже идет на профильных площадках, и «дублировать эти усилия контрпродуктивно», резюмировал российский представитель.

До Полянского с предложением перенести обсуждение темы ИИ в Генеральную Ассамблею ООН выступил представитель Бразилии.

Маск предупредил о большом влиянии искусственного интеллекта на выборы
Технологии и медиа
Илон Маск

Есть ли у обсуждения практическое значение

В 2023 году Великобритания планирует провести первый глобальный саммит по теме безопасности искусственного интеллекта, и в этом контексте нынешнее заседание Совбеза можно назвать PR-акцией британской инициативы, говорит эксперт Российского совета по международным делам (РСМД) Олег Шакиров.

«Они хотят занять центральное место в дискуссиях по безопасности искусственного интеллекта, — отмечает он в беседе с РБК. — За последние несколько лет этот вопрос обсуждают в разных форматах — и в неправительственных и частных компаниях, и в ОЭСР (Организация экономического сотрудничества и развития. — РБК), и в «двадцатке». Британия решила посмотреть на вопрос через призму безопасности и в этом контексте вынести вопрос в Совбез».

И хотя это первая такая дискуссия в СБ ООН, которую можно назвать важной вехой, не ясно, будут ли такие обсуждения и дальше, — вполне возможно, что сегодняшнее заседание окажется разовым мероприятием, продолжает Шакиров. Он напоминает, что в ООН уже довольно давно обсуждается проблематика смертоносных автономных систем (САС — устройства, которые могут поражать цели без вмешательства оператора). «Там есть страны, которые выступают за запрет так называемых роботов-убийц и запрет на использование ИИ в этой сфере. Есть другие страны вроде России, Китая, США, которые это направление активно развивают, — их подход в том, что они понимают озабоченности, но выступают за то, чтобы ограничиваться более общими принципами», — говорит эксперт; вероятно, Британия хочет обсуждать вопрос ИИ шире, чем в рамках САС.

«Умные» фермы: как искусственный интеллект меняет сельское хозяйство
Национальные проекты
Фото:Владимир Смирнов / ТАСС

Тема искусственного интеллекта — часть проблемы обеспечения информационной безопасности, говорит глава группы проблем информационной безопасности Центра международной безопасности ИМЭМО РАН Наталия Ромашкина. Она напомнила, что еще в 1998 году в Первом комитете Генассамблеи ООН (занимается темой разоружения и международной безопасности) эту проблему поставила на повестку Россия.

«Сегодня ИИ — наиболее активно, лавинообразно развивающаяся отрасль. Ее важно обсуждать на полях ООН, с тем чтобы заранее прийти к каким-то договоренностям о том, как ограничивать те возможности, которые дает искусственный интеллект, — отмечает в беседе с РБК эксперт. — Все конфликты рано или поздно заканчиваются, и странам приходится договариваться. Тем более что достаточно много стран, с которыми Россия сотрудничает, в том числе в высокотехнологичной сфере». По оценке Ромашкиной, Россия — хоть и не лидер на этом направлении, но важный и активный игрок. И в целом на сегодня тема ИИ одна из немногих, где возможно обсуждение «не на повышенных тонах», резюмировала эксперт.

Готовые квартиры в новых кварталах

В разных районах Москвы и области

Квартиры в столице с выгодой до ₽4,5 млн

Выгодные предложения для семей с детьми

Видовые квартиры в высотных башнях

Варианты с мебелью и встроенной техникой

Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.


 

Лента новостей
Курс евро на 20 ноября
EUR ЦБ: 105,73 (+0,27)
Инвестиции, 17:19
Курс доллара на 20 ноября
USD ЦБ: 100,03 (+0,09)
Инвестиции, 17:19
Суд продлил арест четырем фигурантам дела о теракте в «Крокусе»Политика, 20:33
Водитель угрожал застрелить в Тюменской области ветерана спецоперацииПолитика, 20:28
ЦСКА выиграл четвертый подряд матч в КХЛСпорт, 20:24
«Нужны новые навыки»: глава Минпросвещения о новой стратегии образованияОбщество, 20:23
Словачки впервые за 22 года вышли в финал Кубка Билли Джин КингСпорт, 20:23
В Думе предложили ограничить число передаваемых под опеку в семью детейОбщество, 20:13
Бизнес ухудшил оценки условий кредитования до исторического минимумаФинансы, 20:13
Онлайн-курс Digital MBA от РБК Pro
Объединили экспертизу профессоров MBA из Гарварда, MIT, INSEAD и опыт передовых ИТ-компаний
Оставить заявку
ВС Швеции зафиксировали движение судов в районе обрыва кабелей в БалтикеПолитика, 20:08
Индекс Мосбиржи упал более чем на 3% на фоне обострения в геополитикеИнвестиции, 20:00
В Петербурге задержали группу теневых банкировОбщество, 19:58
Как в Гонконге посадили 45 человек за намерение победить на выборахПолитика, 19:49
Вице-президент Абхазии начал исполнять обязанности главы республикиПолитика, 19:48
ПВО за час сбила 11 дронов ВСУ над Брянской областьюПолитика, 19:40
Боррель оценил риск столкновения России и Европы на поле бояПолитика, 19:29