Моральный кодекс: как сделать нейросеть этичной

Обновлено 30 октября 2024, 07:00

Регулирование искусственного интеллекта в России и мире только развивается. Стимулировать скорость выработки норм и условий использования технологий на основе нейросетей будут их демократизация и активность применения

Shutterstock
Фото: Shutterstock

Эволюция технологий искусственного интеллекта (ИИ), их проникновение в разные сферы бизнеса и жизни людей стимулируют развитие госрегулирования этого направления. Принципы ответственной разработки моделей с применением ИИ и кодексы этики выпускаются на уровне отдельных компаний, таких как Microsoft, Google, Open AI, большинством государств, участвующих в технологической гонке, включая США и Китай, а также на наднациональном уровне (ЮНЭСКО, ОЭСР и другие), говорит директор практики управления нефинансовыми рисками консалтинговой компании «ТеДо» Наталья Стрекаль.

В 2023 году было инициировано создание специальной структуры на базе ООН для формирования общих стандартов по регулированию сферы ИИ. Осенью 2024 года консультационный орган ООН, отвечающий за вопросы ИИ, представил рекомендации в связи с рисками безопасности нейросетей.

«Проблема доверия к ИИ связана с тем, что многие системы на основе нейронных сетей действуют как «черные ящики», решения которых сложно объяснить», — поясняет руководитель направления «Искусственный интеллект» Softline Digital Максим Милков. Это, по его словам, усиливает необходимость создания этических рамок, чтобы контролировать работу искусственного интеллекта, при этом важно, чтобы разработчики предлагали методы для объяснения решений ИИ и делали систему более прозрачной.

Как ИИ регулируют в мире

Технологические гиганты выступают с ограничительными инициативами. Например, глава Tesla и X Илон Маск и сооснователь Apple Стив Возняк в 2023 году подписали открытое письмо Института будущего жизни о приостановке развития мощных систем ИИ до тех пор, пока не будут внедрены необходимые средства безопасности, снижающие риски их использования. В то же время указом президента США, подписанным осенью 2023 года, крупных американских разработчиков систем на базе ИИ обязали делиться результатами тестирования решений на безопасность с правительством.

В Евросоюзе в 2023 году был согласовал закон (AI Act), который устанавливает правила и требования для разработчиков моделей ИИ в странах Европы. Кроме того, как отмечают в «ТеДо», в Евросоюзе действует директива, регулирующая работу онлайн-платформ, среднемесячное количество пользователей которых превышает 10% от всех пользователей интернета ЕС (45 млн человек на четвертый квартал 2024 года). Площадкам запрещается структурировать контент, рекомендательные или поисковые системы в целях манипуляции решениями пользователей. Регулирование направлено на управление системными рисками, к которым относят нарушение основных прав человека, неправомерное влияние на итоги политических выборов, негативное воздействие на ментальное здоровье граждан и распространение нелегального контента. Исполнять указанные требования обязаны, например, YouTube, Google Search, TikTok. Директива также предусматривает ежегодный аудит площадок.

В отличие от стран ЕС, которые применяют более консервативный подход, развивающиеся страны, например Индия, выбирают проинновационный — фокусируются на развитии и саморегулировании, рассказал председатель комиссии по реализации «Кодекса этики в сфере ИИ» Альянса в сфере искусственного интеллекта Андрей Незнамов. Такие страны, как Китай, США и Россия, по его словам, используют гибридный подход: «Государственное стимулирование сочетается с точечными нормативными положениями и саморегулированием».

Но ни одна страна не создала пока всеобъемлющий правовой механизм, охватывающий все аспекты технологии ИИ, считает Максим Милков. В глобальной практике регулирование ИИ пока остается на стадии рекомендаций, отмечает Наталья Стрекаль: «Присоединение к национальным и наднациональным кодексам этики зачастую носит добровольный характер, а проверить модель или компанию на предмет исполнения принципов затруднительно в связи с отсутствием четких критериев соответствия».

Регулирование ИИ в России

В России разработки в сфере ИИ косвенно регулируются документами, относящимися к обработке данных: например, соответствующие изменения были внесены в закон «О персональных данных» (№ 152-ФЗ). Ведется работа над актуализацией основных положений «Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года», которая в этом году заканчивает свое действие, рассказали в Альянсе в сфере ИИ.

Важность формирования эффективного регулирования отражена в обновленной Национальной стратегии по ИИ до 2030 года, отмечает Андрей Незнамов. Стратегия содержит 28 направлений регулирования (в первоначальной редакции было всего девять направлений).

По сути, отрасли предоставлена возможность саморегуляции, чтобы излишней регуляцией не замедлить технологическое развитие России, считает партнер технологической практики «ТеДо» Артем Семенихин. Он как раз приводит в пример опыт ЕС, где де-юре законодательство по ИИ существует, но самого ИИ де-факто нет. Тогда как в Китае, по его словам, регулирование направлено уже скорее на защиту локального производителя, в частности вводится обязательная сертификация.

На данный момент ключевым инструментом саморегулирования в России является «Кодекс этики ИИ», разработанный Альянсом в сфере ИИ и Аналитическим центром при правительстве в 2021 году, говорит Максим Милков. В числе первых подписантов были «Сбер», VK, Softline, «Яндекс», «Ростелеком», их число регулярно пополняется.

Но для долгосрочного устойчивого роста технологий требуется более четкая правовая база, это поможет защитить интересы общества и обеспечит безопасность в первую очередь в таких секторах, как здравоохранение и финансовые услуги, считает Максим Милков.

Перспективы введения контроля за ИИ

Отсутствие обязательных законодательных норм оставляет пробелы, существующих мер недостаточно для полного регулирования ИИ, считает Артем Семенихин: «Когда технологии крупных игроков начнут применяться в рамках партнерских экосистем, понадобится механизм сертификации их корректного использования».

Необходимо развивать и поддерживать инициативы саморегулирования бизнеса в сфере ИИ, например Декларацию об ответственном генеративном ИИ, которую подписала в том числе MTS AI, говорит генеральный директор компании, эксперт Альянса в сфере ИИ Андрей Калинин. И в то же время, по его словам, по мере развития технологий потребуется более тесное взаимодействие государства и бизнеса.

Сейчас условия в секторе привлекательны для инвестиций и развития, отмечает Андрей Незнамов. Однако уже на горизонте ближайших пяти лет в России может быть внедрено более жесткое регулирование ИИ, считает Наталья Стрекаль. По ее словам, это произойдет по мере демократизации технологий, особенно в части применения LLM и с ростом количества и масштаба реализовавшихся рисков.

Кроме того, можно ожидать появления международных стандартов и норм, регулирующих ИИ на законодательном уровне, считает Максим Милков.

Поделиться