Перейти к основному контенту
Дискуссионный клуб ,  
0 
Андрей Незнамов

Цифровое бессмертие: зачем мораль искусственному интеллекту

Фото: Johannes Simon / Getty Images
Фото: Johannes Simon / Getty Images

Искусственный интеллект в последнее время не просто модный тренд. Это умный инструмент для государств, корпораций и небольших стартапов, целых сообществ и отдельных людей. Благодаря ИИ стремительно улучшается жизнь граждан. Жители мегаполисов взаимодействуют с системами «умных» технологий каждый день. А для бизнеса ИИ, кажется, уже стал знаком символа успеха.

Так, согласно исследованию, 98% лидеров бизнеса согласны с тем, что компаниям необходимо лучше понимать потенциал технологий искусственного интеллекта и машинного обучения для достижения долгосрочного успеха.

По данным Национального центра развития ИИ при правительстве, сегодня около 53% крупных компаний используют ИИ в своей деятельности. Государство поддерживает разработчиков: так, по федеральному проекту «Искусственный интеллект» национального проекта «Цифровая экономика» профинансировано уже более 800 проектов.

Но чем глубже проникает технология в жизнь, тем больше возникает социальных, философских, моральных и правовых вопросов, связанных с ее применением. Встраивание ИИ в разные сферы жизни и экономики по скорости и масштабу напоминает цунами. И все же этот поток можно условно разделить на три волны.

В первой, самой близкой волне — применение технологии в отдельных сферах. Именно такие кейсы мы чаще всего наблюдаем в медийном поле. Например, в начале августа в одной из стран мира регулятор заключил мировое соглашение с компанией, которая использовала для найма ИИ, который автоматически отклонял кандидатов-женщин старше 55 лет и кандидатов-мужчин старше 60 лет. Ранее IBM ограничила распространение технологии видеонаблюдения в связи с потенциальной возможностью ее использования не по назначению.

И, конечно, огромное количество этических вопросов подняло распространение ChatGPT и подобных моделей. Какую оценку система дает происходящим или прошедшим событиям, персонам или фактам? Какие подсказки она вправе давать, а какие нет? И как GPT-модели справляются с выполнением профессиональных обязанностей — перечень вопросов кажется бесконечным.

За первой волной высится значительно более высокая волна общего характера, редко описываемая одним-двумя кейсами. Например, к ней относится вопрос влияний новых технологий на рынок труда. Различные исследователи приводят самые разные оценки о количестве рабочих мест, которые будут созданы или трансформированы из-за применения ИИ.

В этой же волне находится глобальная проблема условий использования персональных данных и защита конфиденциальности в информационном обществе. Как действовать людям, бизнесу и регулятору в условиях беспрецедентного накопления огромных объемов данных, в том числе и персонального характера?

Ведутся и дискуссии об использовании новых технологий в образовательных процессах. Вероятно, вы читаете эти слова на смартфоне или планшете. Эти гаджеты с нами меньше пары десятков лет, и мы вряд ли можем уверенно сказать, как они на нас повлияли. Большое видится на расстоянии, а мы в начале пути.

Все это требует ответов. А выражается в запросе общества на надежный искусственный интеллект. И он неизменно связан с этикой.

Так, 85% потребителей говорят, что организациям важно учитывать этические аспекты, поскольку они используют ИИ для решения проблем общества. Аналогичным образом 75% руководителей считали этику искусственного интеллекта важной уже в 2021 году — по сравнению с менее чем 50% респондентов в 2018 году.

Почему же этика в сфере ИИ стала ответом на все вопросы? В современном мире под этикой искусственного интеллекта понимаются одновременно механизмы саморегулирования разработчиков в виде корпоративных норм и стандартов, инструменты взаимодействия регулятора с бизнесом и обществом по вопросам развития новых технологий. Собственно набор нравственных дилемм, возникающих у людей с развитием ИИ, прообразы будущего государственного регулирования новых технологий в виде самых разных инструментов «мягкого права», а также потенциальная этика самих систем ИИ — например, AGI. В тех случаях, если искусственный интеллект станет таким, что будет способен иметь свои этические представления.

В реальности именно этика ИИ стала единственным быстрым ответом на существующие волны вопросов.

Возникли вопросы применения новых технологий в бизнесе — и вот три десятка мировых разработчиков принимают корпоративные нормы этичного развития ИИ. Они не только про этику — и про безопасность, и про сотрудничество, и про корпоративное управление. Появляются этические декларации, хартии, петиции и открытые письма.

Разработчики вместе с наукой под руководством государства создают этический кодекс. Мир увидел на горизонте что-то похожее на AGI — универсальный ИИ, способный «думать» на человеческом уровне, и эксперты стали рассуждать на тему личной этики будущего сверхразума.

Российский опыт стал одним из самых показательных. Во-первых, у крупных российских разработчиков действуют корпоративные нормы этики ИИ. Во-вторых, создан национальный Кодекс этики в сфере ИИ. В-третьих, в рамках кодекса созданы реальные механизмы управления на базе Альянса в сфере ИИ и взаимодействия разработчиков, науки, представителей общественных организаций между собой и с государством. Так, одна из рабочих групп ищет ответы на вопросы этичности механизмов цифрового бессмертия. А другая группа в диалоге с регулятором — баланс между правовым регулированием и саморегулированием рекомендательных сервисов.

Таким образом, формируется системная этика ИИ, которая включает в себя огромный пласт разноплановых вопросов и решений. Но объединяет их всех одно: стремление создать эффективные инструменты для успешного взаимодействия человека и умных технологий.

Об авторе
Андрей Незнамов Андрей Незнамов председатель Национальной комиссии по этике ИИ
Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции.
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.


 

Лента новостей
Курс евро на 21 ноября
EUR ЦБ: 105,81 (+0,08)
Инвестиции, 20 ноя, 17:41
Курс доллара на 21 ноября
USD ЦБ: 100,22 (+0,18)
Инвестиции, 20 ноя, 17:41
В Ленинградской области начнут изымать подвалы для укрытийОбщество, 16:19
Как выбрать зимние шины, подходящие именно вашему автомобилюРБК и Ikon tyres, 16:16
ЦБ Турции сохранил ставку на уровне 50% восьмой раз подрядИнвестиции, 16:11
Роскомнадзор раскрыл, какую информацию о VPN запретит в РоссииТехнологии и медиа, 16:10
Обвиняемым в диверсии на ж/д в Брянской области дали реальные срокиПолитика, 16:10
В Крыму отказались от массовых мероприятий в новогодние праздникиПолитика, 16:08
Что такое страховая пенсия: размер в 2025 году и формула расчетаИнвестиции, 16:00
Онлайн-курс Digital MBA от РБК Pro
Объединили экспертизу профессоров MBA из Гарварда, MIT, INSEAD и опыт передовых ИТ-компаний
Оставить заявку
«Дети перемен»: стоит ли смотреть новый сериал о разборках в 90-еLife, 15:53
Метрогородок возглавил рейтинг районов Москвы по росту цен на арендуНедвижимость, 15:50
Зима близко. Как приняли в отрасли грядущий запрет на майнингКрипто, 15:50
Задержание пенсионерки с Cartier по прилете из Дубая. ВидеоОбщество, 15:48
КС принял решение по жалобе на сроки демобилизации по возрастуПолитика, 15:45
Новый Changan CS75 Plus оказался почти на ₽700 тыс. дороже прошлой версииАвто, 15:43
Уголки леса, цветы и зеленые луга: что такое дворы-паркиРБК и ПИК, 15:42