Перейти к основному контенту
Дискуссионный клуб ,  
0 
Андрей Незнамов

Цифровое бессмертие: зачем мораль искусственному интеллекту

Фото: Johannes Simon / Getty Images
Фото: Johannes Simon / Getty Images

Искусственный интеллект в последнее время не просто модный тренд. Это умный инструмент для государств, корпораций и небольших стартапов, целых сообществ и отдельных людей. Благодаря ИИ стремительно улучшается жизнь граждан. Жители мегаполисов взаимодействуют с системами «умных» технологий каждый день. А для бизнеса ИИ, кажется, уже стал знаком символа успеха.

Так, согласно исследованию, 98% лидеров бизнеса согласны с тем, что компаниям необходимо лучше понимать потенциал технологий искусственного интеллекта и машинного обучения для достижения долгосрочного успеха.

По данным Национального центра развития ИИ при правительстве, сегодня около 53% крупных компаний используют ИИ в своей деятельности. Государство поддерживает разработчиков: так, по федеральному проекту «Искусственный интеллект» национального проекта «Цифровая экономика» профинансировано уже более 800 проектов.

Но чем глубже проникает технология в жизнь, тем больше возникает социальных, философских, моральных и правовых вопросов, связанных с ее применением. Встраивание ИИ в разные сферы жизни и экономики по скорости и масштабу напоминает цунами. И все же этот поток можно условно разделить на три волны.

В первой, самой близкой волне — применение технологии в отдельных сферах. Именно такие кейсы мы чаще всего наблюдаем в медийном поле. Например, в начале августа в одной из стран мира регулятор заключил мировое соглашение с компанией, которая использовала для найма ИИ, который автоматически отклонял кандидатов-женщин старше 55 лет и кандидатов-мужчин старше 60 лет. Ранее IBM ограничила распространение технологии видеонаблюдения в связи с потенциальной возможностью ее использования не по назначению.

И, конечно, огромное количество этических вопросов подняло распространение ChatGPT и подобных моделей. Какую оценку система дает происходящим или прошедшим событиям, персонам или фактам? Какие подсказки она вправе давать, а какие нет? И как GPT-модели справляются с выполнением профессиональных обязанностей — перечень вопросов кажется бесконечным.

За первой волной высится значительно более высокая волна общего характера, редко описываемая одним-двумя кейсами. Например, к ней относится вопрос влияний новых технологий на рынок труда. Различные исследователи приводят самые разные оценки о количестве рабочих мест, которые будут созданы или трансформированы из-за применения ИИ.

В этой же волне находится глобальная проблема условий использования персональных данных и защита конфиденциальности в информационном обществе. Как действовать людям, бизнесу и регулятору в условиях беспрецедентного накопления огромных объемов данных, в том числе и персонального характера?

Ведутся и дискуссии об использовании новых технологий в образовательных процессах. Вероятно, вы читаете эти слова на смартфоне или планшете. Эти гаджеты с нами меньше пары десятков лет, и мы вряд ли можем уверенно сказать, как они на нас повлияли. Большое видится на расстоянии, а мы в начале пути.

Все это требует ответов. А выражается в запросе общества на надежный искусственный интеллект. И он неизменно связан с этикой.

Так, 85% потребителей говорят, что организациям важно учитывать этические аспекты, поскольку они используют ИИ для решения проблем общества. Аналогичным образом 75% руководителей считали этику искусственного интеллекта важной уже в 2021 году — по сравнению с менее чем 50% респондентов в 2018 году.

Почему же этика в сфере ИИ стала ответом на все вопросы? В современном мире под этикой искусственного интеллекта понимаются одновременно механизмы саморегулирования разработчиков в виде корпоративных норм и стандартов, инструменты взаимодействия регулятора с бизнесом и обществом по вопросам развития новых технологий. Собственно набор нравственных дилемм, возникающих у людей с развитием ИИ, прообразы будущего государственного регулирования новых технологий в виде самых разных инструментов «мягкого права», а также потенциальная этика самих систем ИИ — например, AGI. В тех случаях, если искусственный интеллект станет таким, что будет способен иметь свои этические представления.

В реальности именно этика ИИ стала единственным быстрым ответом на существующие волны вопросов.

Возникли вопросы применения новых технологий в бизнесе — и вот три десятка мировых разработчиков принимают корпоративные нормы этичного развития ИИ. Они не только про этику — и про безопасность, и про сотрудничество, и про корпоративное управление. Появляются этические декларации, хартии, петиции и открытые письма.

Разработчики вместе с наукой под руководством государства создают этический кодекс. Мир увидел на горизонте что-то похожее на AGI — универсальный ИИ, способный «думать» на человеческом уровне, и эксперты стали рассуждать на тему личной этики будущего сверхразума.

Российский опыт стал одним из самых показательных. Во-первых, у крупных российских разработчиков действуют корпоративные нормы этики ИИ. Во-вторых, создан национальный Кодекс этики в сфере ИИ. В-третьих, в рамках кодекса созданы реальные механизмы управления на базе Альянса в сфере ИИ и взаимодействия разработчиков, науки, представителей общественных организаций между собой и с государством. Так, одна из рабочих групп ищет ответы на вопросы этичности механизмов цифрового бессмертия. А другая группа в диалоге с регулятором — баланс между правовым регулированием и саморегулированием рекомендательных сервисов.

Таким образом, формируется системная этика ИИ, которая включает в себя огромный пласт разноплановых вопросов и решений. Но объединяет их всех одно: стремление создать эффективные инструменты для успешного взаимодействия человека и умных технологий.

Об авторе
Андрей Незнамов Андрей Незнамов председатель Национальной комиссии по этике ИИ
Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции.
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.


 

Лента новостей
Курс евро на 23 ноября
EUR ЦБ: 107,43 (+1,35)
Инвестиции, 22 ноя, 17:36
Курс доллара на 23 ноября
USD ЦБ: 102,58 (+1,9)
Инвестиции, 22 ноя, 17:36
Володин заявил, что Запад должен знать о возможности России защитить себяПолитика, 12:27
Сортировка начинается на кухне: как в России обращаются с отходамиНациональные проекты, 12:20
Сафонов рассказал о конкуренции с Доннаруммой за место в основе ПСЖСпорт, 12:17
Ефимов сообщил о возведении в Щукино первого технопарка по программе КРТГород, 12:15
Как искусственный интеллект влияет на индустрию спортаОтрасли, 12:13
WP узнала о планах Трампа уволить преследовавших его «плохих парней»Политика, 12:09
Почему люксовые бренды являют свои символы на уровне бессознательногоРБК и Сбер Первый, 12:02
Здоровый сон: как легче засыпать и просыпаться
Интенсив РБК Pro поможет улучшить качество сна и восстановить режим
Подробнее
На Крымском мосту временно перекрыли движение в сторону КерчиОбщество, 12:00
Spiegel узнал об отзыве посла Афганистана и генконсула из ГерманииПолитика, 11:52
Балицкий сообщил о ракетной атаке на порт БердянскаПолитика, 11:49
Большунов остался без медали в первой гонке Кубка РоссииСпорт, 11:41
Блаттер словами «я создал монстра» раскритиковал ФИФА за коммерциализациюСпорт, 11:38
Генштаб ВСУ заявил о тяжелой ситуации на фронтеПолитика, 11:26
Шлосберга задержали в аэропорту ПсковаПолитика, 11:24