ВЭФ назвал дипфейки и ИИ главными угрозами для выборов в разных странах
Дипфейки могут помешать демократическим процессам, говорится в отчете Всемирного экономического форума (ВЭФ) и компании Accenture, опубликованном в четверг, 11 января.
Что такое дипфейк
Это методика генерации изображения на основе искусственного интеллекта, алгоритмы которого обучены изменять элементы на существующих видео, аудиофайлах и фото.
Вместе со сложными фишинговыми кампаниями дипфейки могут стать оружием для срыва демократических выборов, указывается в документе. В 2024 году более 45 стран собираются провести выборы, в том числе Россия, США, ЕС и Индия. Участие в этих выборах могут принять более половины жителей планеты, из-за чего СМИ уже назвали 2024 год «матерью всех избирательных годов» и «демократическим Супербоулом».
Как отмечается в отчете ВЭФ, созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением. Они приводят в пример выборы в Словакии в сентябре 2023 года, когда был выпущен дипфейковый аудиоклип, из которого следовало, что один из кандидатов якобы обсуждал с представителем СМИ, как проводить манипуляции.
Помимо дипфейков ВЭФ в числе угроз упоминает автоматизированную дезинформацию, когда алгоритмы искусственного интеллекта воспроизводят большие объемы дезинформации, что затрудняет борьбу с ней, а также таргетированную рекламу, которая с помощью искусственного интеллекта может использоваться для манипулирования мнениями или подавления явки избирателей.
Кроме того, авторы отчета указывают на возможные проблемы с конфиденциальностью данных: информация для голосования может быть получена из удостоверяющих документов, записей о месте жительства, автоматическая обработка этих данных может привести к утечкам. Наконец, с помощью алгоритмов искусственного интеллекта злоумышленники могут манипулировать общественным мнением в соцсетях, усиливая эффект одних политических сообщений и подавляя другие.
В августе прошлого года газета The Guardian сообщила, что искусственный интеллект может повлиять на исход выборов президента США в 2024 году. Опрошенные изданием специалисты предупреждали, что благодаря этой стремительно развивающейся технологии можно будет взять на вооружение тактику дезинформации прошлого и «вдохнуть в нее новую жизнь».
В отчете приводится пример одной из самых продвинутых и сложных атак социальной инженерии, в ходе которой искусственный интеллект использовался для атаки на одну из компаний — разработчиков программного обеспечения. В августе 2023 года ее сотрудник получил дипфейковую аудиозапись, посвященную набору участников программы медицинского страхования, кликнул на ссылку в нем, предоставив свои учетные данные фальшивой системе. Сразу после этого злоумышленник позвонил на телефон сотрудника, чтобы получить код многофакторной аутентификации. Эти действия вызвали подозрения у сотрудника, но, поскольку злоумышленник использовал фальшивую аудиозапись знакомого коллеги, сотрудник все же сообщил код. Используя учетные данные и этот код, злоумышленник смог добавить свое личное устройство к учетной записи сотрудника, что, в свою очередь, позволило пройти аутентификацию в компании. В России со случаями использования сгенерированных аудиосообщений столкнулись пользователи мессенджеров, писал РБК.