Перейти к основному контенту
Общество ,  
0 

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 11 сентября
EUR ЦБ: 100,5 (+0,59)
Инвестиции, 10 сен, 17:35
Курс доллара на 11 сентября
USD ЦБ: 91,11 (+0,73)
Инвестиции, 10 сен, 17:35
Прощание с ведущим КВН Александром Масляковым. Прямая трансляцияОбщество, 10:04
Махачкала обогнала Сочи и Краснодар по росту цен на жильеНедвижимость, 10:00
Почти четверть россиян пробовали знакомиться онлайнОбщество, 10:00
Приток валюты в банки от бизнеса достиг максимума за два годаФинансы, 10:00
Кеннеди предрек ядерное самосожжение США при конфликте с РоссиейПолитика, 09:53
Финразведке предложили скрывать запросы о проверке недвижимостиФинансы, 09:50
Какие 5 карьерных треков компания может предложить HiPo-работнику в IТPro, 09:48
Здоровый сон: как легче засыпать и просыпаться
Интенсив РБК Pro поможет улучшить качество сна и восстановить режим
Подробнее
Глава Минтруда сообщил о начале выплат остатков маткапитала в сентябреПолитика, 09:44
Трампа и Харрис поймали на лжи во время дебатовПолитика, 09:36
Алаудинов заявил о взятии нескольких населенных пунктов в Курской областиПолитика, 09:30
В Совфеде предложили запретить субкультуру квадроберовОбщество, 09:24
Дело о теракте завели после схода с рельсов поезда в Белгородской областиОбщество, 09:24
Как хакер из Северной Кореи обхитрил экспертов по IT-безопасности СШАPro, 09:10
Украинские власти сообщили о повреждении инфраструктуры в НикополеПолитика, 09:09