Центробанк предупредил об использовании мошенниками дипфейк-технологий
В России мошенники все чаще используют дипфейк-технологии, создавая при помощи нейросети реалистичное изображение человека. Об этом предупредили в Банке России.
«В фальшивом видеоролике виртуальный герой, голос которого иногда сложно отличить от голоса прототипа, просит перевести деньги на определенный счет. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов из той сферы деятельности, в которой трудится их потенциальная жертва», – сказано на сайте Центробанка.
Как отметили в ЦБ, для создания цифровой копии мошенники используют фотографии, видео и запись голоса, которые были получены после взлома аккаунта в социальных сетях или мессенджерах. Кроме того, регулятор призвал быть острожными при получении голосовых или видеосообщений с просьбой о помощи. Отличить дипфейки можно по неестественной монотонной речи, дефектам звука и видео или подозрительной мимике, подчеркивается в сообщении.
Ранее в Сбербанке назвали стоп-слова и фразы, которые чаще всего используют мошенники. Подробнее читайте в материале Общественной службы новостей.
Сообщение Центробанк предупредил об использовании мошенниками дипфейк-технологий появились сначала на Общественная служба новостей.
- Сбербанк назвал часто используемые мошенниками стоп-слова и фразы СМИ России
- Мошенники в течение полугода убеждали Долину перевести им деньги СМИ России
- АБН24: мошенники придумали новую схему обмана с предоплатой СМИ России
- В России мошенники начали выманивать деньги под предлогом помощи бойцам СВО СМИ России
- Эксперт Шутов: мошенники создают неотличимые от оригинала сайты СМИ России
- СМИ России
- 15-08-2024, 14:04