Искусственный интеллект в руках мошенников: в сети распространяются дипфейки

Copy
Не доверяйте сомнительным звонкам и видео, особенно если сказанное кажется слишком заманчивым, чтобы быть правдой.
Не доверяйте сомнительным звонкам и видео, особенно если сказанное кажется слишком заманчивым, чтобы быть правдой. Фото: I-HWA CHENG

В последние годы технологический прогресс принес с собой новую угрозу: распространение дипфейков, предупреждает SEB.

Дипфейки - это в основном видео или изображения, созданные с помощью искусственного интеллекта, которые практически неотличимы от реальных для человеческого глаза.

По словам аналитика безопасности SEB Неэме Калда, последствия злоупотребления этой технологией становятся все более масштабными. «Распространение дипфейков происходит быстро и в широких масштабах благодаря социальной сети и интернету. Используя фальшивый контент, мошенники могут заставить людей верить в несуществующие вещи или манипулировать важными событиями. Поэтому к информации и видео, распространяющимся в интернете, особенно в социальных сетях, следует относиться очень критически и проверять представленные факты, чтобы избежать мошенничества», - пояснил Калда.

Наиболее распространенными примерами являются телефонные и видео мошенничества с использованием дипфейков, где имитируются голоса или видео со  знакомыми людьми. Например, нередки случаи, когда мошенники звонят финансовому директору компании с голосом, идентичным голосу директора, и просят срочно перевести деньги на новый счет для оплаты предполагаемой сделки.

«Чем крупнее охотничьи цели, тем больше суммы ущерба. Кроме того, могут позвонить якобы от имени знакомого партнера и попросить предоплату за услуги или товары. Поскольку ранее контакт уже был установлен, и голос кажется знакомым, люди соглашаются на предложение мошенников», - рассказал Калда.

К сожалению, эта проблема касается не только компаний - жертвой дипфейков может стать каждый.

По словам Калда, были случаи, когда в семье звонили близким и просили помощи или описывали несчастный случай, пытаясь таким образом выманить деньги. В случае с видео ситуация кажется людям еще более правдоподобной, поскольку, помимо голоса, изображение также кажется реальным. Например, при проведении собеседований мошенниками могут оказаться как работодатели, так и соискатели.

«Самые хитрые мошенники могут успешно устроиться на работу в компанию с помощью этой технологии, а затем совершить кражу данных, заразить важные информационные системы вредоносным ПО или нанести другой значительный ущерб. То же самое может случиться с человеком, получившим фальшивое письмо. Поверив, что это письмо действительно от его банка, мошенник связывается с ним по видео и представляется сотрудником банка, прося PIN-коды для выполнения определенных действий», - сказал Калда.

Он советует всегда проверять источник информации. В случае сомнений необходимо проверить информацию через другой канал.

  • Относитесь с подозрением, если с вами связываются через нетрадиционный канал.
  • Не доверяйте сомнительным звонкам и видео, особенно если сказанное кажется слишком заманчивым, чтобы быть правдой.
  • Возьмите время на размышления! Не поддавайтесь давлению, авторитету или устрашению

«Будьте очень осторожны с делением чувствительной информации, такой как личные данные и пароли, а также видео и изображения. Сотрудник банка никогда не попросит у клиента пароли или PIN-коды», - подчеркнул Калда.

«Дипфейк может стать серьезной угрозой для персональных данных и доверия в обществе. Важно быть осведомленным и осторожным, чтобы защитить себя от нового вида мошенничества. Поделитесь этой информацией с семьей, друзьями и знакомыми, чтобы повысить осведомленность и избежать подобных угроз», - добавил Калда.

Наверх