ChatGPT-4 бесплатно и без ограничений

Как нейросети обма­нывают в интернете: 7 сценариев, с которыми можно столк­нуться уже сейчас

Впереди у ИИ-мошенничества период бурного развития.

Такой сценарий допускает один из богатейших людей мира Уоррен Баффет. Он признает, что плохо разбирается в технологиях искусственного интеллекта, но отмечает: слишком уж они хороши в создании реалистичных фейков.

Доля правды в его словах точно есть. По данным WSJ, в 2023 году в одном только финтех-секторе количество инцидентов с использованием дипфейков  увеличилось на 700% по сравнению с прошлым годом. И дипфейки, увы, не единственный инструмент. Расскажу, как обманывают с помощью нейросетей.

Как обманывают нейросети

  1. Копируют знакомый голос
  2. Создают дипфейки для видеозвонков
  3. Генерируют фальшивые фото
  4. Создают фейковые новости
  5. Продают товар, которого не существует
  6. Притворяются красивой девушкой
  7. Заманивают на ресурсы мошенников

На все случаи жизниКалькуляторы Т—Ж посчитают все

Помогут сделать финансовый чекап, рассчитать ипотеку или подготовиться к рождению ребенка

Как нейросети обма­нывают в интернете: 7 сценариев, с которыми можно столк­нуться уже сейчас

  Попробовать  СЦЕНАРИЙ № 1

Вы отдаете деньги, потому что слышите знакомый голос

В 2019 году топ-менеджеру одной энергетической компании позвонил босс с требованием в течение часа перевести более 243 000 $⁣ (17 499 000 ₽) новому поставщику, и тот выполнил просьбу. Позже босс позвонил вновь: рассказал, что материнская структура перечислила компании компенсацию, а затем запросил еще один платеж.

Цены в рублях пересчитываются по актуальному курсу каждый раз, когда вы открываете страницу

Сотрудник заметил, что никакой компенсации не поступало, а номер звонящего сменился. Поэтому проигнорировал вторую просьбу. И не зря. Оказалось, мошенники создали голосовой дипфейк начальника: с помощью нейросети «клонировали» его голос, чтобы выманить у компании деньги.

В 2021 году похожий случай произошел в Японии, но там сумма украденных средств составила целых 35 000 000 $⁣ (3 049 345 600 ₽). А в России злоумышленнику поверил бухгалтер из Нижнего Новгорода, потому что голос в трубке звучал точь-в-точь как у директора фирмы.

Иногда злоумышленники ссылаются на рядовые ситуации — сел телефон, потерялась карта. Но порой врут о похищении человека и просят выкуп. Перевести деньги часто предлагают в криптовалюте или в виде подарочных карт, чтобы запутать следы для полиции. С такой ситуацией столкнулась семья из США. От лица якобы похищенной дочери женщине позвонили мошенники. На самом деле дочь отдыхала на горнолыжном курорте.

Как нейросети обма­нывают в интернете: 7 сценариев, с которыми можно столк­нуться уже сейчас

Мошенник подделал голос друга и выманил 50 000 ₽

С развитием ИИ-технологий количество инструментов для создания дипфейков выросло. Бесплатные программы для этого можно найти по самым простым запросам в Гугле. Качество у них, как правило, хуже, чем у платных, но иногда и этого достаточно. Чтобы подделать голос, требуется всего три секунды аудиозаписи. Подойдет видео из соцсетей или даже короткое «Алло, я вас слушаю» в ответ на звонок.

Также мошенники собирают базу голосов, размещая объявления с предложением озвучить рекламу или фильм. На основе образцов они создают дипфейки, в том числе для того, чтобы проходить процедуры голосовой аутентификации. Например, чтобы запросить добро на операцию или взять кредит. Банки уже понимают риски, поэтому задают клиентам больше вопросов и ищут новые способы подтвердить личность.

Впрочем, голосовые фейки встречаются не только в звонках, но и в мессенджерах в виде голосовых сообщений. Сценарии те же: условный директор просит прислать данные или же друг просит денег.

Как нейросети обма­нывают в интернете: 7 сценариев, с которыми можно столк­нуться уже сейчас

Директор предупреждает о звонке из полиции и требует на него ответить. Что делать?

🕵️‍♀️ Как распознать обман. Фейковые звонки обычно поступают с незнакомых номеров и в позднее время, чтобы застать вас врасплох — например, когда вы уже спите.

Сгенерированный нейросетями голос часто звучит неестественно. Он может быть слишком монотонным или немного роботизированным, содержать неверные ударения или частые паузы. Насторожить должны излишне короткие фразы, потому что их легче сгенерировать и тяжелее распознать как ложные. Также подозрительны непривычные для вашего собеседника выражения, манера общения или слова-паразиты.

Мошенники неохотно отвечают на уточняющие вопросы и твердят только о том, что ситуация не терпит отлагательств. Собеседник может специально запугивать вас, чтобы затуманить рассудок и побыстрее выманить данные или деньги. Постарайтесь держать себя в руках и ничего не предпринимайте без проверки.

Не раскрывайте личную и корпоративную информацию — даже если во время беседы вы всерьез думаете, что звонит друг, начальник или представитель банка. Если злоумышленник получит данные вашего паспорта, банковских карт и аккаунтов, он сможет украсть не только ваши деньги, но и личность. Удостоверьтесь, что это не обман: задайте вопросы, ответить на которые может только звонящий.

Дипфейк с использованием лица и голоса Илона МаскаСЦЕНАРИЙ № 2

Вы отдаете деньги, потому что видите знакомое лицо

Мошенники научились подделывать видеозвонки. Эти истории похожи на схемы с аудиодипфейками, но более изощренные. Так, в 2024 году финансист международной компании получил письмо от директора одного из подразделений. Тот попросил его выполнить секретную транзакцию.

Сотрудник насторожился, но сомнения отпали после видеозвонка с тем самым начальником и несколькими коллегами, которых он знал. Мошенники в итоге заполучили 25 600 000 $⁣ (2 233 768 192 ₽). А финансист только после звонка в головной офис узнал, что повелся на дипфейк.

Иногда дипфейки используют в развлекательных целях. Например, в сгенерированном нейросетями видео рэпер Дрейк учит пользователей тригонометрии. Вряд ли оно сможет навредить нам или самому Дрейку.

Дипфейк с образом Дрейка, рассуждающего о тригонометрии, и британской королевы Елизаветы II

Но чаще всего такие технологии становятся вредоносным инструментом. Киберпреступники уже несколько лет создают фейковые порноролики с лицами настоящих людей. Они либо вымогают деньги, угрожая разослать видео знакомым, либо сразу выкладывают их в интернет, чтобы очернить известных людей.

Частой жертвой дипфейков становится певица Тейлор Свифт. В одном из роликов она стояла на красной дорожке и держала табличку с надписью «Дональд Трамп победил, демократы сжульничали», хотя Трампа она не поддерживает.

Она же якобы обещала подписчикам бесплатно раздать кухонную утварь фирмы Le Creuset — только нужно заплатить 9,96 $⁣ (900 ₽) за доставку. Никакой акции, конечно же, не проводилось. А вместо утвари пользователи, сами того не зная, подписывались на ежемесячные платежи в размере 89,95 $⁣ (8500 ₽). Все потому, что люди ввели свои платежные данные, когда оформляли доставку.

Дипфейки с рекламой Le Creuset удалены, но вот другой пример работы ИИ — англоязычную речь Свифт перевели на китайский, сохранив голос певицы

В июне 2024 года на «Ютубе» опубликовали пятичасовую трансляцию с дипфейком Илона Маска, который рекламировал криптовалютный скам. Он предлагал пользователям перевести биткоины, эфиры или доджкоины, чтобы взамен получить вдвое больше.

Похожую схему распространили по соцсетям и с Олегом Тиньковым*. И с президентом Казахстана, который якобы призывал вкладываться в инвестплатформу Илона Маска.

Источник: journal.tinkoff.ru

Like this post? Please share to your friends:
Dalle 3
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: