КиберпанкДетали

Мошенники использовали дипфейк Олега Тинькова для получения данных пользователей. Эксперты считают, что в будущем такие видео могут представлять угрозу национальной безопасности

Распространение дипфейков уже сейчас законодательно ограничивают во многих странах. Борются с ними и социальные сети. 

Что произошло

Мошенники сделали фальшивое дипфейк-видео с Олегом Тиньковым, чтобы получить данные жертв. 

Детали

В «Тинькофф» отметили, что это первый случай, когда злоумышленники создали дипфейк основателя банка.

Как это работает

Дипфейк — технология на базе ИИ, которая создает видео с лицами реальных людей. Применяется в кино, но также используется преступниками.

Тенденция

Со временем дипфейки будут становиться все более реалистичными и могут стать угрозой национальной безопасности, утверждают эксперты. Вопросом выявления и контроля дипфейков занимаются государственные органы разных стран.

Что произошло

Мошенники сделали видео, на котором человек, похожий на Олега Тинькова, обещает 50-процентный бонус при открытии инвестиционного счета в его банке. Ролик создан с использованием технологии дипфейк — замены лица с помощью нейросетей. В его описании были размещены ссылки на поддельные страницы банка, там пользователям предлагали ввести свои данные. 

По словам экспертов, подделку выдает плохой монтаж, рассинхрон движений губ и речи, а также непохожий голос. Тем не менее авторам удалось заставить поддельного Тинькова моргать. В 2020 году именно отсутствие движений век считалось одним из основных признаков, по которым можно выявить дипфейк.

Детали

Видео мошенники опубликовали со страницы Tinkоff Вonus под заголовком «Важное заявление от Олега Тинькова». К моменту публикации оригинал ролика и его копии были заблокированы.

В «Тинькофф» заявили, что это первый случай, когда злоумышленники использовали дипфейк основателя банка, хотя отметили, что мошенники регулярно пытаются подделать соцсети «Тинькофф Инвестиций». В организации напомнили, что распространяют информацию только на своих официальных каналах.

Как это работает 

  • Слово дипфейк (deepfake) происходит от английских deep learning (глубинное обучение) и fake (фейк, подделка). Это метод на базе искусственного интеллекта, который способен обучаться на основе фото и видео и генерировать изображения. Например «вклеить» лицо какого-либо человека в видеоролик. Поскольку искусственный интеллект постоянно самообучается, подделки выглядят все более правдоподобно. 
  • Такие технологии применяются в кино, рекламе и при реконструкции исторических событий. Например, с их помощью создали социальную рекламу, в которой Дэвид Бэкхем рассказывает об опасности малярии на девяти языках; видео, где Сальвадор Дали разговаривает с посетителями музея, и убрали усы с лица Супермена в фильме «Лига справедливости».
  • Однако дипфейки часто используются для мошенничества, политических провокаций и создания порнографии. Еще в 2018 году по Сети разлетелось дипфейк-видео, где якобы Барак Обама критикует Трампа. А в 2019 году с помощью ИИ на видео замедлили речь спикера палаты представителей конгресса США Нэнси Пелоси так, что она казалась пьяной. Ситуация вылилась в громкий скандал и лишь спустя некоторое время удалось доказать, что видео — подделка.

Тенденция

Со временем дипфейки будут становиться все более реалистичными, говорят эксперты. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе могут стать угрозой национальной безопасности, так как с их помощью оппоненты смогут дезинформировать друг друга. Вопросом выявления и контроля дипфейков занимаются государственные органы разных стран.

  • В мае текущего года пресс-секретарь президента РФ Дмитрий Песков высказывался о том, что дипфейки являются еще большим злом, чем существующие сейчас фейк-ньюс. Он отметил, что распространение дипфейков становится инструментом ведения информационных войн. 
  • В 2019 году в России приняли Национальную стратегию развития технологий ИИ, а в 2020-ом — Концепцию развития регулирования отношений в сфере технологий ИИ и робототехники. В феврале 2021 года МВД России объявило конкурс на создание эффективного детектора дипфейков. Комиссия по цифровому развитию планирует, что к 2024 году точность решений по выявлению дипфейков должна достичь 55%, к 2024 году — 70%.
  • В США с 2020 года закон запрещает использовать дипфейки для вмешательства в выборы. В Китае в том же году приняли закон, который запрещает публикацию дипфейков без специальной пометки. Калифорния приняла закон, запрещающий людям создавать дипфейки с использованием искусственного интеллекта, для введения в заблуждение избирателей во время выборов. В штате Вирджиния запрещено использование дипфейков в порнографии. Размещение фейковых роликов ограничивают Reddit, Twitter, Facebook и TikTok.

Фото обложки: Tinkоff Вonus / Facebook

Копировать ссылкуСкопировано