КиберпанкДетали

Ernst & Young начала применять дипфейки сотрудников для общения с клиентами. Рынок легального применения цифровых имитаций людей растет

Виртуальные копии сотрудников начали применять в презентациях для клиентов и переписке по электронной почте.

Что произошло

Компания Ernst & Young начала применять дипфейки сотрудников для общения с клиентами вместо личных встреч.

Детали

Виртуальные копии работников добавляют в презентации для клиентов и переписку по электронной почте.

Тенденция

Дипфейки все чаще легально применяются в маркетинге, управлении и производстве контента.

За чем следить

Растет число мошеннических схем с применением дипфейков, параллельно IT-компании активно разрабатывают меры по выявлению созданных с помощью ИИ фальшивок.

Что произошло

  • Британская аудиторско-консалтинговая компания Ernst & Young (EY) начала применять дипфейки сотрудников для общения с клиентами вместо личных встреч.
  • Для создания виртуальной копии человека нужно 40-минутное видео с ним, которое обрабатывается с помощью технологии стартапа Synthesia. Алгоритмы учатся на данных о мимике и голосе человека, чтобы затем их скопировать.
https://twitter.com/synthesiaIO/status/1394948128823029764

Детали

  • В EY дипфейк-версии сотрудников начали применять в презентациях для клиентов и переписке по электронной почте. Полноценные виртуальные копии, которые рассказывают о презентации или содержимом письма, заменили графики и тексты.
  • Кроме того, такое общение помогло с языковым барьером: один из партнеров компании не говорил на японском, но встроенная система перевода позволила его копии общаться с клиентом из Японии на его языке.
  • Компания назвала виртуальные копии сотрудников ARI — «личности цифровой реальности» (artificial reality identity). Так в EY решили оживить привычное общение с клиентами. При этом клиенты знают, что люди в роликах — не настоящие.
  • В Ernst & Young утверждают, что доступ к технологии «строго ограничен», чтобы избежать злоупотреблений. Кроме того, от всех сотрудников, для которых создаются дипфейки, получено специальное разрешение.

Тенденция

Дипфейки уже активно используют во всем мире во время презентаций, а также в индустрии развлечений и в маркетинговых кампаниях.

  • Компания Nvidia во время апрельской презентации использовала технологии для подмены части сцен, а также для образа генерального директора Дженсена Хуанга. Копия заменила его на 14 секунд и зрители бы не заметили этого, если бы компания позже сама не показала документальный фильм об этом.
  • Киностудия Warner Bros. запустила сайт, создающий дипфейки. В рамках продвижения нового фильма Reminiscence («Воспоминание») заработал ресурс, который позволяет любому человеку сделать собственную виртуальную копию и увидеть себя в трейлере к картине. Созданный 35-секундный ролик можно скачать и показывать потом друзьям либо разместить в социальных сетях.
  • В TikTok ролики с цифровой копией Тома Круза, созданной искусственным интеллектом, собрали десятки миллионов просмотров. Их автор, бельгийский специалист по визуальным эффектам Кристофер Уме, основал собственную студию дипфейк-технологий Metaphysic. Она работает с крупными клиентами, предлагая услуги по созданию визуальных эффектов для масштабных проектов.
  • В феврале 2021 года сервис генеалогии MyHeritage запустил инструмент под названием «Глубокая ностальгия», в котором пользователи могут загружать старые семейные фотографии и создавать на их основе анимацию. Это выглядит как ожившие картинки из «вселенной Гарри Поттера».

За чем следить

Эксперты предупреждают, что дипфейки могут использоваться для различных мошеннических схем. Технологии для борьбы с ними активно разрабатываются.

  • В «Лаборатории Касперского» рассказали о схеме, которую уже используют аферисты. Они звонят бухгалтеру компании под видом генерального директора и просят срочно перевести деньги. Злоумышленники используют аудио- и видеозвонки с подменой голоса и внешности. Такие случаи уже фиксировали в Европе и Азии.
  • В России в 2019 году злоумышленники использовали образ известного шоумена Дмитрия Нагиева, который обещал ценный приз или вознаграждение, зазывая пользователей на фишинговый сайт, где у тех выманивали деньги.
  • Эксперты советуют внимательнее изучать детали подозрительных видео. Технологии пока не идеальны, и это очень заметно. Также стоит обращать внимание на различные артефакты: мерцания, слишком гладкую кожу, искажение пространства.
  • Компания Microsoft представила инструмент для обнаружения дипфейков — Microsoft Video Authenticator. Программное обеспечение способно анализировать материалы и на основе определенных характеристик указывать, что они не соответствуют действительности.
  • В некоторых странах ролики с использованием дипфейков нужно обязательно маркировать. Так, в Калифорнии запретили публиковать такие видео с политиками перед выборами, а в Китае приняли закон, запрещающий публиковать фейковые новости и вводящие в заблуждение видео, созданные с помощью искусственного интеллекта без специальной пометки.

Фото обложки: Synthesia

Копировать ссылкуСкопировано