КиберпанкДеталиТехнологии

Google запретила создавать дипфейки с помощью своего сервиса Colaboratory. Почему корпорация ополчилась на технологию

Запрет начал действовать еще в середине мая, при этом Google не выпускала никаких официальных объявлений.

Решение было принято из-за «оскорбительных продуктов», которые создавали пользователи, объяснили в компании.

Что произошло

Google запретила реализовывать дипфейк-проекты на своей платформе Colaboratory. Решение было принято из-за создания и распространения «оскорбительных продуктов».

Детали

Сервис работает бесплатно. Доступность платформы позволила создавать дипфейки даже людям без опыта программирования.

Тенденция

С каждым годом дипфейки становятся все популярнее. Однако эксперты предупреждают, что их активно используют мошенники. 

Мировая практика

Сегодня использование технологии дипфейков регулируется законом в Китае, Франции и некоторых штатах США. 

Что произошло

Корпорация Google запретила проектам, связанным с созданием дипфейков, использовать свой сервис Colaboratory (Colab). Таким образом ИТ-гигант «положил конец масштабной эксплуатации платформы для этой цели», пишет Bleeping Computer.

  • Судя по архивным данным с archive.org, на которые ссылается издание, запрет начал действовать еще в середине мая — именно тогда сотрудники Google добавили дипфейки в список запрещенных проектов, не выпустив при этом никаких официальных объявлений.
  • Теперь пользователи, которые пытаются создать дипфейки на платформе, видят следующую ошибку: «Возможно, вы используете запрещенный код, и это может ограничить ваш доступ к Colab в будущем. Обратите внимание на запрещенные действия, указанные в нашем FAQ».
  • По словам представителя Google, решение было принято из-за злоупотребления ресурсами Colab для создания «оскорбительных продуктов».

Детали

Colab — сервис, позволяющий запускать код, например Python, через браузер. Для вычисления предоставляются бесплатные ресурсы, в том числе графические процессоры. Google позволяет обучать на платформе искусственный интеллект (ИИ) и анализировать данные в научных целях.

  • Bleeping Computer считает, что запрет на создание дипфейков через Colab, вероятно, приведет к серьезным последствиям на их мировое «производство». Дело в том, что многие пользователи применяли модели, предварительно обученные на платформе, для быстрого запуска своих проектов. Доступность платформы позволила создавать дипфейки даже людям без опыта программирования.

На сегодняшний день, кроме создания дипфейков, на платформе под запрет попадают следующие проекты:

  • файловый хостинг, обслуживание мультимедиа и других веб-сервисов, не связанных с интерактивными вычислениями в Colab;
  • скачивание торрентов или участие в P2P-файлообмене;
  • использование удаленного рабочего стола (SSH);
  • подключение к удаленным прокси;
  • майнинг криптовалюты;
  • DoS-атаки;
  • взлом паролей;
  • использование нескольких учетных записей для обхода ограничений доступа или использования ресурсов.

При этом, как выяснил TechCrunch, ряд крупных проектов, связанных с технологией дипфейков (например, FaceSwap), продолжает работать через платформу.

Тенденция

Эксперты отмечают, что с каждым годом дипфейки становятся все популярнее. По данным компании Sentinel, с 2019 по 2021 год  в интернете их количество выросло примерно с 14 тыс. до 145 тыс. 

  • Дипфейками интересуются не только обычные пользователи, но и известные компании. Например, в 2021-м на презентации Nvidia подменила образ генерального директора Дженсена Хуанга с помощью этой технологии. Копия заменила его на 14 секунд, и зрители не заметили бы этого, но организация позже сама показала документальный фильм, в котором подробно рассказала, как создавалась презентация.
  • Тем временем киностудия Warner Bros. запустила сайт, создающий дипфейки. В рамках продвижения фильма «Воспоминания» заработал ресурс, позволяющий сделать собственную виртуальную копию и увидеть себя в трейлере к картине. Созданный 35-секундный ролик можно скачать и разместить в соцсетях.

Однако специалисты предупреждают, что дипфейки могут использоваться для различных мошеннических схем. В компании Forrester Research предположили, что ущерб от афер, связанных с использованием технологии, в 2020 году достиг $250 млн.

  • Известны случаи, когда мошенники звонили бухгалтеру организации под видом генерального директора и просили срочно перевести деньги. Злоумышленники использовали аудио- и видеозвонки с подменой голоса и внешности. 
  • В России в 2019 году преступники подменили образ известного шоумена Дмитрия Нагиева, который обещал ценный приз или вознаграждение, зазывая пользователей на фишинговый сайт, где у тех выманивали деньги.
  • Многие эксперты считают, что использование дипфейков нужно регулировать. 

Это немного похоже на размышления об оружии или хлоре. Хлор полезен для очистки вещей, но он также использовался в качестве химического оружия <...>К сожалению, у нас нет общей последовательной этической практики в отношении машинного обучения и искусственного интеллекта, но для Google имеет смысл разработать свой собственный набор соглашений, регулирующих доступ к дипфейкам и возможность создавать их.

Вагрант Гаутамспециалист по компьютерной лингвистике из Саарского университета в Германии

Мировая практика

Сегодня некоторые страны уже регулируют использование дипфейков законом.

  • Так, в Китае за введение людей в заблуждение с помощью этой технологии предусмотрено уголовное наказание.
  • В США штат Калифорния принял закон, согласно которому людям запрещено создавать дипфейки для введения в заблуждение избирателей во время выборов. А вот в Вирджинии нельзя использовать технологию в порнографии в случае, если человек, чей образ будет использоваться в видео, не давал на это своего согласия.
  • Уголовный кодекс Франции предусматривает наказание за публикацию монтажа, сделанного со словами или изображением человека без его согласия, если не очевидно, что это монтаж. 

Противодействие технологии оказывают не только с помощью закона.

  • Например, в 2020-м корпорация Microsoft представила инструмент для обнаружения дипфейков — Video Authenticator. Программное обеспечение (ПО) способно анализировать материалы и на основе определенных характеристик указывать, что они не соответствуют действительности.
  • Ученые из Университета Мэриленда вместе с коллегами из Калифорнийского университета с помощью своей сети SfSNet научились определять, соответствует ли освещение в конкретной сцене реальности. Запись любого лица, освещенного неправильно, скорее всего, была сделана в другом месте.
  • А в Университете Федерико II в Неаполе исследователи обучили ПО распознавать «узоры» из пикселей, создаваемые цифровыми камерами. Они проверяют подозрительные изображения, чтобы обнаружить скопления пикселей, которые демонстрируют различные модели шума, что может указывать на нарушение цифровой целостности и манипуляций.
Копировать ссылкуСкопировано