Ученые из Вашингтонского университета в попытках найти способ выявлять поддельные спутниковые снимки разработали новую технологию создания дипфейков. Теперь они опасаются, что такие подделки могут быть использованы для дезинформации. Об этом сообщает портал The Verge.
Чтобы обнаружить поддельные спутниковые снимки, команда ученых использовала алгоритм искусственного интеллекта, совмещая изображения улиц и зданий одного города, снятые со спутника, с изображениями улиц и зданий другого. В результате им удалось получить «фотографии» несуществующих населенных пунктов.
Для достижения наибольшей правдоподобности дипфейков специалисты применили комбинацию из двух нейросетей (Generative Adversarial Network, GAN). Первая нейросеть создавала сам поддельный снимок, а вторая пыталась определить, насколько он реалистичен. Обучение GAN продолжалось, пока первая нейросеть не обманет вторую.
- Для этого бралась базовая карта (визуальная основа, на которую накладываются новые «слои географической информации»), например города Такома (штат Вашингтон, США), затем с ней совмещались спутниковые снимки Пекина и Сиэтла. В итоге появлялся новый снимок, на котором были более высокие, чем в Такоме, здания Пекина или малоэтажки Сиэтла.
- Качество изображения на дипфейке было немного хуже, чем в исходных изображениях со спутника. В то же время подделка была очень похожа на снимок настоящего города, сделанный из космоса.
Один из авторов исследования, доцент кафедры географии Вашингтонского университета Бо Чжао, рассказал The Verge, что одной из целей работы ученых была возможность обратить внимание общества на то, что информация на спутниковых снимках может быть недостоверной — ее при помощи современных технологий могут подделать так же, как и любую другую, при этом выглядеть фальшивка будет весьма убедительно. Он также отметил, что, хотя дипфейки широко обсуждаются в других областях, в географии тема сфальсифицированных ИИ изображений была затронута, вероятно, впервые.
Исследователи надеются, что эта работа поможет создать систему обнаружения дипфейков спутников такого же уровня, как ранее разработанные программы по поиску фейков, ориентированные на изображения человека.
Опасность дипфейк-снимков
Разработчики нового метода создания дипфейков, как пишет The Verge, обеспокоены тем, что созданные искусственным интеллектом подделки спутниковых снимков могут быть использованы для дезинформации.
- Географические дипфейки могут стать проблемой национальной безопасности, если геополитические противники используют фальшивые спутниковые снимки, чтобы ввести оппонентов в заблуждение.
- Спутниковые дипфейк-снимки могут использовать для сокрытия свидетельств преступлений или затруднения изучения климатических изменений.
Издание приводит пример, когда с помощью спутниковых снимков Организации Объединенных Наций (ООН) удалось обнаружить «лагеря политического перевоспитания» уйгуров, проживающих в Синьцзян-Уйгурском автономном районе (СУАР). С распространением дипфейк-снимков правительство КНР, предполагает The Verge, может начать утверждать, что эти снимки были поддельными.
Технология deepfake и мошенники
Слово «дипфейк» происходит от deep learning, то есть «глубокое изучение», и fake — «подделка». Оно означает набор технологий, которые создают фейковые изображения, неотличимые от реальных. Технологию придумал студент Стэнфордского университета Ян Гудфеллоу в 2014 году.
Для создания дипфейков используются нейросети. Они анализируют исходный фото- и видеоконтент и генерируют неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека или предмета, которые можно, например, «вклеивать» в видеоролики. Дипфейки в последние годы все активнее стали использовать мошенники.
- В 2019 году руководитель британского филиала немецкой энергетической компании перевел $243 тыс. неизвестному. Мошенник подделал голос исполнительного директора головной компании и приказал сотруднику перевести средства якобы для исполнения заказа, что тот и сделал.
- В 2020 году 68-летний адвокат из Филадельфии (США) чуть не перевел $9 тыс. мошеннику, который с помощью дипфейка подделал голос его 37-летнего сына. Преступник сообщил, что попал в аварию, ранил беременную женщину и теперь ему нужны деньги для внесения залога.
- Мошенники из Индии создавали дипфейки женских фотографий, чтобы общаться с мужчинами на сайтах знакомств с поддельных аккаунтов. Они обменивались откровенными фотографиями для последующего шантажа.
Регулирование дипфейков
В 2019 году компания Deeptrace обнаружила в интернете 15 тыс. видео с использованием технологии deepfake, из них 96% имели порнографический характер, а 99% являлись наложением лиц звезд на изображения тел порноактеров.
- В 2018 году социальная сеть Reddit запретила все сообщества, связанные с такого рода порнофейками.
- В 2019 году «раздевающее» женщин приложение DeepNude удалили со всех платформ в течение нескольких часов после запуска, а его копии запретили к распространять на ИТ-хостинге GitHub.
- Также в 2019 году в штате Вирджиния (США) запретили «дипфейки» и «дипнюдсы». Похожий закон сейчас разрабатывается в Великобритании.