Подписка
МЕНЮ
Подписка

Онлайн-программа Форума "Технологии и безопасность 2024"  12 марта. AI, BI, RPA, Low-code/No-code  для интеллектуального управления  бизнес-процессами цифрового предприятия 13 марта. Защита корпоративных данных: достаточно ли DCAP и DLP? 14 марта. Автоматизация реагирования на инциденты по ИБ  Изучайте программу мероприятий и участвуйте!

Дипфейки: как определить подделку и обезопасить пользователей от мошенников

Александр Паркин, 27/11/23

Одной из ключевых проблем цифровой безопасности становится стремительный рост генерации фейковых текстов, видео- и аудиозаписей с помощью искусственного интеллекта (ИИ). По оценкам ИИ-разработчика DeepMedia, в 2023 г. количество голосовых дипфейков возросло в восемь раз по сравнению с прошлым годом, а видеодипфейков – в три раза. К концу года общее количество дипфейков в соцсетях достигнет 500 тыс. материалов по всему миру, прогнозируют аналитики.

Значительные темпы роста генерации дипфейков коррелируют с уровнем развития технологий искусственного интеллекта в целом. Многие ML-модели (от англ. Machine Learning Models, модели машинного обучения) стали доступны массовому пользователю, и синтез изображений и видеоматериалов с помощью нейросетей стал кратно дешевле, чем несколько лет назад. Значительно снизился также порог входа для использования технологии: общедоступные сервисы с ML-моделями позволяют массовому пользователю синтезировать изображения и видео без каких-либо навыков программирования.

Разработчики наиболее популярных нейросетей уже начали ограничивать их массовое использование из-за регулярных нарушений этических норм: например, они не могут генерировать материалы, связанные с конкретными людьми, политикой, религией, насилием и эротикой. Создатели Midjourney ограничили к модели бесплатный доступ после распространения в сети фейкового изображения папы римского в пуховике. Однако в Сети в общем доступе можно найти менее популярные приложения, которые по-прежнему предоставляют подобную функциональность.

Злоумышленники с помощью нейросетей могут создать компрометирующий контент, который можно использовать для шантажа и вымогательства. Дипфейки используют также в социальных сетях для манипулирования общественным мнением. В связи с этим на b2b-рынке появилась новая ниша услуг детекции дипфейков. Они помогают избежать негативных последствий распространения таких материалов в интернете.

Решения на основе ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Механика работы детекторов дипфейков

Для обнаружения дипфейков ИИ-специалисты также используют нейросети. Для этого их обучают на дата-сетах из изображений, созданных всеми известными разработчику генеративными алгоритмами. При появлении новых способов создания дипфейков нейросеть дополнительно обучается на новых примерах.

Для проверки изображения на достоверность нейросети используют множество факторов: корректность теней и освещения в кадре, качество изображений деталей на фоне и т.д. Нейросети также оставляют в дипфейках низкоуровневые артефакты из изображений, из которых они сгенерированы. Они не видны человеческим взглядом, но заметны при максимальном приближении до пикселей.

Для поиска этих артефактов нейросети определяют в изображении математические зависимости и сопоставляют их со стандартными показателями на реальных фотографиях. Например, средний разброс значений пикселей около носа у человека составляет 20. У синтезированных изображений в среднем этот показатель может значительно различаться.

Для определения фейковых видеозаписей наиболее эффективным считается способ сопоставления движения губ человека в кадре со звуками, которые он произносит в своей речи. Точность распознавания таким способом варьируется от 73,5 до 97,6%. Для использования этой техники необходимо использовать нейросеть, которая умеет читать текст по губам.

При проверке видеозаписи нейросети анализируют последовательность кадров и отслеживают динамику параметров на каждом из них, например резкое изменение текстуры кожи, размера родинки и т.д. Подобный анализ не может дать гарантированный результат, потому что у таких событий могут быть естественные причины, в частности смена освещения или дефекты камеры, и это может спровоцировать долю ложных срабатываний на реальных кадрах. Однако эта доля незначительна относительно общего количества распознанных дипфейков.

Современные детекторы дипфейков также фокусируются на блендинге – финальном этапе генерации дипфейка, в котором синтезированное изображение накладывается на лицо реального человека. Этот процесс также оставляет в материалах характерные артефакты, которые детектируются нейросетями.

Один из наиболее перспективных разрабатываемых алгоритмов распознавания фейков – мультимодальная модель, которая при анализе исходных материалов использует граф знаний. Это семантическая сеть данных, которая хранит информацию о различных объектах и взаимосвязях между ними. С ее помощью нейросеть сможет проверить достоверность материалов на основе открытых данных из Сети.

Например, при распространении в Сети фотографий последствий сильного землетрясения в Москве такие материалы будут распознаваться как фейк даже при очень высоком качестве синтеза, если в Сети не будет других данных об этом катаклизме. При проверке видео с известным актером ML-модель сможет определить его личность, получит детали биографии и сопоставит их с обстоятельствами на записи. Таким образом, "запись" совместного концерта Дэвида Боуи и Клавы Коки искусственный интеллект определит как фейк, потому что он "знает", что публичная деятельность российской певицы началась позже смерти Боуи.

Основные заказчики детекторов

Ключевыми заказчиками сервисов для детекции дипфейков являются банки и другие финансовые организации, которым критически важно проводить процедуру KYC (англ. Know Your Customer, знай своего клиента), то есть верифицировать личность клиента при проведении транзакций и любых других операций со счетами. Для расширения возможностей дистанционного обслуживания банки внедряют удаленное подтверждение операций с помощью биометрии. Злоумышленники могут воспользоваться дипфейком для получения доступа к счетам клиентов организации.

Один из распространенных кейсов – подтверждение операций в онлайн-банке по биометрическим данным через камеру на персональном компьютере. С помощью специального софта злоумышленники могут наложить генератор фейков на изображение, передаваемое с камеры на сервер организации. Чтобы пресечь противоправные действия, нейросети в инфраструктуре банка анализируют запись видеоподтверждения операции от пользователя, сопоставляют ее с биометрическими данными клиента. При обращении клиента в финансовую организацию по телефону, даже если у банка нет биометрических данных клиента, детектор все равно сможет выявить признаки синтезированной речи и заблокировать проведение операции.

Аналогичным образом воспользоваться детектором фейков могут государственные сервисы, чтобы не позволить злоумышленникам подать онлайн-заявление от имени другого человека и избежать предоставления злоумышленникам доступа к персональным данным граждан.

Детекторы дипфейков уже используются для определения фейковых новостных сообщений в социальных сетях. Социальная сеть Facebook (принадлежит Meta, признанной в России экстремистской организацией) уже несколько лет привлекает для анализа материалов от пользователей внешних партнеров. ВКонтакте сообщила о разработке собственной технологии определения фейков в начале 2023 г.

Такие технологии будут полезны не только пользователям, но и самим информационным агентствам, получающим часть актуальной информации от пользователей социальных сетей. Нейросети помогут журналистам определить достоверность данных и избежать распространения фейков в СМИ.

В будущем детекторы дипфейков могут использоваться в любом онлайн-сервисе, где пользователь может быть заинтересован в подлоге своей личности. Например, перед началом онлайн-заседаний суды проверяют личность участников, подключившихся дистанционно. Нейросети могут быть необходимы для подтверждения подлинности изображения с камеры участника заседания.

Cреди возможных кейсов можно выделить также определение фейков при сдаче онлайн-экзаменов. ИИ-модель может определить, действительно ли тест выполняет сам экзаменуемый. Такая услуга может быть востребована, например, при сдаче экзамена на квалифицированного инвестора, если такая аттестация будет проводиться онлайн.

Проблемы детекции дипфейков

Как и в любой борьбе с преступностью, злоумышленники почти всегда оказываются на шаг впереди, регулярно разрабатывая новые алгоритмы генерации фейков и модернизируя старые. Поэтому ценность детекторов зависит от скорости обнаружения новых алгоритмов и оперативной доработки нейросети.

Текущий уровень распознавания сгенерированных изображений и видео достигает 90–95%. Однако, чтобы обойти детекторы, злоумышленники дополнительно обрабатывают дипфейки с помощью фото- и видеоредакторов, исправляя артефакты синтеза вручную. Такие кейсы считаются очень трудными для распознавания.

Одними из наиболее ярких отредактированных дипфейков считаются записи, где якобы вместе поют актеры Леонардо ди Каприо и Дженна Ортега.

Наиболее современные ML-модели не требуют дообучения для генерации дипфейков. Они могут сгенерировать фейковую видеозапись с лицом человека по одной его фотографии – и, по оценкам исследователей, в ряде случаев качество распознавания таких дипфейков было даже ниже, чем у дипфейков, сгенерированных нейросетями на базе крупных дата-сетов.

В связи с этим сейчас ключевая задача дипфейк-детекторов – наиболее качественно определять материалы, сгенерированные популярными, общедоступными и легкими в использовании ИИ-сервисами. Таким образом разработчики смогут пресечь массовое применение дипфейков в противоправных целях.

Опубликовано в журнале "Системы безопасности" № 5/2023

Все статьи журнала "Системы безопасности"
доступны для скачивания в iMag >>

Фото: ru.freepik.com

Узнайте о возможностях лидогенерации и продвижении через контент

Темы:Цифровая трансформацияИскусственный интеллектЖурнал "Системы безопасности" №5/2023
Статьи по той же темеСтатьи по той же теме

Хотите участвовать?

Выберите вариант!

 

КАЛЕНДАРЬ МЕРОПРИЯТИЙ
ПОСЕТИТЬ МЕРОПРИЯТИЯ
ВЫСТУПИТЬ НА КОНФЕРЕНЦИЯХ
СТАТЬ РЕКЛАМОДАТЕЛЕМ
Комментарии

More...