Одной из ключевых проблем цифровой безопасности становится стремительный рост генерации фейковых текстов, видео- и аудиозаписей с помощью искусственного интеллекта (ИИ). По оценкам ИИ-разработчика DeepMedia, в 2023 г. количество голосовых дипфейков возросло в восемь раз по сравнению с прошлым годом, а видеодипфейков – в три раза. К концу года общее количество дипфейков в соцсетях достигнет 500 тыс. материалов по всему миру, прогнозируют аналитики.
Значительные темпы роста генерации дипфейков коррелируют с уровнем развития технологий искусственного интеллекта в целом. Многие ML-модели (от англ. Machine Learning Models, модели машинного обучения) стали доступны массовому пользователю, и синтез изображений и видеоматериалов с помощью нейросетей стал кратно дешевле, чем несколько лет назад. Значительно снизился также порог входа для использования технологии: общедоступные сервисы с ML-моделями позволяют массовому пользователю синтезировать изображения и видео без каких-либо навыков программирования.
Разработчики наиболее популярных нейросетей уже начали ограничивать их массовое использование из-за регулярных нарушений этических норм: например, они не могут генерировать материалы, связанные с конкретными людьми, политикой, религией, насилием и эротикой. Создатели Midjourney ограничили к модели бесплатный доступ после распространения в сети фейкового изображения папы римского в пуховике. Однако в Сети в общем доступе можно найти менее популярные приложения, которые по-прежнему предоставляют подобную функциональность.
Злоумышленники с помощью нейросетей могут создать компрометирующий контент, который можно использовать для шантажа и вымогательства. Дипфейки используют также в социальных сетях для манипулирования общественным мнением. В связи с этим на b2b-рынке появилась новая ниша услуг детекции дипфейков. Они помогают избежать негативных последствий распространения таких материалов в интернете.
Для обнаружения дипфейков ИИ-специалисты также используют нейросети. Для этого их обучают на дата-сетах из изображений, созданных всеми известными разработчику генеративными алгоритмами. При появлении новых способов создания дипфейков нейросеть дополнительно обучается на новых примерах.
Для проверки изображения на достоверность нейросети используют множество факторов: корректность теней и освещения в кадре, качество изображений деталей на фоне и т.д. Нейросети также оставляют в дипфейках низкоуровневые артефакты из изображений, из которых они сгенерированы. Они не видны человеческим взглядом, но заметны при максимальном приближении до пикселей.
Для поиска этих артефактов нейросети определяют в изображении математические зависимости и сопоставляют их со стандартными показателями на реальных фотографиях. Например, средний разброс значений пикселей около носа у человека составляет 20. У синтезированных изображений в среднем этот показатель может значительно различаться.
Для определения фейковых видеозаписей наиболее эффективным считается способ сопоставления движения губ человека в кадре со звуками, которые он произносит в своей речи. Точность распознавания таким способом варьируется от 73,5 до 97,6%. Для использования этой техники необходимо использовать нейросеть, которая умеет читать текст по губам.
При проверке видеозаписи нейросети анализируют последовательность кадров и отслеживают динамику параметров на каждом из них, например резкое изменение текстуры кожи, размера родинки и т.д. Подобный анализ не может дать гарантированный результат, потому что у таких событий могут быть естественные причины, в частности смена освещения или дефекты камеры, и это может спровоцировать долю ложных срабатываний на реальных кадрах. Однако эта доля незначительна относительно общего количества распознанных дипфейков.
Современные детекторы дипфейков также фокусируются на блендинге – финальном этапе генерации дипфейка, в котором синтезированное изображение накладывается на лицо реального человека. Этот процесс также оставляет в материалах характерные артефакты, которые детектируются нейросетями.
Один из наиболее перспективных разрабатываемых алгоритмов распознавания фейков – мультимодальная модель, которая при анализе исходных материалов использует граф знаний. Это семантическая сеть данных, которая хранит информацию о различных объектах и взаимосвязях между ними. С ее помощью нейросеть сможет проверить достоверность материалов на основе открытых данных из Сети.
Например, при распространении в Сети фотографий последствий сильного землетрясения в Москве такие материалы будут распознаваться как фейк даже при очень высоком качестве синтеза, если в Сети не будет других данных об этом катаклизме. При проверке видео с известным актером ML-модель сможет определить его личность, получит детали биографии и сопоставит их с обстоятельствами на записи. Таким образом, "запись" совместного концерта Дэвида Боуи и Клавы Коки искусственный интеллект определит как фейк, потому что он "знает", что публичная деятельность российской певицы началась позже смерти Боуи.
Ключевыми заказчиками сервисов для детекции дипфейков являются банки и другие финансовые организации, которым критически важно проводить процедуру KYC (англ. Know Your Customer, знай своего клиента), то есть верифицировать личность клиента при проведении транзакций и любых других операций со счетами. Для расширения возможностей дистанционного обслуживания банки внедряют удаленное подтверждение операций с помощью биометрии. Злоумышленники могут воспользоваться дипфейком для получения доступа к счетам клиентов организации.
Один из распространенных кейсов – подтверждение операций в онлайн-банке по биометрическим данным через камеру на персональном компьютере. С помощью специального софта злоумышленники могут наложить генератор фейков на изображение, передаваемое с камеры на сервер организации. Чтобы пресечь противоправные действия, нейросети в инфраструктуре банка анализируют запись видеоподтверждения операции от пользователя, сопоставляют ее с биометрическими данными клиента. При обращении клиента в финансовую организацию по телефону, даже если у банка нет биометрических данных клиента, детектор все равно сможет выявить признаки синтезированной речи и заблокировать проведение операции.
Аналогичным образом воспользоваться детектором фейков могут государственные сервисы, чтобы не позволить злоумышленникам подать онлайн-заявление от имени другого человека и избежать предоставления злоумышленникам доступа к персональным данным граждан.
Детекторы дипфейков уже используются для определения фейковых новостных сообщений в социальных сетях. Социальная сеть Facebook (принадлежит Meta, признанной в России экстремистской организацией) уже несколько лет привлекает для анализа материалов от пользователей внешних партнеров. ВКонтакте сообщила о разработке собственной технологии определения фейков в начале 2023 г.
Такие технологии будут полезны не только пользователям, но и самим информационным агентствам, получающим часть актуальной информации от пользователей социальных сетей. Нейросети помогут журналистам определить достоверность данных и избежать распространения фейков в СМИ.
В будущем детекторы дипфейков могут использоваться в любом онлайн-сервисе, где пользователь может быть заинтересован в подлоге своей личности. Например, перед началом онлайн-заседаний суды проверяют личность участников, подключившихся дистанционно. Нейросети могут быть необходимы для подтверждения подлинности изображения с камеры участника заседания.
Cреди возможных кейсов можно выделить также определение фейков при сдаче онлайн-экзаменов. ИИ-модель может определить, действительно ли тест выполняет сам экзаменуемый. Такая услуга может быть востребована, например, при сдаче экзамена на квалифицированного инвестора, если такая аттестация будет проводиться онлайн.
Как и в любой борьбе с преступностью, злоумышленники почти всегда оказываются на шаг впереди, регулярно разрабатывая новые алгоритмы генерации фейков и модернизируя старые. Поэтому ценность детекторов зависит от скорости обнаружения новых алгоритмов и оперативной доработки нейросети.
Текущий уровень распознавания сгенерированных изображений и видео достигает 90–95%. Однако, чтобы обойти детекторы, злоумышленники дополнительно обрабатывают дипфейки с помощью фото- и видеоредакторов, исправляя артефакты синтеза вручную. Такие кейсы считаются очень трудными для распознавания.
Одними из наиболее ярких отредактированных дипфейков считаются записи, где якобы вместе поют актеры Леонардо ди Каприо и Дженна Ортега.
Наиболее современные ML-модели не требуют дообучения для генерации дипфейков. Они могут сгенерировать фейковую видеозапись с лицом человека по одной его фотографии – и, по оценкам исследователей, в ряде случаев качество распознавания таких дипфейков было даже ниже, чем у дипфейков, сгенерированных нейросетями на базе крупных дата-сетов.
В связи с этим сейчас ключевая задача дипфейк-детекторов – наиболее качественно определять материалы, сгенерированные популярными, общедоступными и легкими в использовании ИИ-сервисами. Таким образом разработчики смогут пресечь массовое применение дипфейков в противоправных целях.
Опубликовано в журнале "Системы безопасности" № 5/2023
Все статьи журнала "Системы безопасности"
доступны для скачивания в iMag >>
Фото: ru.freepik.com