Статьи

Ужасы дипфейков. Моральные аспекты

В этой статье рассмотрим этическую сторону создания и использования дипфейков, в том числе позицию по данному вопросу русской православной и католической церквей, накопленный опыт противодействия, вопросы законодательного регулирования.

Под дипфейком обычно понимают любую замену фото- или видеоизображения, не обращая внимание на то, в каких целях (положительных или отрицательных) создается дипфейк. В статье "Дипфейки. Ужасы искусственного интеллекта" (журнал "Системы безопасности" № 6/2024 г.) я приводил такое определение дипфейка – "поддельное видео, созданное с использованием глубоких нейронных сетей".

Биометрическая идентификация. ОБЗОР >>

В этом определении отсутствует ссылка на возможные изменения или подделки голоса или походки. Хотя технологии синтеза речи могут быть полезны для использования людьми с ограниченными в общении возможностями.

Определение дипфейка как поддельного видео (или фото), на мой взгляд, уже определяет дипфейк как противоправное действие. Видимо, для общего обозначения дипфейков следует употреблять термин "видоизмененное фотолибо видеоизображение или звук". Вместе с тем видоизмененное видео может быть задействовано в положительных целях, например в образовании, маркетинге, для создания учебных и документальных фильмов [1] с использованием виртуальных образов.

Опасность дипфейков состоит в том, что они могут применяться для создания ложных или обманных материалов, которые способны повлечь серьезные последствия, такие как разжигание ненависти, распространение дезинформации, обман людей или дискредитация личности.

С помощью дипфейков можно создавать неправдоподобные сцены, которые кажутся реальными, что может нарушить частную жизнь людей и привести к распространению личной информации без согласия. Стоит упомянуть про истоки дипфейков – распространение фейковых порноизображений знаменитостей и обычных людей, которое может привести к крайне неприятным последствиям для их жертв.

С помощью дипфейков [2] также могут быть созданы фейковые анкеты (рис. 1).

00-4

Рис. 1. Мужчина создал себе дипфейк в виде красивой модели, чтобы от ее лица разводить подписчиков на донаты
Иллюстрация предоставлена автором.
 

Чем опасны дипфейки знаменитых людей

Использование образов людей без их согласия является еще одним острым конфликтом интересов. Например, при использовании образов умерших актеров или исторических личностей возникает вопрос о правомочности. В ряде случаев согласие на использование образов дают их наследники, однако возможность подобного разрешения тоже подвергается сомнению с точки зрения этики.

Обсуждая вопрос об этичности создания дипфейков людей, которых уже нет с нами, необходимо учитывать контекст использования и соблюдать нормы уважения, согласия и законности. Если произведение выполняется с уважением к памяти и по согласию соответствующих сторон в лице их наследников, а также не представляет угрозы распространения дезинформации или обмана, то это может и должно считаться этичным. Важно быть осмотрительным и бережно относиться к технологии и памяти поклонников артиста, и тогда можно рассчитывать на создание множества выдающихся произведений искусства.

Эта тема продолжает обсуждаться в обществе.

Технология дипфейков представляет "страшную опасность", ее следует запретить, поскольку это может привести к "непредвиденным последствиям", заявил председатель Союза кинематографистов, президент Московского международного фестиваля (ММКФ), народный артист РСФСР режиссер Никита Михалков [3]. "Я считаю, что страшная опасность заключается в дипфейках. Опасность, которую мы не можем даже сейчас оценить. Когда появятся на экране актеры, исполненные методом дипфейка, [народный артист СССР, актер и режиссер Сергей] Бондарчук или [народная артистка СССР Нонна] Мордюкова, кто-то еще, и они будут говорить слова, которые они бы сами никогда не сказали, это преступление", – сказал он на брифинге (цитата по ТАСС).

Михалков также считает, что просмотр порнороликов с дипфейками знаменитых людей, которые не имели к этому отношения, является "разрушением человеческой сущности, человеческих и семейных отношений". "Это диверсия, вредительство. Я считаю, что если мир, взявшись за руки, не запретит этого категорически, то мы можем столкнуться с абсолютно непредвиденными последствиями, какие могут быть после извержения вулкана и цунами, – в нравственном смысле", – резюмировал режиссер.

Председатель комитета Госдумы по культуре Елена Ямпольская на заседании с участием министра культуры Ольги Любимовой назвала использование образа Никулина в кино "тревожным", передавали "Известия". По ее мнению, использование дипфейков может привести к тому, что ныне живущие артисты окажутся не востребованы, а покойные потеряют свою ценность, поскольку "смажется" ощущение утраты.

Ямпольская рассказала об идее не выдавать прокатное удостоверение фильмам, в которых ключевые роли отданы дипфейкам, и предположила, что качество задумки в результате будет "нижайшим". Любимова согласилась с позицией главы думского комитета, отметив, что "почувствовала себя каким-то ретроградом, когда увидела, что Никулина сыграет кукла".

РПЦ: дипфейки создают угрозу национальной безопасности

Представители Русской православной церкви (РПЦ) призывают к законодательному ограничению использования дипфейков. В Патриаршей комиссии по вопросам семьи, защиты материнства и детства РПЦ заявили о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) и закрепить на законодательном уровне дисклеймер для нейросетей, указывающий на то, что человек общается с искусственным интеллектом.

Способность искусственного интеллекта генерировать дипфейки создает угрозу национальной безопасности, и необходимо рассмотреть вопрос о законодательном регулировании этого вопроса [4]. Такое мнение высказал Патриарх Московский и всея Руси Кирилл на пленарном заседании ХIII Рождественских парламентских встреч в рамках XXХIII Международных Рождественских образовательных чтений.

"Представляется, что следует рассмотреть вопрос о законодательном регулировании ситуации с тем, что называется дипфейками. Способность искусственного интеллекта к созданию дипфейков, высококачественных подделок изображений, голоса и видео уже сегодня наносит большой ущерб обществу, затрудняет расследование преступлений, создает угрозу национальной безопасности, не говоря уже о серьезных репутационных потерях, которые несут пострадавшие люди", – сказал глава РПЦ. По его словам [5], следует уже сейчас подумать над созданием системы контроля над достоверностью того, что происходит в информационном пространстве.

Уровень создаваемого ИИ-контента настолько высок, что подделки не всегда могут различить даже судебные эксперты, в недалеком будущем такие подделки могут наводнить собой значительную часть инфополя, отметил предстоятель РПЦ. Если это не предотвратить, то со временем уже станет невозможным отличить правду от вымысла, что даст злонамеренным людям мощные инструменты для манипуляции общественным мнением, считает он.

По уровню своей опасности для людей ИИ, по мнению патриарха Кирилла, даже превосходит ядерную энергию, в особенности если его запрограммировать на нанесение "сознательного вреда человеческой нравственности, человеческому общежитию и другим ценностям, без которых человек потеряет способность оставаться человеком". "Правда должна быть надежно защищена", – убежден патриарх, призвавший ставить "красные флажки" опасному развитию ИИ.

Римский призыв по этике ИИ

В католической церкви в 2020 г. [6] принят официальный документ Rome Call for AI Ethics (Римский призыв по этике ИИ), который подготовила Папская академия жизни. В нем впервые обозначена позиция Святого престола по вопросам технологий искусственного интеллекта. Этот документ был подписан папой римским Франциском, представителями ИТ-компаний (таких как Microsoft и IBM), поставили свои подписи и представители Европарламента.

В этом документе говорится о моральном регулировании в области разработки ИИ.

Документ в вопросе этики при создании и использовании систем ИИ опирается на ст. 1 и 2 Всеобщей декларации прав человека ООН о равенстве всех людей в своих правах и свободах и отсутствии их дискриминации.

В документе говорится о том, что алгоритмы систем ИИ должны соблюдать "алгоритм этики", который сводится к следующим пунктам:

  1. Прозрачность. Системы ИИ должны быть объяснимыми.
  2. Инклюзивность. Потребности всех людей должны быть приняты во внимание, чтобы каждый мог получить пользу и всем людям были бы предложены наилучшие условия для самовыражения и саморазвития.
  3. Ответственность. Те, кто разрабатывает и внедряет использование ИИ, должны действовать с ответственностью и открыто.
  4. Беспристрастность. Не создавайте ИИ и не действуйте предвзято – так гарантируется соблюдение справедливости и уважение к человеческому достоинству.
  5. Надежность. Системы ИИ должны быть в состоянии работать надежно.
  6. Безопасность и конфиденциальность. Системы ИИ должны работать безопасно и уважать частную жизнь пользователей.

Таким образом, документ больше содержит призывы общечеловеческого характера в области этики, прав и образования, чем специфические христианские теологические посылы. Авторы заметки отмечают, что про дипфейки в нем не упоминается.

Дипфейк и фантазия

Случайное раскрытие перед аудиторией известным геймером и ютубером Atrioc содержимого своего браузера [7], в котором было что-то похожее на порнодипфейки с участием его коллег и друзей, привело к скандальной дискуссии о правомерности не только потребления сгенерированных порноматериалов, но и о правомерности наличия у человека сексуальных фантазий.

Можно ли считать, что сексуальные фантазии являются морально нейтральными? Но в чем реально разница? И фантазия, и дипфейк являются виртуальными изображениями, созданными на основе предыдущих данных, только одно существует в голове, а другое – на экране. Этот вопрос вызывает вопрос: где провести границу между личной фантазией и тем, что мы признаем морально недопустимым?

Дипфейки могут заставить нас задуматься даже глубже, вызвав вопросы о моральном статусе наших личных данных. С появлением Интернета мы формируем новое отношение к моральному статусу нашей личной информации. Большинство жителей сегодня считают, что каждый должен полностью контролировать информацию, относящуюся к его личности. Но это, строго говоря, также включает данные, хранящиеся в головах других людей. Возможно, в конечном итоге мы можем прийти к выводу, что стоит контролировать воображение других людей, что является диким предложением.

В целом этот инцидент является напоминанием о том, что с появлением новых технологий нам приходится сталкиваться с новыми этическими проблемами, которые требуют обсуждения и разумного подхода.

Нейрокладбища

Одним из новых направлений использования дипфейков стало предложение о создании "Нейрокладбища" с дипфейк-аватарами умерших людей [8]. Предполагается, что с психологической точки зрения "Нейрокладбище" предоставляет возможность сохранять эмоциональную связь с ушедшими близкими, что может значительно облегчить процесс скорби. Визуальные ИИ-технологии, применяемые в проекте, позволяют воспроизводить важные моменты из жизни усопших, их голоса и манеру общения, что помогает близким справляться с чувством утраты и продолжать ощущать их присутствие.

Проект "Нейрокладбище" включает три технологии искусственного интеллекта:

  1. Цифровой аватар (Deepfake) – создание реалистичных визуальных образов усопших на основе фотографий и видео, что помогает сохранить их облик и передать эмоции.
  2. Большие языковые модели (LLM) – симуляция мыслей и общения усопших, что позволяет их близким продолжать диалог и чувствовать связь, несмотря на физическую утрату.
  3. Синтез речи – воспроизведение голоса усопшего для создания ощущения его присутствия и поддержки в трудные моменты.

Дать комментарии по этической стороне данного мероприятия я не смог. Наверное, каждый должен решать сам, с кем он хочет поговорить.

Решения на основе ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Законодательное регулирование использования дипфейк-технологий

Перед законодателем стоит задача разработать и внедрить комплекс мер, применение которых позволит минимизировать возможность нарушения прав граждан дипфейк-технологиями [9]. Предлагается направить усилия государства на следующее:

  • создание автоматизированных инструментов для обнаружения дипфейков с возможностью определения даты, времени и физического происхождения их содержимого, а при наличии признаков потенциальной опасности – способных остановить размещение и распространение дипфейков;
  • развитие сервисов и инструментов фактчекинга;
  • нормативное закрепление требований, в соответствии с которыми в социальных сетях и мессенджерах должна проводиться обязательная маркировка дипфейк-контента;
  • формирование нормативной базы, предусматривающей ответственность за создание и распространение дипфейк-материалов, способных нанести ущерб деловой репутации, унизить честь и достоинство человека.

С позиции авторского права дипфейки предложено рассматривать через призму производного произведения, при котором использование исходного произведения без согласия его правообладателя будет незаконно. Учитывая угрозы дипфейк-технологий для прав человека, должен быть предложен комплекс мер, применение которых позволит минимизировать возможность нарушения прав граждан данными технологиями:

  • внедрение механизма фактчекинга, развитие его сервисов и инструментов;
  • обязательная маркировка дипфейк-контента в социальных сетях и мессенджерах;
  • создание нормативной базы, предусматривающей ответственность за создание и распространение дипфейк-материалов, способных нанести ущерб деловой репутации, унизить честь и достоинство человека.

Практика борьбы с дипфейками

В работе "Дипфейки: риски и возможности для бизнеса" [10] был проведен сбор и анализ данных о рисках, связанных с использованием дипфейков, а также о составе практик и навыков цифровой гигиены, снижающих риски от распространения дипфейков.

Было выделено три направления борьбы с дипфейками:

  1. Ограничение производства дипфейков (контроль за распространением и использованием технологий создания дипфейков).
  2. Ограничение распространения дипфейков через каналы социальных медиа (отслеживание, модерация, блокировка).
  3. Ограничение потребления дипфейков через развитие навыков и инструментов цифровой гигиены на уровне пользователей (распознавание и критическое отношение к медиаконтенту).

Рассмотрены способы борьбы с дипфейками и профилактика их негативного влияния. Способы разбиты на пять групп:

Группа 1. Разработка технологий для обнаружения дипфейков.
Группа 2. Правовое регулирование.
Группа 3. Образование и повышение осведомленности.
Группа 4. Этические стандарты и саморегулирование.
Группа 5. Сотрудничество между государственными и частными секторами.

В рамках данной статьи среди этих способов борьбы с дипфейками следует обратить внимание на мероприятия, предлагаемые в группе 4 – "Этические стандарты и саморегулирование":

  • разработка и внедрение этических кодексов, регламентов использования синтетического контента СМИ;
  • разработка и внедрение этических стандартов и практик саморегулирования компаниями, работающими с технологиями искусственного интеллекта, для предотвращения злоупотреблений дипфейками.

Рассмотрим изложенные в данной работе примеры продуктов, предназначенных для борьбы с дипфейками (первые четыре места по числу цитирований экспертами), в таблице.

Таблица. Примеры продуктов, предназначенных для борьбы с дипфейкамиТаблица. Примеры продуктов, предназначенных для борьбы с дипфейками

Российскими фирмами также ведется работа по созданию средств для борьбы с дипфейками.
Челябинская фирма 3DiVi заканчивает работу над проектом BAF (Biometric Anti Fraud). В настоящее время оформлена международная заявка PCT (Patent Cooperation Treaty) на метод защиты.
В ближайшем релизе библиотеки FaceSDK московской фирмы Tevian планируется добавление алгоритма для борьбы с дипфейками.

Отмечая отдельные программы для противодействия дипфейкам, эксперты указывают не только на сравнительно невысокую эффективность существующих технических средств защиты, в частности по обнаружению синтетического контента, но и в целом на отсутствие на рынке известных и популярных продуктов, которые могли бы обеспечить защиту пользователя от недобросовестного использования ИИ.

Необходимо отметить, что об опасности дипфейков эксперты предупреждали достаточно давно. Приведу мнение директора по развитию бизнеса фирмы Iris Devices Александра Горшкова: "Оценивать влияние DeepFake-технологий на нашу жизнь мы начали еще в 2019 г. К сожалению, в то время мало кто этим заинтересовался.

Возможно потому, что алгоритмы были еще не совершенны, а оборудование не оптимизировано для решения таких задач. При этом телевидение, еще не понимая всей важности технологии DeepFake, уже проявило к этому интерес.

На тот момент ко мне обращались за интервью журналисты таких телекомпаний, как НТВ (2020 г.) и "Москва24" (2021 г.). Надо признаться, что в этих технологиях мы больше видели положительные моменты: синхронный перевод фильмов на несколько языков, упрощенное создание сложного видеоконтента, генерация обучающих роликов и т.д. В то же время мы предсказывали и большие риски, а именно создание компромата, дезинформацию, целенаправленное влияние на психологическое состояние общества, общественное мнение и принятие решений, другие риски, вплоть до развязывания региональных и глобальных войн. Все это можно проследить по материалам, размещенным на сайте DEEP FAKE CHALLENGE (https://deepfakechallenge.com/). Массовое использование технологий DeepFake может быть использовано для обмана сотрудников корпораций и частных лиц, увода людей от реальной жизни в несуществующий, выдуманный мир. Сейчас опасность этой технологии стала понятна многим. Надеюсь, что решение для противодействия использованию DeepFake в деструктивных целях скоро будет найдено".

Завершая данную статью, хочу отметить, что для решения этических проблем дипфейков в обществе должно быть налажено спокойное и квалифицированное их обсуждение.

Список источников

  1. Парфун А. За гранью реальности: изучение этических последствий дипфейков [Электронный ресурс]. 14.09.2023. URL: https://www.sostav.ru/blogs/263188/40581 (дата обращения: 06.05.2025).
  2. Территория биометрии [Электронный ресурс]. 27.04.2025. URL: https://t.me/allbiometrics/2740 (дата обращения: 06.05.2025).
  3. Михалков увидел "страшную опасность" в дипфейках [Электронный ресурс]. 19.04.2024 URL: https://www.rbc.ru/technology_and_media/19/ 04/2024/6622a2399a79478b390f5744 (дата обращения: 06.05.2025).
  4. Яковлева Е. Патриарх Кирилл призвал законодательно урегулировать ситуацию с дипфейками // Российская газета [Электронный ресурс]. 30.01.2025. URL: https://rg.ru/2025/01/30/patriarh-kirill-prizval-zakonodatelno-uregulirovat-situaciiu-sdipfejkami.html (дата обращения 06.05.2025).
  5. Васильева Н. Патриарх Кирилл: Дипфейки создают угрозу национальной безопасности // Парламентская газета [Электронный ресурс]. 30.01.2025. URL: https://www.pnp.ru/politics/ patriarkh-kirill-dipfeyki-sozdayut-ugrozu-nacionalnoy-bezopasnosti.html (дата обращения 06.05.2025).
  6. Никита. Этические вопросы технологий ИИ [Электронный ресурс]. 08.12.2022. URL: https://author.today/reader/237675/2139019 (дата обращения 06.05.2025).
  7. Как технологии дипфейков меняют наше представление о сексуальных фантазиях и морали [Электронный ресурс]. 25.06.2023.
    URL: https://www.securitylab.ru/news/539285.php (дата обращения 06.05.2025).
  8. Первое в России "Нейрокладбище" с цифровыми аватарами умерших запустят в Москве в 2024 году [Электронный ресурс]. 04.06.2024.
    URL: https://www.cnews.ru/news/line/2024-06-04_pervoe_v_rossii_nejrokladbishche (дата обращения 06.05.2025).
  9. Добробаба М. Б. Дипфейки как угроза правам человека // Lex russica. – 2022. Т. 75. – № 11. – С. 112–119. – DOI: 10.17803/1729-
    5920.2022.192.11.112-119.
  10. Дипфейки: риски и возможности для бизнеса // ФРИИ Минцифры России [Электронный ресурс]. 2024. URL: dipfejki-riski-i-vozmozhnostidlya-biznesa1.pdf (дата обращения 06.05.2025).

Иллюстрация предоставлена автором.

Регистрация на онлайн-конференции для специалистов в области ИТ и безопасности

Опубликовано в журнале "Системы безопасности" № 2/2025

Все статьи журнала "Системы безопасности"
доступны для скачивания в iMag >>

Изображение от freepik

Поделитесь вашими идеями

Подписаться на новости

Технологии. Обзоры решений. Задачи заказчиков.