Подписка
МЕНЮ
Подписка

Ближайшие онлайн-мероприятия компании "Гротек" 22 октября. AgroTech: интеллектуальные технологии в сельском хозяйстве 23 октября. Выбор и проектирование автоматических систем пожаротушения 29 октября. BPM/ECM-платформы для автоматизации бизнес-процессов 30 октября. Управление данными для современного цифрового предприятия 31 октября. Комплексная безопасность объектов промышленности   Регистрируйтесь и участвуйте!

Правовое регулирование искусственного интеллекта

Петр Метёлкин, 26/09/24

В предыдущей статье "Искусственный интеллект. Введение в тематику" (журнал "Системы безопасности" № 3/2024 г., стр. 113) мы разобрались с определением термина "искусственный интеллект", рассмотрели примеры классификаций этого понятия и основные сферы его применения. Сегодня поговорим о правовом регулировании ИИ.

Во многих странах всерьез заговорили о регулировании искусственного интеллекта (ИИ).

Почему этот вопрос так важен?

Первое громкое высказывание в отношении ИИ-законов случилось в 2017 г., когда известный техномагнат Илон Маск призвал к регулированию развития искусственного интеллекта. Выступая на встрече с губернаторами США, он заявил, что сам "не в восторге" от того, что предлагает ввести контроль над отраслью, в которой работает, но он считает, что риски полной бесконтрольности ИИ слишком велики. Свою логику он объяснил так: обычно регулирование наступает после того, как случается череда негативных событий, а законотворческий процесс занимает много времени. В случае с ИИ, по словам Маска, у людей времени недостаточно.

В том же году европейские законодатели выступили с предложением о регулировании искусственного интеллекта и робототехники. В ответ на это, а также на обращение Маска генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в своем зачаточном состоянии и регулировать его пока рано. Вместо попыток регулирования самой технологии несколько ученых предложили разработать общие нормы, включающие в себя требования к тестированию и прозрачности алгоритмов. Законы в отношении ИИ решили придумывать не просто так.

Решения на основе ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Риски искусственного интеллекта

Существует целый набор конкретных рисков, которые несет эта технология. Рассмотрим основные из них.

Предвзятость

Искусственный интеллект широко используется в системах распознавания лиц и голоса, в основном для контроля доступа, а также в различных скоринговых системах банковской и страховой сфер, в инструментах правоохранителей и т.д. Некоторые из этих систем имеют значительное влияние на бизнес и людей, но и они подвержены предвзятости и ошибкам, которые могут возникать из-за человеческого фактора. Кроме того, данные, используемые для обучения этих ИИ-систем, могут быть искажены. В последние годы не раз появлялись новости о том, как алгоритмы распознавания лиц, разработанные Microsoft, IBM Face++ и другими компаниями, демонстрировали "предубеждения" при определении пола людей. При гендерной атрибуции белых мужчин они оказывались точнее.

Еще один пример предвзятости ИИ и вовсе побудил компанию Amazon прекратить использование электронного разума для найма сотрудников. Алгоритм предпочитал мужских кандидатов, так как был обучен на данных, полученных именно от мужчин. Проблемы предвзятости могут возникать по разным причинам, но самая основная – несбалансированный выбор материала для обучения нейросетей. У явления даже появилось название: алгоритмическая несправедливость. И пока что не придумали способа, чтобы гарантировать, что очередной алгоритм будет выносить только справедливые суждения.

Некачественное предоставление услуг

Почти что философский вопрос: кто виноват в ДТП с участием автономных автомобилей – владелец машины или компания, которая ее разработала? владелец, компания или пешеход, нарушивший правила дорожного движения? Автономные автомобили – самый очевидный повод для беспокойства в отношении ИИ, когда речь заходит о качестве предоставления услуг. Но не единственный. Кто несет ответственность за ошибочные медицинские советы, сгенерированные некачественно обученной нейросетью, если в результате страдает здоровье человека? Сейчас создатели ИИ часто "умывают руки", ссылаясь на суть генеративных нейросетей. Предполагается, что они генерируют именно контент: текст, картинку или видео, которые были бы максимально близки по контексту к запросу пользователя. Ответ таких сетей будет правдоподобным, но верным он окажется ровно настолько, насколько фактически верной была информация, на которой ИИ обучали. Размер наборов данных для обучения нейросетей огромный, и каких-либо общепринятых стандартов по наполнению таких баз данных пока что нет.

Приватность и сохранность корпоративной конфиденциальной информации

Всякий раз, когда пользователь пишет промпт, чтобы решить какую-то свою практическую задачу, он сообщает искусственному интеллекту детали либо о своей частной жизни, либо о компании, для которой он при помощи ИИ делает эту работу. Отсутствие информации о том, что владельцы ИИ-сервиса делают с этими данными – удаляют ли их, сохраняют, анализируют, используют ли в дообучении нейросетевой модели, вызывает беспокойство у защитников цифровых прав людей и служб информационной безопасности корпораций. Решения этой проблемы тоже пока нет, кроме очевидной цифровой гигиены: многие компании в этом году ультимативно запретили своим сотрудникам сообщать ChatGPT и похожим технологиям какую-либо корпоративную информацию.

Авторское право

Недавняя забастовка голливудских сценаристов стала яркой иллюстрацией этой угрозы. Сценаристы не согласились с тем, что кинокомпании использовали генеративные нейросети для создания сценариев к фильмам. Претензии сценаристов едва ли назовешь несправедливыми: ведь для обучения нейросетей использовались в том числе тексты сценариев за авторством реальных профессионалов. И делалось это не всегда с разрешения авторов. В результате забастовки сценаристы добились ограничения использования ИИ в творческом процессе, например искусственный интеллект не может создавать или переписывать литературные материалы, а любые материалы, созданные ИИ, не будут считаться исходным материалом. При этом сценаристы могут использовать ИИ для написания текстов. Однако кроме сценаристов есть еще множество правообладателей в изобразительном искусстве, музыке, литературе и других творческих сферах, где ИИ может отбирать хлеб у создателей контента. Другими словами, поводы для беспокойства в отношении ИИ не просто существуют в теории – они уже подтвердились реальными событиями. Вот почему правительства разных стран начали законодательно регулировать эту сферу.

Существующие законы об ИИ

По данным Стэнфордского университета, специалисты которого ведут учет законотворческой деятельности в области ИИ, за период с 2016 по 2023 г. количество принятых ИИ-законов подскочило с одного законодательного акта в 2016 г. до 37 штук, принятых только за 2022-й. Вот как разные страны подходят к этому вопросу.

Европейский союз

В июне 2023 г. Европейский парламент проголосовал за принятие так называемого закона об ИИ. Он классифицирует ИИ по трем категориям риска: ограниченный, высокий и неприемлемый.

  1. Неприемлемыми считаются системы ИИ, представляющие угрозу для общества (в качестве примера Европейский парламент предлагает "игрушки с голосовым управлением, которые поощряют опасное поведение детей"). Такие системы запрещены законом об искусственном интеллекте.
  2. ИИ с высокой степенью риска должен быть одобрен европейскими чиновниками до выхода на рынок, кроме того, разрешение на его использование должно обновляться на протяжении всего жизненного цикла продукта. К таким алгоритмам относятся различные скоринговые и биометрические системы, в частности ИИ-продукты, связанные с правоохранительной деятельностью, пограничным контролем, проверкой при приеме на работу.
  3. ИИ из категории ограниченного риска, к которым относятся все продукты, не вошедшие в первые две категории, должны быть соответствующим образом маркированы, чтобы пользователи могли всегда знать, что они взаимодействуют с ИИ или продуктами его деятельности и, таким образом, принимать информированные решения о своих дальнейших действиях. Закон еще не вступил в силу, он должен быть одобрен Европейским советом. Впрочем, парламентские законодатели надеются, что этот процесс завершится в конце нынешнего года.

Бразилия

В Бразилии тоже готовят свое ИИ-законодательство, и оно во многом похоже на европейское. Проект бразильского закона написан с прицелом на права пользователей, взаимодействующих с системами ИИ, вдобавок он дает рекомендации по классификации различных типов ИИ в зависимости от степени риска. Закон возлагает на поставщиков ИИ обязанность предоставлять пользователям исчерпывающую информацию о своих продуктах. Пользователи имеют право знать, что они взаимодействуют с искусственным интеллектом, а также право на объяснение того, как ИИ принял то или иное решение либо дал ту или иную рекомендацию.

Пользователи также могут оспаривать решения "электронного разума" или требовать вмешательства человека, особенно если решение ИИ может оказать существенное влияние на жизнь людей, например в системах, связанных с автономными автомобилями, приемом на работу, оценкой кредитоспособности или биометрической идентификацией. Вместе с тем разработчики ИИ обязаны проводить оценку рисков перед выводом продукта на рынок.

Самыми опасными бразильские законодатели признают ИИ, использующие "сублиминальные" технологии, то есть технологии, воздействие которых на человека (органы чувств или подсознание) способно нанести вред его здоровью и безопасности. В проекте вдобавок перечислены возможные "высокорисковые" реализации ИИ. К ним, как и в Европе, относят системы, используемые в здравоохранении, биометрической идентификации, кредитном скоринге и т.д. По замыслу авторов законопроекта, оценки рисков для "высокорисковых" продуктов ИИ должны публиковаться в государственной базе данных.

Китай

У Китая есть проект нормативного документа о генеративном искусственном интеллекте. Одно из положений проекта закона звучит так: генеративный ИИ должен отражать "основные ценности социализма", кроме того, в нем, как и в бразильском аналоге, есть немало положений об ответственности разработчиков за деятельность ИИ-систем. Согласно документу, разработчики несут ответственность за результаты, полученные от их ИИ. Помимо этого, проект закона описывает ограничения на поиск обучающих данных: например, разработчики несут юридическую ответственность, если наборы данных для обучения генеративных сетей, которые они используют, нарушают чужое авторское право. Имеется в регламенте и еще одно требование: сервисы искусственного интеллекта должны генерировать только "правдивый и точный" контент. Предлагаемые правила опираются на существующее в стране законодательство о фальсификациях, рекомендательных алгоритмах и безопасности данных.

Это дает Китаю определенное преимущество перед другими странами, разрабатывающими новые законы с нуля. Ко всему прочему, в августе 2023 г. китайский регулятор Интернета также объявил о введении ограничений на технологии распознавания лиц. В законопроекте, подготовленном Государственной канцелярией интернет-информации КНР, предлагается ограничить использование технологии только теми случаями, когда она имеет конкретную цель и необходимость. В частности, правила запрещают использование технологии для идентификации расовой и этнической принадлежности, религиозных убеждений или состояния здоровья, кроме случаев, когда человек дал на это свое согласие или если этого требует национальная безопасность.

Израиль

В 2022 г. Министерство инноваций, науки и технологий Израиля опубликовало проект политики регулирования искусственного интеллекта. Авторы документа описывают его как "моральный и бизнес-ориентированный компас для любой компании, организации или государственного органа, вовлеченного в сферу искусственного интеллекта", и подчеркивают, что он ориентирован на "ответственные инновации". В израильском проекте говорится, что при разработке и использовании искусственного интеллекта должны соблюдаться "верховенство закона, основные права и общественные интересы. В частности, должны сохраняться человеческое достоинство и неприкосновенность частной жизни". При этом каких-то конкретных запретов или инструкций политика не содержит. В одном из фрагментов документа довольно расплывчато сообщается, что для обеспечения безопасности использования продуктов ИИ "должны применяться разумные меры в соответствии с принятыми профессиональными концепциями", и на этом все. В более широком смысле проект политики поощряет саморегулирование и "мягкий" подход к государственному вмешательству в развитие ИИ. Вместо того чтобы предлагать единое общеотраслевое законодательство, документ призывает отраслевые регулирующие органы при необходимости принимать точечные меры.

Италия

Италия выбрала иной подход к регулированию ИИ. Так, в марте 2023 г. местное правительство ненадолго запретило ChatGPT, ссылаясь на опасения по поводу того, как и сколько данных о пользователях собирает чат-бот. Потом технологию вновь разрешили использовать, а кроме того, правительство стало инвестировать деньги в устранение негативных последствий ее внедрения. Конкретно – около 33 млн долларов были выделены на поддержку работников, которым грозит отставание в результате цифровой трансформации. Примерно треть этой суммы направлена на обучение работников, чьи рабочие места могут устареть в результате автоматизации процессов, которую позволяют ввести генеративные сети. Остальные средства направят на обучение цифровым навыкам безработных и экономически неактивных граждан в надежде ускорить их выход на рынок труда.

ОАЭ

Далеко не в каждой стране на первом месте в государственной стратегии, касающейся ИИ, стоит его законодательное регулирование. Например, в Национальной стратегии искусственного интеллекта Объединенных Арабских Эмиратов амбициям страны в области регулирования отведено всего несколько абзацев. В частности, Совет по искусственному интеллекту и блокчейну будет "рассматривать национальные подходы к таким вопросам, как управление данными, этика и кибербезопасность", а также наблюдать и интегрировать лучшие мировые практики в области ИИ. Остальная часть 46-страничного документа посвящена стимулированию развития искусственного интеллекта в ОАЭ путем привлечения талантливых специалистов в области ИИ и интеграции технологии в такие ключевые отрасли, как энергетика, туризм и здравоохранение. Эта стратегия, как отмечается в резюме документа, соответствует стремлению ОАЭ "к 2071 г. стать лучшей страной в мире".

Россия

В России понятие искусственного интеллекта впервые законодательно закрепили в 2020 г. Закон № 123-ФЗ вводит экспериментальное регулирование ИИ в Москве на пять лет. Он предназначен для регулирования разработки и внедрения технологий искусственного интеллекта и для возможного использования результатов работы этих технологий. Согласно закону, искусственный интеллект – это комплекс технологических решений, позволяющих имитировать когнитивные функции человека и получать результаты, сравнимые с результатами интеллектуальной деятельности человека, при выполнении конкретных задач. Чего в законе нет, так это ответов на вопросы о том, что будет, если с ИИ что-то пойдет не так. О разработке дополнительного закона, который, вероятно, закроет этот вопрос, стало известно летом 2023 г. Однако конкретики пока мало: из публикаций в СМИ известно, что он точно коснется обезличивания данных, используемых ИИ-системами.

США

Большинство компаний, занимающихся масштабными ИИ-проектами, базируются в США, и в том числе поэтому вопросы регулирования искусственного интеллекта поднимаются местными политиками уже давно. Впервые об этом на государственном уровне там задумались еще в 2016 г., а в 2019 г. в США появилась Комиссия по национальной безопасности по искусственному интеллекту, которая занималась не только вопросами применения ИИ для обеспечения нацбезопасности, но и регулированием этого применения. В регулировании искусственного интеллекта в США участвуют и различные отраслевые ведомства. Например, в компетенции Управления по контролю за продуктами питания и лекарствами входит регулирование использования ИИ в медицинской визуализации. С июня 2023 г. в Нью-Йорке действует так называемый закон о предвзятости, запрещающий компаниям, работающим и нанимающим сотрудников в Нью-Йорке, использовать автоматизированные инструменты для найма кандидатов или продвижения сотрудников, если только эти инструменты не прошли независимую проверку на предмет предвзятости. Вдобавок в июле 2023 г. администрация президента США добилась от семи компаний (Open AI, Google, Amazon, Anthropic, Inflection, Meta и Microsoft) принятия добровольных обязательств по управлению рисками, связанными с ИИ.

Компании выразили готовность обеспечить проведение внутреннего и внешнего тестирования продуктов ИИ на безопасность до их публичного выпуска. В сентябре эти же добровольные обязательства подписали еще восемь компаний (Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI и Stability AI). Но добровольные обязательства добровольными обязательствами, а конкретный и общий закон об ИИ в США вот-вот издадут. Ожидается, что до конца осени администрация Байдена издаст указ, который уполномочит федеральное правительство сформировать правила использования ИИ.
Законы, регулирующие технологии, почти всегда имеют две главные цели: определить способы легитимного применения новшества и обезопасить общество от возможных негативных эффектов. Так было с компьютерами, Интернетом, мобильными телефонами, ИИ в этом смысле не исключение. Возникновение ИИ-законов – это свидетельство развития технологии до уровня, при котором она оказывает значимое влияние на жизни людей. Для противников регулирования эти законы лишь способ затормозить развитие технологий, но для всех остальных их появление – новость скорее хорошая. Ведь в итоге законодательство поможет людям избежать проблем, которые способен создать ИИ, и в полной мере воспользоваться его преимуществами. Однако нельзя не упомянуть и о рисках подобных технологий, даже с учетом их регуляции на нормативном уровне.

Рынок физической безопасности. Экспертиза. Исследования. Обзоры

Правовое регулирование ИИ

Сейчас мы смотрим на алгоритмы ИИ как на посредников для достижения наших целей, например используем навигационное приложение "Яндекс. Навигатор", чтобы добраться до дома быстро в обход дорожных пробок, то в дальнейшем, возможно, такие алгоритмы превратятся в наших правителей. Если посмотреть за кулисы приложения "Яндекс. Навигатор", то мы увидим, что тысячи автомобилистов ежеминутно передают данные о состоянии на дорогах.
Именно поэтому приложение знает о том, как наиболее рационально проложить дорогу до дома, сохранив наше время. А что, если тысячи, нет, миллионы людей будут передавать информацию о себе, своих политических предпочтениях, состоянии здоровья и тому подобном в какое-нибудь приложение типа "Управляющий РФ", и этот алгоритм, учитывая статистические данные, будет, допустим, направлять финансы на поддержу здравоохранения в одном регионе, на развитие образования в другом? В этом случае человеческий вид окажется в прямой зависимости от действий ИИ. Это звучит как фантастика, но мы стоим к этому ближе, чем кажется. Компания Microsoft занимается разработкой и постепенным внедрением приложения Cortana, которое может стать не просто помощником, но и полноценным представителем человека, предположим, в ходе ведения переговоров. В этом направлении следуют и другие компании: Apple с Siri и Яндекс с "Алисой". Такое развитие технологий порождает множество вопросов. Может ли ИИ признаваться автором произведения науки или искусства? Будет ли ИИ равен в своих правах человеку? А если ИИ, управляющий автомобилем, совершит аварию, в результате чего пассажиры получат травму, возможно ли будет обратиться в суд и требовать возмещения вреда здоровью не с человека, а – вы только вдумайтесь – с ИИ?! И кто будет нести ответственность: пассажир или ИИ?

В обществе распространено мнение, что ИИ не превзойти человека, если не во всех, то, по крайней мере, в одной уж области точно – искусстве, и, как ни печально, данное суждение является ошибочным.

Может ли робот создать шедевр?

Если Deep Blue, который обыграл в шахматы Гарри Каспарова, был достаточно хорошо научен правилам игры своими создателями, то современный ИИ получает от программистов лишь минимальный объем информации, предпочитая самостоятельное машинное обучение.

Эти программы изменяют команды и переменные, создавая все более качественную цепочку кода для достижения поставленной задачи. Так, программа Alpha Go научилась играть в старинную китайскую настольную игру "го", которая во много раз сложнее, чем шахматы, при этом программа применяла абсолютно новые стратегии, что сильно удивило экспертов. Гораздо больше шокирует еще и то, что ИИ научился создавать уникальные произведения науки и искусства.

Появление в 2016 г. программы The Next Rembrandt разрушило представление людей в том, что ИИ не умеет творить. Данная программа проводит анализ картин Рембрандта и на основе полученных данных создает собственные картины, которые невозможно отличить от кисти великого мастера. Довольно интересная информация по поводу работы программы приведена на сайте компании Microsoft: "Результатами 18 месяцев совместной работы специалистов Microsoft, Дельфтского технического университета, Королевской галереи Mauritshuis и дома-музея Рембрандта в Амстердаме стало создание уникальной в своем роде картины, портрета, с исключительной точностью воссоздавшего творческую манеру Рембрандта". Имеется еще один прецедент, связанный с творением, полученным от ИИ. Дэвид Коуп, американский композитор и преподаватель Калифорнийского университета в Санта-Крузе разработал программу Emily Howell, способную создавать музыку, имитирующую шедевры Баха, Бетховена, Шопена и других композиторов. Следует отметить, что ряд экспериментов с участием профессиональных музыкантов позволяет утверждать, что созданную ИИ музыку не отличить от произведений великих классиков.

Не отстает ИИ от человека и в области науки – программа Watson собирает данные пациентов и на их основе создает персонализированный график лечения. В данном контексте непременно встает вопрос: кому принадлежит право авторства на указанные произведения науки и искусства?

Закон об авторском праве

Ответ на вопрос выше с точки зрения законодательства ряда государств одинаков. В соответствии с законом об авторском праве Великобритании автором считается лицо, использующее какой-либо инструмент для достижения поставленной цели. Американское законодательство базируется на том, что автором произведения науки или искусства является человек. Так, в довольно известном деле Feist Publications Верховный суд США указывает на то, что не может быть объектом авторского права произведение, в котором отсутствует минимальный творческий вклад сознания автора. Вопрос о наличии сознания у ИИ будет подробнее рассмотрен далее, но стоит сразу отметить, что сознанием ИИ не обладает, поэтому получается, что автором может быть только человек.

Что касается Российской Федерации, то, анализируя п. 1 ст. 1228 Гражданского кодекса Российской Федерации (далее – ГК РФ), допустимо сделать вывод, что автором произведения науки или искусства также может быть только физическое лицо. Исходя из буквального толкования ст. 1228 ГК РФ, приходим к выводу, что не признается автором произведения науки и искусства лицо, которое разработало программу, создавшую это произведение, поскольку "не признаются авторами результата интеллектуальной деятельности граждане, не внесшие личного творческого вклада в создание такого результата". По этому поводу приведем высказывание А.А. Семеновой (автор "Я, робот, – я, автор: попытка юридического осмысления возможности предоставления авторских прав роботам"): "С учетом этого целесообразно было бы признать авторство на работу "умной машины" за лицом, создавшим программу". Подходит к этой позиции и ст. 136 ГК РФ, где говорится, что право собственности на плоды, продукцию, доходы принадлежат собственнику вещи.

Но здесь непременно стоит отметить, что в соответствии с п. 3 ст. 1227 ГК РФ к интеллектуальным правам не применяются положения о праве собственности и других вещных правах. Таким образом, вопрос об авторстве находится как бы в "подвешенном" состоянии. Тем не менее ответ на данный вопрос возможно найти в международном праве, а именно в ст. 12 Конвенции ООН "Об использовании электронных сообщений в международных договорах" (2005 г.).

Суть данной нормы заключается в том, что операции, совершенные компьютером, допускается рассматривать как действия физических или юридических лиц, от имени которых используется компьютер. Ввиду отсутствия судебной практики эту норму косвенно можно связать непосредственно с действиями ИИ. Исходя из вышесказанного, на вопрос о том, вправе ли ИИ быть признан автором, следует ответить: нет, на данный момент. Российское законодательство, к сожалению, не имеет специальных норм, регулирующих деятельность ИИ, поэтому вопрос "Кого считать автором произведения, созданного ИИ?" остается открытым. На данный момент в российском законодательстве имеется очевидный пробел, дающий возможность создания произведения без автора, а значит, созданное ИИ произведение будет считаться общественным достоянием. Автор – это физическое лицо, то есть субъект гражданского права, поэтому в данном случае появляется прямая зависимость от того, следует ли ИИ признать субъектом правоотношений.

Нейросети больше не инструмент?

Вопрос о том, какой правовой статус следует распространять на ИИ, довольно актуален, и по нему в науке имеется огромное множество точек зрения. Первоочередно следует отметить, что на данный момент имеется государство с подданным в виде андроида, обладающего ИИ.

Тем самым создан прецедент, благодаря которому можно говорить о том, что на ИИ, как и на человека, распространяется правовой статус физического лица. Этим государством является Саудовская Аравия, а подданным – София (человекоподобный робот). На мой взгляд, решение Саудовской Аравии весьма поспешно, вряд ли рационально распространять правовой статус физического лица на объект, явно не обладающий психоэмоциональными свойствами, присущими человеку. Все же интеллект и сознание не схожие понятия. Сознание присуще всем людям, под ним понимается совокупность электрохимических реакций в клетках головного мозга, выражающихся в переживании организмом событий внешнего мира и последующей реакции на эти события. 

Короче говоря, сознание позволяет испытывать людям субъективные ощущения боли, любви, ненависти, счастья и всех прочих чувств. Интеллект – это способность использовать знания для воздействия на окружающую среду. В этой связи необходимо отметить отсутствие сознания у ИИ, а также способности чувствовать и что-либо желать. Поэтому не целесообразно уравнивать в правовом статусе человека и ИИ. Ведь в таком случае получается, что мы создаем фикцию: люди и программы будут совершать примерно одинаковые действия, желая достигнуть определенного результата, будут нести одинаковую ответственность за свои действия. Получается, что ИИ наравне с людьми получит и основополагающие права: право на жизнь, право на личную неприкосновенность и т.д. Но не следует ли нам придерживаться презумпции бессознательности ИИ? Ввиду того что у ИИ отсутствуют субъективные переживания личности, он будет сильно выделяться на фоне человека, поскольку будет явно превосходить его по многим параметрам. Да и вряд ли ИИ способен в ближайшем будущем самостоятельно осмыслить фразу "Сogito ergo sum".

All-over-IP 2024 12 – 13 ноября | живой старт  и встречи 14 ноября  – 6 декабря | онлайн

Актуальный статус ИИ

Представляется, что ИИ должен располагать особым правовым статусом. Так, некоторые исследователи считают, что к ИИ применима аналогия с юридическими лицами. Действительно, в таком случае ИИ будет иметь все признаки юридического лица, за исключением организационного единства. Но часть юристов отмечает, что в связи с этим, скорее всего, возникнет двойственный статус ИИ, поскольку он сможет быть как объектом, так и субъектом гражданского права. С точки зрения этой позиции встает еще вопрос и о праве собственности на вещи: на каком праве ИИ будет обладать вещами? Будет ли это ограниченное вещное право? Ответить на данные вопросы в данный момент не представляется возможным. Л.И. Сафаргалеев (один из авторов "E-commerce и взаимосвязанные области (правовое регулирование): сборник статей") утверждает, что к ИИ применимо правило, используемое еще в римском праве – servi res sunt (рабы – вещи), по его мнению, ИИ не может быть самостоятельным субъектом права, но вполне способен приобретать права и обязанности для своего хозяина.

Все вышеназванные позиции имеют место быть, но, по моему мнению, не лишены недостатков, так как неминуемо встает вопрос: а каков будет правовой статус ИИ после смерти его владельца? Следуя реалиям российского гражданского законодательства, получается, что для приобретения права собственности на ИИ нам необходимо будет ждать пять лет, то есть по факту в течении этого срока будет существовать "ИИ-нелегал", который имеет разум, совершает действия, но не приобретает ни для кого прав и обязанностей. Что делать? Конечно, в таком случае мы можем поступать с ИИ как с кошками, собаками и иными животными в Древнем Египте, то есть усыплять их вместе с почившими хозяевами. Но насколько это рационально?

Верно, по-моему мнению, отметил в свое время Дж. Дьюи (автор "The Historic Background of Corporate Legal Personality", Yale Law Journal): "Мы часто обсуждаем проблемы с точки зрения старых идей, тогда как решение проблемы связано с избавлением от старых идей и их заменой на понятия, более соответствующие современному состоянию идей и знаний". Интересна для рассмотрения вопроса о правовом статусе ИИ резолюция Европарламента от 16 февраля 2017 г. (далее – резолюция). В резолюции приводятся рекомендации для европейской комиссии относительно норм гражданского права о робототехнике. В тексте данного документа правовой статус ИИ является специфическим, ИИ становится своеобразным "электронным лицом". В резолюции особо подчеркивается, что ИИ призван дополнить способности человека, а не заменить его. Указывается, что ИИ не может своими действиями или бездействиями причинять вред человеку или допустить возможность причинения вреда, ИИ должен повиноваться всем приказам человека, то есть фактически закрепляются три закона робототехники, сформулированные писателем-фантастом Айзеком Азимовым в рассказе "Хоровод" в далеком 1942 г. Подход, составленный в резолюции, на мой взгляд, является наиболее целесообразным, и здесь сразу же возникает вопрос об ответственности ИИ. Представьте себе, что вы едете в автомобиле, управляемом искусственным интеллектом. Транспортное средство находится в вашей собственности, и неожиданно вы въезжаете в толпу прохожих. Несколько прохожих получили легкие повреждения, вы испытали сильный эмоциональный стресс, у машины был поврежден бампер. Кто в данном случае будет возмещать убытки за причиненный вред здоровью, моральный вред, ущерб, нанесенный автомобилю? В соответствии с российским законодательством возмещать все убытки будет владелец источника повышенной опасности. Но ведь автомобилем управлял ИИ.

Не будет ли это считаться непреодолимой силой? Мог ли владелец автомобиля вовремя осознать опасность для окружающих и взять управление на себя? Ввиду отсутствия судебной практики ответить на этот вопрос затруднительно, но ряд государств уже ввели нормы, регулирующие ответственность в случае возникновения таких казусов. 

Стоит подробнее остановиться на опыте ФРГ. Так, в Германии в 2017 г. был принят Восьмой закон о внесении изменений в Закон о дорожном движении от 16 июня 2017 г., которым фактически оформилась возможность использовать беспилотный транспорт. В законе устанавливается, что водитель может отвлекаться от происходящего на дороге, но он обязан взять управление на себя, если ИИ предлагает сделать ему это в значительной части или полностью. Водитель также должен взять управление на себя, если он осознает или должен осознавать, что дальнейшее управление автомобилем ИИ невозможно, например, когда водитель видит, что автомобиль под управлением ИИ направляется в толпу пешеходов и т.п.

При этом в случае, если имело место причинение вреда человеку или имуществу по вине водителя, то ответственность будет нести он, если вред был причинен из-за технической ошибки, то отвечать будет автопроизводитель.

В Германии, на мой взгляд, подход к ответственности кажется действительно достаточно качественным, поскольку не может и не должен нести ответственность автомобилист, который не сумел взять управление автомобилем на себя в результате технической ошибки. Вопрос об ответственности также поднимается в резолюции Европарламента от 16 февраля 2017 г.

В документе указывается, что ИИ не может нести ответственность сам по себе, поскольку его действия или бездействия зависят от оператора (владельца), то есть ИИ является своеобразным инструментом для достижения конкретной цели. Ввиду вышесказанного устанавливается ответственность не только владельца ИИ, но и производителя, если какой-либо ущерб был причинен из-за технической ошибки. Однако в резолюции также говорится о том, что чем выше автономность ИИ, тем меньше он расценивается как обычный инструмент. Это вызывает вопрос: может ли ИИ самостоятельно отвечать за свои действия или бездействия? На данный момент – нет, но стоит отметить, что по мере развития технологий юристы непременно вернутся к этому вопросу. Пока что вероятно лишь предложить варианты ответственности ИИ. В связи с этим вполне рабочую идею предложили Г.А. Гаджиев и Е.А. Войниканис (авторы статьи "Может ли робот быть субъектом права (поиск правовых норм для регулирования цифровой экономики)", Право. Журнал Высшей школы экономики). Ее суть заключается в том, что ИИ будет нести ответственность за счет средств, находящихся на счете непосредственно у ИИ. Реализовать данную идею возможно, если при регистрации какого-либо ИИ его владелец будет вносить определенную сумму, которая в дальнейшем будет аккумулирована в страховом фонде и в случае возникновения страхового случая будет направлена на его удовлетворение. В конце концов, если ИИ будет признан самостоятельным субъектом права, то он сможет трудоустраиваться, иметь свой банковский счет и самостоятельно отчислять деньги в свой страховой фонд.

Подытожим

На данный момент ИИ не может быть признан автором произведения науки или искусства, поскольку такая возможность появится лишь при признании ИИ субъектом правоотношений.

Нормы законодательства ряда государств не признают ИИ в качестве субъекта правоотношений. Однако Саудовская Аравия предоставила гражданство роботу Софии, что говорит о признании за ИИ статуса физического лица. Такой подход кажется преждевременным, поскольку человек и ИИ не совпадают в плане своих психоэмоциональных качеств и свойств. В то же время вполне возможным представляется говорить о признании за ИИ особого статуса "электронного лица". Это позволило бы не смешивать понятия в праве и никоим образом не нарушало бы прав людей. Вопрос об ответственности ИИ также является неурегулированным. В случае причинения вреда человеку или имуществу ответственность в соответствии с реалиями законодательства будет нести или владелец источника, причинившего вред, или же его производитель. Представляется, что необходимо обязать ИИ возмещать причиненный вред, если у него для этого будут иметься все необходимые ресурсы, и в первую очередь наличие денежных средств. Вопрос об аккумуляции денежных средств можно решить путем внесения во время регистрации ИИ его владельцем денежных средств в страховой фонд или же в случае, если сам ИИ сможет зарабатывать денежные средства, воздействовать на него уже известными нам способами, предположим, путем списания средств с банковского счета и т.п. Данная тема имеет огромный исследовательский потенциал. ИИ непременно станет частью будущего человечества, поэтому необходимо всерьез подходить к вопросам, связанным с его правовым статусом и регулированием отношений с его участием.

Опубликовано в журнале "Системы безопасности" № 4/2024

Все статьи журнала "Системы безопасности"
доступны для скачивания в iMag >>

Изображение от Freepik

Календарь мероприятий компании "ГРОТЕК"

Темы:Цифровая трансформацияИскусственный интеллектЖурнал "Системы безопасности" №4/2024
Статьи по той же темеСтатьи по той же теме

Хотите участвовать?

Выберите вариант!

 

КАЛЕНДАРЬ МЕРОПРИЯТИЙ
ПОСЕТИТЬ МЕРОПРИЯТИЯ
ВЫСТУПИТЬ НА КОНФЕРЕНЦИЯХ
СТАТЬ РЕКЛАМОДАТЕЛЕМ
Комментарии

More...

More...