Российские ученые разработали подход, позволяющий блокировать нелегальное использование моделей компьютерного зрения и точно идентифицировать их без переобучения и дополнительных вычислений, сообщила пресс-служба Центрального университета. Отмечено, что это позволит решить проблему пиратства и защиты авторских прав в эпоху искусственного интеллекта.
"Существующие методы требуют интеграции защитных механизмов на этапе обучения, что делает их сложными в реализации на практике и почти неприменимыми для уже готовых моделей. Мы разработали революционное решение, позволяющее встроить защиту в модель без необходимости ее переобучения", – сказал старший научный сотрудник Лаборатории ИИ, анализа данных и моделирования ЦУ (Москва) Глеб Рыжаков, чьи слова приводит пресс-служба вуза.
Как отмечает Рыжаков, в последние годы большое число исследователей и крупных ИТ-корпораций вкладывает много сил, ресурсов и времени в разработку систем компьютерного зрения и прочих форм искусственного интеллекта. Подобные продукты очень сложно защитить от кражи и несанкционированного использования и присвоения, а также подтвердить авторские права на данные технологии.
Российские ученые разработали подход, который позволяет решить эту задачу без ограничений, характерных для уже существующих методов защиты технологий ИИ от кражи. Исследователи предложили встроить в уже обученную модель специальные "нейроны-детекторы", которые будут игнорировать обычные изображения и будут активироваться только в том случае, если на картинке есть специальный "раздражитель", играющий роль секретного ключа.
Аналогичным образом в уже готовую модель можно встроить "нейроны-нарушители", которые будут намеренно вносить помехи и препятствовать работе системы в том случае, если в обрабатываемых данных отсутствует подобный ключ. Проведенные учеными тесты показали, что встраивание подобных нейронов не приводит к появлению сбоев в работе алгоритмов машинного зрения, так как вероятность их случайной активации составляет менее 0,01%.
Как отмечают исследователи, в будущем этот подход можно будет применять не только для защиты моделей компьютерного зрения, но и больших языковых моделей, систем принятия решений и прочих ИИ-алгоритмов. Это позволит создать оптимальные условия для появления надежно защищенного рынка лицензирования технологий искусственного интеллекта, подытожили разработчики.