Статьи

Безопасность на новом уровне: искусственный интеллект

Развитие технологий происходит с огромной скоростью, это приводит к улучшению нашей жизни, автоматизации многих процессов, но вместе с тем несет новые риски с точки зрения обеспечения безопасности. Существует множество различных систем безопасности, большинство из которых все же основаны на ручном контроле, а алгоритмы, заложенные в программное обеспечение данных систем безопасности, не готовы к потенциальным угрозам. В данной статье мы поговорим о внедрении искусственного интеллекта в различные системы безопасности и о возможностях, которые он создает.

Регистрация на онлайн-конференции для специалистов в области ИТ и безопасности

Искусственный интеллект (ИИ) – компьютерная программа, которая принимает и анализирует данные, а затем делает выводы на их основе. Это может быть отнесение фотографии к определенному классу, группировка текстов схожей тематики, предсказание курса валют, а также более сложные задачи, например написание других компьютерных программ, проектирование строений, анализ почвы и т.д.

Искусственным интеллектом считается программа, фильтрующая спам в электронной почте; программа, показывающая рекламу с учетом вашего места жительства, интересов и поисковых запросов, а также голосовой помощник в смартфоне/колонке или программное обеспечение (ПО), управляющее беспилотным автомобилем.

Категории искусственного интеллекта

Искусственный интеллект принято разделять на четыре простые категории.

Реагирующий ИИ

У таких технологий очень ограниченная память и "поле действия". Например, искусственный интеллект в шахматах создан только для того, чтобы анализировать действия игрока и подбирать наиболее оптимальный вариант для продолжения партии.

ИИ с ограниченной памятью

Это наиболее распространенная в наше время категория искусственного интеллекта. Например, ИИ в беспилотных машинах или голосовой помощник – все это ИИ с ограниченной памятью, хотя размеры этой памяти и ее ограниченность – условные понятия. Например, памяти в ИИ, который следит за дорогой, больше, чем в ИИ, что собирает информацию о вашем местоположении.

ИИ с элементами разума

Этот ИИ будет обладать не полноценным сознанием, а лишь подобием человеческого мозга. Такой ИИ станет понимать человеческие эмоции и даже будет способен поддерживать нормальную беседу, быть частью социума, а не просто отвечать на вопросы, как Алиса, Маруся и другие виртуальные помощники. Ученые рассчитывают использовать ИИ с теорией разума в психологических исследованиях, но такого ИИ пока не существует.

ИИ, осознающий себя

Это, возможно, не такое далекое будущее. Недавно инженер Google сказал, что ИИ, созданный в компании, "выдал себя", отметив, что не хочет "умирать", то есть быть отключенным. Возможно, мы, простые люди, ничего не знаем и такие ИИ уже существуют – они полностью осознают, что они, где они находятся и чего хотят.

Принципы ИИ

Началу работ по созданию искусственного интеллекта положила идея о создании машин, способных "думать" и решать проблемы. Это может касаться как строго специализированной задачи, например выявить спам в электронной почте, так и попытки воспроизвести сложные когнитивные процессы, такие как планирование или творчество. Сегодня большинство случаев применения ИИ относится к узким задачам, где компьютеры превосходят человека в скорости обработки информации или точности выполнения операций.

Первые принципы ИИ были заложены американским информатиком Джоном Маккарти, придумавшим термин "искусственный интеллект".

Искусственный интеллект возник и продолжает существовать на пересечении нескольких дисциплин, таких как математика, компьютерные науки, психология и лингвистика. Большое значение в его развитии играют методы машинного обучения и нейронные сети, которые позволяют системам самостоятельно "учиться" на данных, улучшать результаты без вмешательства человека. Главная цель работ над ИИ – сделать так, чтобы машины были способны действовать автономно, решать поставленные задачи эффективнее человека.

Анализ данных

Различия между традиционной и ИИ-аналитикой существенны. Они влияют на все, от методологий и обработки данных до скорости, генерации инсайтов, масштабируемости и поддержки принятия решений.

Традиционная аналитика

Фокус: преимущественно использует описательный (что произошло?) и диагностический (почему произошло?) анализ, предоставляя ретроспективный взгляд.

Данные: обычно работает со структурированными данными.

Процесс: часто более медленный, ручной, сильно зависит от аналитиков, использующих статический анализ. Нередко предполагает формулирование гипотез и их проверку – форма ручного, неискусственного анализа.

Ограничения: ограниченная масштабируемость, старые инструменты часто неэффективны для больших данных или глубоких инсайтов, возможна человеческая предвзятость. Поддерживает преимущественно ретроспективные решения.

ИИ-аналитика (включая аналитику на базе ИИ)

Фокус: использует предиктивный (что будет?) и прескриптивный (что делать?) анализ, задействуя возможности аналитического ИИ. Анализ искусственного интеллекта/анализ с помощью искусственного интеллекта позволяет создавать мощные прогнозные модели.

Данные: эффективно обрабатывает как структурированные, так и неструктурированные данные.

Процесс: предоставляет инсайты в реальном времени и автоматизацию. Использует динамический анализ с непрерывным обучением, обеспечивая объективный анализ, часто свободный от человеческой предвзятости. Способна быстро проверять бесчисленное количество гипотез. Это не просто анализ ИИ, это проактивная поддержка через сложный анализ данных с помощью искусственного интеллекта.

Преимущества ИИ-аналитики

Технология анализа больших данных позволяет интегрировать массивные неструктурированные и структурированные данные, а также анализировать и вычислять их атрибуты. Она обеспечивает мощные возможности распределенных вычислений и управления базами данных для ИИ, что является важной поддержкой для анализа, прогнозирования и самосовершенствования ИИ.

Технология больших данных состоит из трех частей, это управление большими данными, крупномасштабные распределенные вычисления и интеллектуальный анализ данных. Управление массивами данных используется для сбора и хранения всесторонней информации из ресурсов, задействованных в применении ИИ, и для накопления данных на основе времени.

В то же время ценные данные могут быть сформированы с помощью интеллектуального анализа больших данных, что обеспечивает более эффективные выборки данных для глубокого обучения.

Технология анализа больших данных может значительно снизить затраты на рабочую силу, повысить эффективность и даже сделать возможным решение некоторых задач, которые нельзя выполнить вручную в некоторых аспектах. Это, например, поиск по лицу, базе данных персонала, базе данных идентификационных карт, дублирующий поиск персонала с помощью семантического описания из видео для поиска транспортного средства определенного цвета, поиска номерного знака, поиска изображений, ассоциации видео и других приложений.

Решения на основе ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Искусственный интеллект в области безопасности

ИИ в безопасности позволяет автоматизировать многие рутинные задачи, связанные с мониторингом и анализом данных. Это значительно ускоряет выявление угроз и позволяет оперативно реагировать на них. Например, ИИ может анализировать огромные объемы данных в реальном времени, выявляя аномалии и подозрительную активность. Это особенно важно для обнаружения сложных и многоэтапных атак, которые могут быть не видны при использовании традиционной аналитики.

Применение ИИ в обеспечении безопасности актуально и для автоматического анализа файлов и программ на предмет наличия вредоносного кода. В отличие от традиционных антивирусных программ системы на базе ИИ анализируют поведение программ в песочнице, выявляя вредоносное ПО на основе его действий. Такие решения не только обнаруживают уязвимости, но и предоставляют рекомендации по их устранению или даже автоматически применяют патчи и обновления. Однако важно учитывать, что такие системы требуют тщательной настройки и регулярного обновления данных для обучения, чтобы поддерживать высокий уровень безопасности и минимизировать риски ложных срабатываний и неверного принятия решений.

ИИ может выполнять контекстный анализ и корреляцию событий – это позволяет более точно определять, является ли конкретное действие частью кибератаки. Такие системы анализируют множество факторов, включая временные метки, источники данных и типы активности, что помогает выявить сложные атаки, состоящие из множества этапов.

Традиционные системы обнаружения угроз часто генерируют большое количество ложных срабатываний, что усложняет работу ИТ-специалистов. ИИ помогает снизить количество ложных срабатываний, анализируя данные с учетом контекста и поведения системы.

Мониторинг, поиск угроз, реагирование на инциденты и другие обязанности часто выполняются вручную и отнимают много времени, что может задержать действия по исправлению, увеличить незащищенность и повысить уязвимость для киберпреступников. И только за последние несколько лет разработки ИИ быстро развились до такой степени, что они могут принести существенные преимущества в операциях киберзащиты для широкого диапазона организаций и структур. Автоматизированные ключевые элементы основных функций ИИ помогли преобразовать рабочие процессы в кибербезопасности в оптимизированные, автономные, непрерывные процессы, которые ускоряют восстановление и обеспечивают максимальную защиту.

Риски, связанные с использованием ИИ

Развитие любой технологии связано не только с большими возможностями, но и с реальными угрозами. ИИ не является исключением. Поэтому службы безопасности любой серьезной компании должны ясно представлять, какой ущерб может быть от внедрения ИИ в целом. Для организаций и бизнеса это, например, потеря или прямое хищение денег; дискредитация работников; нарушение штатного режима работы автоматизированной системы управления (управляемого объекта, процесса); срыв запланированной сделки с партнером и потеря клиентов и поставщиков; необходимость дополнительных затрат на восстановление деятельности и т.д.

Важно знать, что основное преимущество ИИ в кибербезопасности – это способность прогнозировать атаки и наращивать защиту до того, как они начнутся. ИИ помогает сразу полностью видеть все сетевые инфраструктуры организации и анализировать уязвимые точки для обнаружения. Для безопасности применяются традиционные для ИИ области – распознавание голоса и лиц, автопилоты и др.

Несмотря на высокую точность, ИИ-системы не застрахованы от ошибок. Они могут неправильно интерпретировать данные или события, что приводит к ложным оповещениям о потенциальных угрозах. Например, алгоритм машинного обучения может неверно классифицировать нормальную активность как подозрительную, и это влечет излишнее использование ресурсов при ложных срабатываниях, поэтому требуются постоянный контроль и настройка систем ИИ для минимизации подобных рисков.

ИИ-системы также подвержены атакам. Одной из таких угроз являются генеративные атаки (adversarial attacks), когда злоумышленники вводят специально созданные данные, чтобы обмануть модель. Например, добавив незначительные изменения в изображение или данные, можно заставить модель неправильно классифицировать угрозу.

Еще одним важным риском является чрезмерное доверие к ИИ. Автоматизированные системы могут быть полезны, но они не заменяют человеческий контроль. Полная зависимость от ИИ может привести к катастрофическим последствиям, если система даст сбой или будет обманута. Например, ошибка в алгоритме может остановить всю инфраструктуру безопасности компании или позволить злоумышленникам получить доступ, пока люди уверены, что "ИИ всё контролирует".

Злоумышленники быстро адаптируются к новым технологиям и находят способы использовать ИИ против его создателей. Понимание этих угроз помогает минимизировать возможные проблемы и сделать использование ИИ более безопасным.

Этические и правовые вопросы

Одна из главных проблем в использовании ИИ – это "эффект черного ящика", когда алгоритмы принимают решения, но их логика остается скрытой даже для разработчиков. Если специалисты не понимают, почему ИИ классифицирует определенное действие как угрозу, это не только усложняет верификацию и исправление ошибок, но и подрывает доверие к системе. Отсутствие прозрачности может также вызвать правовые споры, особенно если решения ИИ повлекли за собой финансовые убытки или скомпрометировали данные.

Когда ИИ принимает неверное решение, последствия могут быть катастрофическими. Например, пропуск реальной угрозы может привести к утечке данных, а ложное срабатывание – к блокировке легитимных действий.

Одним из ключевых правовых аспектов использования ИИ является защита персональных данных. Законодательство многих стран требует обеспечения конфиденциальности и безопасности личных данных при их обработке. В России это регулируется Федеральным законом № 152-ФЗ "О персональных данных", который устанавливает строгие требования к обработке персональных данных, включая меры по защите информации от несанкционированного доступа, утечек и других угроз.

Важным правовым требованием является получение согласия на обработку персональных данных. Пользователи должны быть осведомлены о том, какие данные собираются и как они будут использоваться. Организации должны предоставлять пользователям ясную и полную информацию о целях сбора данных, методах обработки и мерах защиты, а также правах пользователей на доступ, исправление и удаление их данных.

Компании должны уважать право пользователей на неприкосновенность частной жизни и использовать данные только в тех целях, для которых они были собраны. Принцип минимизации данных требует сбора только необходимой для выполнения конкретных задач информации.
В настоящее время ИИ считается инструментом, созданным человеком, а не самостоятельным субъектом, который мог бы нести юридическую ответственность за свои действия. Если ИИ совершает ошибку или наносит вред, ответственность лежит на тех, кто создал, использует или управляет этой системой (разработчики, компании, пользователи).

Пока не определено, как именно должна быть отражена ответственность за ошибки и вред, причиненный ИИ. Рассматривается несколько моделей: ответственность разработчиков и компаний, создателей и пользователей ИИ. Возможно, возникла потребность введения особой категории "технологическая ответственность".

Например, если автономное транспортное средство совершает аварию, кто должен отвечать – владелец, разработчик программного обеспечения или производитель автомобиля?

Развитие ИИ создает как возможности, так и риски для прав и свободы человека. Одной из основных проблем является нарушение прав на конфиденциальность. ИИ-системы собирают и обрабатывают огромные объемы данных, включая биометрические и персональные, которые могут привести к злоупотреблениям. Кроме того, алгоритмы, используемые для анализа данных, могут отслеживать поведение людей и принимать решения на основе прогнозов. Без контроля это может стать угрозой для свободы личности и прав на частную жизнь.

Другая угроза – возможное нарушение свободы слова и информации. ИИ-системы, например, применяются для фильтрации информации в некоторых соцсетях. Если алгоритмы ИИ работают с предвзятыми данными или без учета плюрализма, они могут ограничить доступ к информации, усиливая цензуру. Это особенно важно в современном мире, где свобода слова является значимой частью демократического общества.

Варианты регулирования многочисленны, в том числе на основе уже существующих норм. Так, технологии, использующие ИИ, можно регулировать как объекты авторских прав либо как имущество. Однако сложности возникают, если учесть, в частности, способность к автономному действию помимо воли создателя, собственника или владельца.

Распространенным предложением является применение к таким системам норм о юридических лицах. Поскольку юридическое лицо является искусственно сконструированным субъектом права, то системы ИИ также можно наделить аналогичным статусом.

Законодательные нормы могут быть достаточно гибкими. Однако аналогия с юридическими лицами проблематична, поскольку, по сути, концепция юридического лица нужна для быстрого и эффективного осуществления правосудия, но действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить. Другими словами, правовая ответственность компаний и похожих образований связана с действиями, выполняемыми их представителями или работниками. Более того, в случае уголовной ответственности юридических лиц она возможна только при условии, что физическое лицо, совершившее действие от имени юридического лица, определено. Действия же систем на основе ИИ не обязательно будут прямо восходить к действиям человека.

В связи с особенностями ИИ звучат предложения о непосредственной ответственности определенных систем. В соответствии с такими взглядами не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия.

Однако открытым остается вопрос о необходимости либо желательности введения такой ответственности (во всяком случае, на данном этапе). Это в том числе связано с этическими проблемами. Возможно, сделать программистов или пользователей автономных систем ответственными за действия таких систем будет более эффективным. Однако это же может замедлить инновации. Поэтому необходимо продолжить поиски оптимального баланса.

Создавайте ведущее отраслевое издание по безопасности вместе с нами!


Иллюстрация к статье сгенерирована нейросетью Kandinsky 

Поделитесь вашими идеями

Подписаться на новости