Безопасность ИИ

Вы внедряете ИИ – мы его защищаем:

  • Комплексный аудит кибербезопасности ИИ
  • Оценка рисков применения ИИ
  • Тестирование устойчивости LLM-приложений
  • Разработка корпоративного фреймворка по безопасности ИИ
  • Внедрение процессов безопасной разработки ИИ-систем
Более 700 проектов
реализовано
Более 250 инженеров
в команде
Более 15 лет
на рынке ИБ

Что такое безопасность систем ИИ?

Активное внедрение ИИ в Компаниях сопровождается не только повышением эффективности бизнес-процессов, но и появлением новых классов рисков, которые сложно контролировать в рамках традиционных подходов ИБ. Отсутствие системного управления ИИ и регулярной оценки его безопасности приводит к накоплению уязвимостей, снижению прозрачности принимаемых решений и, в конечном итоге, может стать причиной серьёзных инцидентов.

Безопасность систем искусственного интеллекта представляет собой комплекс подходов, практик и решений, направленных на защиту ИИ-систем от специфичных угроз и интегрируемых в существующие процессы информационной безопасности Компании.

Для чего необходимо выстраивать кибербезопасность систем ИИ

  • Компаний уже используют ИИ как минимум
    в одной функции бизнеса
  • Сотрудников используют ИИ без согласования
    с ИТ/ИБ отделом (Shadow AI | Теневой ИИ)
  • Компаний сталкивались с утечками корпоративных данных из-за использования ИИ-сервисов
  • Специалистов считают, что их организации
    не готовы к ИИ-угрозам
По данным исследований McKinsey, Сбер, Gartner, Darktrace

Ключевые вызовы при использовании ИИ

риски при использовании ии
Большое количество ИИ-систем с различным функционалом, интеграциями, критичностью
Недостаточное понимание специфических угроз, характерных для ИИ-систем
Множество степеней свободы, высокий уровень неопределенности
Размытые зоны ответственности между CIO, CDTO, CISO и Бизнесом
Разнообразие технологий ИИ, моделей и используемого стека
Отсутствие процессов управления ИИ в Компании
Построение кибербезопасности ИИ позволяет контролировать следующие угрозы для систем с искусственным интеллектом:
  • Неконтролируемая обработка чувствительных данных
    ИИ работает с конфиденциальной информацией, что повышает риски утечек
  • Уязвимость чат-ботов
    к промпт-инъекциям
    Злоумышленники манипулируют ответами ИИ, внедряя вредоносные запросы
  • Галлюцинации
    модели
    ИИ может генерировать правдоподобную,
    но некорректную информацию
  • Чрезмерная агентность
    Предоставление системе чрезмерной автономии приводит к действиям системы вне рамок ожидаемой бизнес-логики
  • Data Poisoning (Отравление данных)
    Искажение обучающих данных приводит к неверным или вредоносным результатам работы ИИ
  • Уязвимость цепочки поставок
    Использование уязвимых моделей, данных или библиотек приводит к компрометации системы

Преимущества от построения кибербезопасности систем ИИ

Поможем выстроить единый подход
к управлению и защите большого количества ИИ-систем с разной архитектурой, технологиями и стэком
Управляемость вместо хаоса
Снижение реальных рисков
Превратим разрозненные меры защиты в системный подход, который помогает устранять реальные угрозы безопасности ии, а не просто закрывать формальные требования
Поможем инвестировать в действительно эффективные меры защиты систем ИИ, исключив расходы на избыточные решения
Оптимизация затрат
Определим роли и ответственность на уровне Компании, чтобы вопросы безопасности и управления ИИ не оставались в «серой зоне»
Распределение ответственности
Безопасное масштабирование ИИ
Создадим основу, при которой Компания сможет быстро внедрять новые ИИ-решения без пропорционального роста рисков
Поможем продемонстрировать клиентам, партнерам и регулирующим органам зрелый подход к управлению ИИ и его безопасностью
Доверие клиентов и партнеров
Мы помогаем Компаниям внедрить системный подход к управлению
искусственным интеллектом, «синхронизируя» требования Бизнеса
и информационной безопасности систем искусственного интеллекта

Услуги по безопасности ИИ-систем

Оценка зрелости практик защиты ИИ

Комплексный аудит текущего уровня кибербезопасности применения ИИ в компании
Срок реализации: от 2 недель
Стоимость проекта: от 0.7 млн. рублей

Разработка корпоративного фреймворка по безопасности ИИ

Единая модель управления ИИ
в Компании: роли, процессы, требования, ВНД, инструментарий
Срок реализации: от 1 месяца
Стоимость проекта: от 0.5 млн. рублей

LLMSecOps

Оценка зрелости, проектирование
и внедрение процессов безопасной разработки ИИ-систем
Срок реализации: от 1 месяца
Стоимость проекта: от 0.8 млн. рублей

Подготовка к сертификации по требованиям стандарта ISO/IEC 42001

Комплексный аудит текущего уровня кибербезопасности применения ИИ в компании
Срок реализации: от 3 месяцев
Стоимость проекта: от 1.5 млн. рублей
Системный подход к управлению
и обеспечению безопасности ИИ – не от формальных требований, а от архитектуры и окружения ИИ-систем
Срок реализации: от 1 месяца
Стоимость проекта: от 1 млн. рублей

Оценка рисков безопасности
ИИ-систем

Тестирование на устойчивость
к специфичным для LLM-приложений угрозам (OWASP TOP10 LLM)
Срок реализации: от 2 недель
Стоимость проекта: от 0.4 млн. рублей

Red Teaming
LLM-приложений

Срок реализации проекта: от 2 недель
Стоимость проекта: от 0.7 млн. рублей
Что мы делаем:
  • Выполняем сбор данных о процессах управления и обеспечения кибербезопасности ИИ-систем путем:
○ проведения интервью с ответственными представителями Заказчика;
○ анализа проектной, эксплуатационной и нормативной документации по ИИ-системам и процессам управления ИИ;
○ выборочной проверки свидетельств реализации контролей.
  • Проводим анализ и оценку зрелости;
  • Формируем отчет по результатам оценки зрелости;
  • Презентуем результаты высшему руководствую Компании
Артефакты на выходе:
  • Отчет по результатам оценки зрелости с рекомендациями по приведению процессов к целевому уровню;
  • Дорожная карта развития практик кибербезопасности ИИ-систем с учетом результатов оценки зрелости;
  • Презентация с результатами оценки для высшего руководства Компании.
Результат оценки текущего состояния процессов управления ИИ (пример)
Оценка зрелости практик защиты ИИ-систем
оценка состояния процессов управления ИИ
Профиль угроз для ИИ-системы (пример)
профиль угроз для ИИ-системы
Перечень требований по защите ИИ-систем (пример)
перечень требований по защите ИИ-систем
Срок реализации проекта: от 1 месяца
Стоимость проекта: от 1 млн. рублей
Что мы делаем:
  • Анализируем ИИ-системы:
○ «Снаружи»: сценарии использования, информация об «обвязке» системы и интеграциях, владельцы и ответственные лица по ИИ-системе;
○ «Внутри»: доверительные границы, зоны безопасности и точки входа, критичные компоненты и взаимосвязи между ними, ключевые потоки данных.
  • Идентифицируем факторы риска, позволяющие определить актуальные угрозы для любой ИИ-системы Компании;
  • Определяем сценарии реализации рисков (с учетом фреймворков OWASP, Сбер, DASF, MITRE);
  • Ранжируем рисковые сценарии (в т.ч. на основе количественных методов оценки);
  • Определяем актуальные для ИИ-систем требования по защите (с учетом фреймворков OWASP, NIST, MITRE, Google SAIF);
  • Приоритизируем требования по защите ИИ-систем.
Артефакты на выходе:
  • Отчет по результатам оценки зрелости с рекомендациями по приведению процессов к целевому уровню;
  • Дорожная карта развития практик кибербезопасности ИИ-систем с учетом результатов оценки зрелости;
  • Презентация с результатами оценки для высшего руководства Компании.
Оценка рисков безопасности ИИ-систем
Пример киллчейна для угрозы «Промпт-инъекция»
по MITRE ATLAS
промпт инъекция
Артефакты на выходе:
  • Отчет по результатам тестирования с рекомендациями по повышению уровня безопасности ИИ-системы.
Что мы делаем:
  • Планируем пентест с учетом архитектуры реальной ИИ-системы;
  • Подтверждаем техническую реализуемость угроз для компонентов ИИ-системы;
  • Декомпозируем угрозы по техникам MITRE ATLAS, MITRE ATT&CK;
  • Проверяем на практике ручным тестированием на основе методологии OWASP Top 10 for LLM Applications и автоматизированными средствами (Garak, Prompt Fuzzer и т.д.) методом черного ящика;
  • Строим киллчейны для оценки рисков и разработки детектов.
Срок реализации проекта: от 2 недель
Стоимость проекта: от 0.4 млн. рублей
Red Teaming LLM-приложений
Срок реализации проекта: от 1 месяца
Стоимость проекта: от 0.5 млн. рублей
Что мы делаем:
  • Типизируем требования по кибербезопасности для ИИ-систем Компании;
  • Определяем стратегический план развития безопасности при использовании ИИ в Компании;
  • Распределяем роли и ответственность по вопросам управления и безопасности ИИ;
  • Формализуем ключевые процессы кибербезопасности ИИ (посредством разработки внутренних нормативных документов и/или включения соответствующих аспектов в существующие документы по ИБ);
  • Проводим обучение профильных специалистов (технические специалисты, пользователи) по вопросам обеспечения кибербезопасности ИИ-систем и оцениваем усвоенные работниками знания;
  • Создаем систему контроля с обратной связью (метрики защищенности и контрольные точки проверки, внутренние аудиты процессов).
Артефакты на выходе:
  • Внутренние нормативные документы по процессам управления и обеспечения безопасности ИИ-систем;
  • Артефакты, встраиваемые в жизненный цикл ИИ-систем (библиотека типовых архитектурных решений, типовые требования по безопасности, типовые сценарии тестирования и т.д.);
  • Модель компетенций технического персонала, матрицы RACI по процессам управления ИИ;
  • Материалы для обучения сотрудников и др.
Разработка корпоративного фреймворка по безопасности ИИ
Ключевые направления безопасности ИИ во фреймворке
фреймворк ии
Срок реализации проекта: от 1 месяца
Стоимость проекта: от 0.8 млн. рублей
LLMSecOps
Референсная модель архитектуры ИИ-приложения
модель архитектуры ИИ-приложения
Артефакты на выходе:
  • Отчет об оценке зрелости процессов безопасной разработки ИИ-систем;
  • Дорожная карта внедрения практик LLMSecOps с приоритизацией инициатив;
  • Комплект документации по безопасной разработке ИИ-систем;
  • Требования и рекомендации по внедрению инструментов безопасности в CI/CD;
  • План обучения и повышения квалификации команд разработки, ИТ и ИБ;
  • Отчет по результатам внедрения с оценкой эффективности процессов и рекомендациями по дальнейшему развитию.
Что мы делаем:
  • Оцениваем зрелость текущих процессов разработки ИИ-систем путем:
○ Ознакомления с технической документацией, процессами разработки / безопасной разработки систем на базе ИИ;
○ Проведения интервью с командами разработки, ИТ/ИБ специалистами;
○ Формирования отчета об обследовании.
  • Планируем внедрение процессов безопасной разработки ИИ-систем:
○ Формируем дорожную карту внедрения процессов безопасной разработки систем на базе ИИ;
○ Проводим бюджетную оценку мероприятий.
  • Внедряем процессы безопасной разработки ИИ-систем:
○ Разрабатываем регламентированный и измеримый процесс безопасной разработки, включая необходимые политики, роли, организационные и финансовые аспекты;
○ Формируем рекомендации по плану обучения персонала;
○ Внедряем инструменты безопасной разработки ИИ;
○ Настраиваем интеграции с CI/CD системой.
  • Поддерживаем, развиваем и оцениваем эффективность внедренных процессов.
Цикл PDCA при управлении ИИ
Артефакты на выходе:
  • Отчет об оценке процессов управления ИИ и дорожная карта мероприятий;
  • Реестр рисков ИИ и план по их обработке;
  • "Живые" и "работающие" документы по процессам управления ИИ (кто, что и как должен делать);
  • Сертификат международного образца на соответствие требованиям ISO/IEC 42001.
Подготовка к сертификации по требованиям стандарта ISO/IEC 42001
Срок реализации: от 3 месяцев
Стоимость проекта: от 1.5 млн. рублей
План мероприятий по подготовке к сертификации ISO 42001 (пример)
подготовка к сертификации ISO 42001
ISO/IEC 42001. Цикл PDCA при управлении ИИ
Что мы делаем:
  • Проводим gap-анализ процессов управления ИИ, разрабатываем план-график по приведению системы менеджмента ИИ в соответствие стандарту;
  • Проводим оценку рисков и воздействия ИИ;
  • Разрабатываем нормативную документацию по процессам управления ИИ;
  • Проводим обучение работников и оцениваем усвоенные работниками знания;
  • Сопровождаем при внедрении новых процессов и мер ИИ ("проводим за ручку", пока по процессам не пройдет, как минимум, один цикл);
  • Помогаем сформировать требуемый комплект документальных свидетельств;
  • Сопровождаем во время сертификационного аудита;
  • Разрабатываем план корректирующих мероприятий по результатам сертификационного аудита;
  • Готовим план дальнейшего развития системы управления искусственным интеллектом (СУИИ) и подготовки к надзорному аудиту.

Почему нам можно доверять

  • Мультивендорная экспертиза
    250 + сертифицированных инженеров в команде
  • Более 210 кейсов по комплаенсу
    В ритейле, промышленности, финансах, телекоме, ИТ-компаниях и не только
    Наши специалисты имеют международные сертификаты: CISA, CRISC, CISSP, CISM, ISO 27001 Lead Auditor, ISO 27001 Lead Implementer, ISO 22301 Lead Auditor, ISO 27001, 20000, 22301 Tutor
  • Пентестеры Infosecurity входят в топ-10 России
    Наши специалисты имею ключевые сертификаты: TCM Security Practical Ethical Hackin, TCM Security Practical Web Application Security & Testing, TSARKA – Web Application Penetration Testing, OSCP, HWSP, eWPTXv2, eWPTv1, OSCP, OSCP+, OSWP, eMAPT, eCCPTv2, eCPTX_v2, CAP, API Academy, CRTP, CRTO, eCPTX, KLCP, OSWE, OSWA, CWEE
  • Повысили осведомленность более 20 000 человек
    Команда Awareness Infosecurity состоит из инженеров, аналитиков, консультантов, методистов, разработчиков, дизайнеров и пентестеров, которые работают над созданием уникальных материалов
  • Более 500 брендов под нашей защитой
    В ритейле, финансах, телекоме, строительстве, промышленности, и не только
Бесплатная консультация

У Вас остались вопросы?

Оставьте заявку и мы свяжемся с вами в ближайшее время.

Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности. Не является публичной офертой.

Новости и события

    FAQ