AI и защита данных для бизнеса - Кейсы применение генеративного ИИ в бизнесе — кейсориум Generation AI

Поделиться кейсом

Generation AI Awards

Анастасия Хорунжина

Product Manager Jay Guard

AI и защита данных для бизнеса: как обезопасить чувствительную информацию

Защита данных для бизнеса в эпоху развития AI, когда модели постоянно обновляются — это большой челлендж для компаний. Сотрудники во всю используют ChatGPT, загружают туда контекст по задачам, не спрашивая работодателя. В модели от зарубежных провайдеров утекает огромное количество чувствительной информации, которая может стоить компании репутации, а то и многомиллионных штрафов.

 

А регуляторное давление тем временем растет. В марте 2026 года Минцифры опубликовало законопроект о регулировании искусственного интеллекта в России — первый документ, который закрепляет правила разработки и использования AI, включая ответственность за результаты генерации и требования к безопасности моделей. Если закон об AI примут, нормы вступят в силу с 1 сентября 2027 года. Но выстраивать защиту данных при работе с нейросетями стоит уже сейчас.

 

В статье разберем, какие данные утекают в LLM-модели чаще всего, почему стандартные инструменты защиты их не видят и как выстроить AI и защиту данных для бизнеса так, чтобы сотрудники могли работать с нейросетями, не создавая рисков. В конце — чек-лист по безопасности, с которого можно начать уже сейчас.

Проблема: не хакеры, а привычки сотрудников

По данным LayerX Enterprise AI Security Report, 18% сотрудников регулярно вставляют данные в генеративные AI-инструменты — и больше чем в половине таких случаев речь идет о корпоративной информации. При этом 71,6% этого трафика идет через личные аккаунты, вне корпоративного контроля.
 
Каждый раз, когда сотрудник открывает ChatGPT или любой другой AI-сервис, он фактически решает, какие данные останутся внутри компании, а какие уйдут на внешние серверы. Поэтому когда компания внедряет искусственный интеллект, конфиденциальность данных приходится продумывать с самого начала.
 
Что именно обычно утекает в нейросети:
 
 
  • Исходный код
 
AI-ассистенты уже стали частью повседневной разработки. По данным GitHub, 97% разработчиков используют AI-инструменты при написании кода. При этом сотрудники нередко отправляют в такие сервисы фрагменты корпоративных репозиториев — например, чтобы объяснить код, найти ошибку или предложить рефакторинг. В результате в облачные LLM могут попадать части внутреннего кода компании, включая алгоритмы и архитектурные решения, которые фактически являются ее ноу-хау.
 
 
  • Коммерческая тайна
 
Сюда входят условия договоров, финансовые отчеты, стратегические планы. Аналитик просит нейросеть обработать квартальный отчет до публикации; юрист загружает клиентский договор, чтобы сделать краткое резюме.
 
 
  • Персональные данные
 
Это имена, зарплаты, контакты, медицинские данные. По данным Cyberhaven, чувствительные данные — самая частая категория утечек: 319 инцидентов на 100 тысяч сотрудников в неделю. Например, кто-то загружает таблицу кандидатов на вакансию, чтобы нейросеть помогла с оценкой.
 
 
Но риск не заканчивается в момент отправки чувствительной информации в нейросети. Данные, которые сотрудник вставил в промт, оседают на серверах LLM-провайдера — и дальше их судьба зависит уже не от политик компании, а от уровня безопасности самого сервиса. А он, как показывает практика, далеко не всегда достаточен. Например, в 2025 году исследователи Wiz обнаружили у DeepSeek открытую базу данных с логами, в которой хранилась история пользовательских чатов — в открытом доступе, без какой-либо аутентификации.
 
То есть исходный код, коммерческая тайна или персональные данные клиентов, однажды попавшие в переписку с нейросетью, могут оказаться доступны всем, кто умеет искать. Не через взлом, а просто потому что провайдер недостаточно защитил свою инфраструктуру.
 
IBM в отчете Cost of a Data Breach 2025 подсчитал: средняя глобальная стоимость утечки данных — $4,44 млн. Но если в инцидент вовлечен shadow AI (неконтролируемое использование AI-инструментов), стоимость вырастает в среднем на $670 000 — до $4,63 млн. Поэтому защита персональных данных в ИИ для бизнеса становится не вопросом комплаенса, а вопросом финансовой устойчивости: одна неконтролируемая привычка одного сотрудника может обойтись дороже, чем целый отдел информационной безопасности.

Почему система контроля утечек (DLP) не закрывает риски нейросетей

Традиционные DLP-системы проектировались для мира до нейросетей: они работают с email, файловыми хранилищами, USB-носителями. Они контролируют каналы передачи данных и могут анализировать содержимое трафика — например, проверять файлы и сообщения на наличие шаблонов конфиденциальных данных.
 
Но работают они по заранее заданным правилам и плохо распознают смысловую утечку информации. Защита данных при использовании ИИ для бизнеса требует другого инструментария — как минимум две категории угроз остаются за пределами видимости DLP:
 
 
Коммерческая тайна по смыслу
 
При использовании LLM сотрудники часто отправляют в запросах фрагменты документов, кода или внутренних обсуждений. Даже если DLP видит сам запрос, она может не определить, что передаваемый текст содержит коммерческую тайну или ноу-хау компании.
 
 
Специфические атаки на нейросети
 
Манипуляции с запросами, которые заставляют нейросеть выдать то, чего она выдавать не должна. Среди них: промпт-инъекции, jailbreak-инъекции, манипуляции с целью сбить с толку агента. OWASP в 2025 году поставил промпт-инъекции на первое место в топ-10 рисков для LLM-приложений, в целом, по меньшей мере четыре позиции списка связаны с утечками данных.
 
Пример атаки с манипуляцией запросами: пользователь долго общался с чат-ботом интернет-магазина на базе AI, который должен был отвечать только на базовые вопросы клиентов. Постепенно он уводил разговор в сторону скидок — сначала бот предложил 25%, а затем «согласился» увеличить ее до 80%. После этого пользователь оформил заказ примерно на £8 000 (порядка 800 тысяч рублей) с обещанной скидкой, а компания оказалась в споре о том, обязана ли она выполнить предложение, сделанное ее же AI-ассистентом.
 
Та же логика работает с внутренними данными: терпеливый сотрудник или внешний злоумышленник может методично вытащить из корпоративной нейросети то, к чему у него доступа быть не должно.

Как защитить данные при использовании нейросетей: три подхода

Защита данных в генеративном ИИ для бизнеса — это выбор между несколькими подходами. У каждого из них своя логика, стоимость и ограничения.

 

 

On-premise LLM или приватный ИИ для бизнеса — не панацея

 

Когда заходит речь об ИИ и защите данных для бизнеса, первое, что приходит в голову — развернуть LLM на собственных серверах, чтобы данные никуда не уходили. Это снимает проблему трансграничной передачи: все остается внутри периметра компании. Но у подхода есть существенные ограничения.

 
 
Для мощной модели нужны серьезные вычислительные ресурсы — GPU-кластеры, которые стоят дорого и требуют квалифицированного обслуживания.
 
 
On-premise не защищает от внутренних угроз. Если в компании работает LLM-решение с доступом к внутренним данным (HR-система с AI-помощником, корпоративный чат-бот с доступом к базе знаний), внутренний пользователь может выманить из него чувствительную информацию.
 
 
Если LLM-решение обслуживает внешних пользователей, оно уязвимо к целенаправленным атакам. On-premise защищает от трансграничной передачи, но без дополнительных слоев защиты остается уязвимым.
 
 
 

AI-шлюз: анализ и защита запросов к нейросетям

 

Один из практических способов снизить риски утечки данных при работе с генеративными моделями — использовать защитный слой между сотрудниками и AI-сервисами. Такой слой работает как AI-шлюз: он проверяет промпты, выявляет чувствительные данные и применяет необходимые меры защиты до того, как данные попадут во внешнюю модель.
 
Один из базовых механизмов — маскирование. Чувствительные данные в промпте (имена, номера договоров, email-адреса и другие идентификаторы) автоматически заменяются на заглушки, и запрос уходит в LLM уже в обезличенном виде. Сотрудник получает ответ и продолжает работу, но персональные данные и конфиденциальная информация не покидают периметр компании.
 
Подобную архитектуру реализуют специализированные решения для безопасной работы с LLM. Например, Jay Guard — AI-security решение от Just AI. Оно выступает таким промежуточным слоем между корпоративными системами и нейросетями: анализирует запросы к LLM, выявляет чувствительные данные и применяет защитные политики. Решение поддерживает как облачные модели, так и локально развернутые нейросети и входит в реестр отечественного ПО.
 
Такая архитектура позволяет компаниям внедрять AI-инструменты в рабочие процессы, не создавая неконтролируемых каналов утечки данных.

Чек‑лист: как защитить данные бизнеса

Если в компании до сих пор никто не занимался защитой данных при использовании AI — вот минимальный план действий.
 
 
0. На всех этапах подключайте ИБ-команду.
 
Некоторые компании намеренно не привлекают специалистов по безопасности к внедрению AI, опасаясь, что это затормозит процесс. На практике такой подход часто приводит к появлению дополнительных рисков. Участие ИБ пригодится и для аудита, и для политик, и для выбора решений, и для мониторинга.
 
 
1. Проведите аудит: кто, что и куда отправляет из корпоративных данных в AI
 
Если в компании уже используется DLP-система, ее можно применить для выявления обращений к внешним AI-сервисам и анализа передаваемых данных. Это поможет понять, какие инструменты используются, через какие каналы происходит взаимодействие, какие данные потенциально затронуты. Если DLP нет, стоит хотя бы настроить базовый мониторинг сетевого трафика.
 
 
2. Классифицируйте данные
 
Здесь нужно разобраться, что в компании относится к персональным данным, что — к коммерческой тайне и ноу-хау, а что — к публичной информации. Без классификации будет сложно настроить и политики маскирования, и правила блокировки.
 
 
3. Выберите стратегию
 
Прежде чем внедрять политики и инструменты, компании нужно определить: какие конкретно задачи она хочет автоматизировать через LLM? Какие данные будут затронуты? Исходя из этого — выбрать подход, описанный в статье выше.
 
 
4. Внедрите политики использования AI для сотрудников
 
Первый шаг — сформулировать и донести до команды правила работы с AI и корпоративными данными: что допустимо отправлять во внешние сервисы, а что нет. После этого ИБ-отдел может начать мониторить исходящий трафик — так будет проще выявлять случаи передачи чувствительных данных.
 
 
5. Подключите инструменты контроля: от организационных мер до AI-шлюзов
 
Исходя из выбранной стратегии, подберите и внедрите AI-шлюз для маскирования, блокировки и маршрутизации трафика.
 
 
6. Мониторьте и адаптироуйтесь: ландшафт угроз меняется, политики нужно обновлять
 
Выстраивание системы защиты — непрерывный процесс. Политики стоит регулярно пересматривать, средства защиты — тестировать на актуальных сценариях, а подходы — адаптировать к новым угрозам.

Вывод

Запретить сотрудникам пользоваться AI уже не получится — они и так активно используют нейросети в работе. Игнорировать это тоже рискованно: штрафы за утечку персональных данных достигают сотен миллионов рублей, а законопроект о регулировании искусственного интеллекта в России добавляет к ним административную и уголовную ответственность для операторов и владельцев AI-сервисов. Вопрос использования ИИ и защиты данных для бизнеса становится неразделимым.

 

Компании чаще выбирают другой подход — не запрещать AI, а внедрять контролируемую среду для работы с нейросетями, где все обращения к моделям проходят через слой безопасности. Такую роль выполняют AI-security решения. Например, Jay Guard от Just AI выступает промежуточным шлюзом между сотрудниками и языковой моделью: он анализирует запросы, выявляет чувствительную информацию и применяет защитные политики — маскирование данных или блокировку запроса. Это позволяет использовать нейросети в рабочих процессах, не создавая неконтролируемых каналов утечки данных.

 

Если законопроект примут, нормы вступят в силу 1 сентября 2027 года. При этом требования к защите данных действуют уже сейчас — например, в рамках 152-ФЗ. Поэтому выстраивать защиту данных при работе с нейросетями стоит уже сегодня.

Jay Guard
Модуль контроля данных при использовании LLM