Теневой ИИ в Казахстане: риски и защита бизнеса

Сотрудники используют ChatGPT и нейросети без контроля. Узнайте риски Shadow AI и как защитить данные компании в Казахстане.

19.02.2026
Ваши сотрудники уже используют ИИ. Вы уверены, что данные в безопасности?

Ваши сотрудники уже используют ИИ. Вы уверены, что данные в безопасности?

Искусственный интеллект стремительно вошёл в рабочие процессы компаний Казахстана, но далеко не всегда с разрешения работодателя. Сегодня сотрудники активно используют нейросети для подготовки документов, анализа данных, программирования и деловой коммуникации.

Однако во многих компаниях использование ИИ происходит спонтанно и бесконтрольно. Это формирует новую угрозу для бизнеса- теневой искусственный интеллект (Shadow AI).

Что такое теневой ИИ (Shadow AI)

Термин Shadow AI означает использование сотрудниками несанкционированных ИИ-инструментов, таких как ChatGPT, Midjourney и другие публичные нейросети в обход корпоративных правил и без ведома ИТ-отдела или службы информационной безопасности.

Проблема носит массовый характер. Международные исследования показывают:

  • до 80% сотрудников используют неутверждённые ИИ-сервисы;

  • среди пользователей не только специалисты, но и руководители;

  • даже руководители информационной безопасности признают использование публичных ИИ-сервисов в работе.

Особенно уязвим малый и средний бизнес: из-за ограниченных ресурсов такие компании внедряют ИИ быстрее, чем успевают выстроить контроль и защиту данных.

В Казахстане ситуация усиливается высокой цифровой активностью бизнеса. Исследования цифровизации показывают, что:

  • сотрудники отмечают ускорение выполнения задач с помощью ИИ;

  • нейросети существенно экономят рабочее время;

  • компании внедряют цифровые инструменты без полноценной политики информационной безопасности.

Эффективность растёт вместе с рисками.

В чем главная опасность Shadow AI

Эксперты по информационной безопасности рассматривают теневой ИИ как новый этап развития теневых IT-инструментов внутри компаний.

Утечка конфиденциальных данных

При использовании публичных нейросетей сотрудники могут загружать:

  • служебные документы;

  • финансовые отчёты;

  • персональные данные клиентов;

  • коммерческие предложения и договоры.

Информация может передаваться на зарубежные серверы и храниться вне юрисдикции Республики Казахстан, что создаёт риски нарушения требований по защите персональных данных.

Зоны вне контроля служб безопасности

Традиционные средства защиты- DLP-системы и прокси часто не фиксируют передачу данных через браузеры, мобильные устройства и личные аккаунты.

Такие каналы могут долго оставаться незамеченными, подвергая риску безопасность данных организации.

Финансовые и репутационные потери

Инциденты утечки данных, связанные с Shadow AI, обходятся компаниям значительно дороже традиционных инцидентов информационной безопасности.

Компании рискуют:

  • нарушением законодательства о защите персональных данных;

  • штрафами и предписаниями регуляторов;

  • потерей доверия клиентов и партнёров;

  • серьёзными репутационными потерями.

Почему запреты не работают

Многие организации пытаются решить проблему блокировками. Но практика показывает:

  • сотрудники используют личные смартфоны;

  • перепечатывают данные вручную;

  • фотографируют экраны;

  • работают через домашние устройства.

В результате эффективность падает, а риск утечек данных сохраняется.

Эксперты всё чаще говорят о концепции BYOAI (Bring Your Own AI) — «принеси свой искусственный интеллект».

Компании, полностью запрещающие ИИ, рискуют отстать от конкурентов: сотрудники без современных инструментов работают медленнее и менее эффективно.

Выход: не запрет, а безопасная среда!

Оптимальное решение- перевести использование нейросетей в контролируемое русло:

  • легализовать использование ИИ-инструментов;
  • внедрить корпоративные регламенты;
  • обеспечить контроль передачи данных;
  • создать защищённые среды для работы с ИИ.

Как взять теневой ИИ под контроль

Чтобы защитить компанию от утечек данных и сохранить производительность труда, необходим комплексный подход. Организациям важно создать среду, в которой сотрудники смогут безопасно использовать нейросети без риска раскрытия коммерческой тайны.

Современные решения класса DLP и мониторинга действий пользователей позволяют выявлять использование несанкционированных ИИ-сервисов и предотвращать утечки информации.

Одним из таких решений является программный комплекс «Стахановец», который помогает организациям контролировать использование ИИ-сервисов и обеспечивать безопасность корпоративных данных.

Система выявляет использование Shadow AI, анализирует поведение сотрудников и контролирует передачу информации через браузеры, приложения и облачные сервисы.

Инструменты «Стахановца» для борьбы с теневым ИИ

Отчёты «Сайты» и «Программы»
Показывают сотрудников, посещающих сайты нейросетей или использующих соответствующие приложения, а также время работы с ними.

Отчёт «Отклонения»
Выявляет пользователей с аномальной активностью, включая чрезмерное использование ИИ-сервисов.

Отчёт «Анализатор рисков»
Позволяет отнести домены нейросетей к подозрительным и автоматически формировать группы риска.

Контроль ввода данных (кейлоггер)
Фиксирует ввод текста в поля чат-ботов, помогая выявлять передачу конфиденциальной информации.

Контроль отправки файлов
Позволяет определить, какие файлы загружаются в нейросети и веб-сервисы.

Мониторинг буфера обмена
Показывает случаи копирования больших массивов данных (например, клиентских баз) и их вставки в ИИ-сервисы.

Снимки экранов и OCR-распознавание
Автоматические скриншоты и распознавание текста помогают быстро выявлять инциденты утечки данных.

Маркировка документов
Позволяет внедрять скрытые метки и блокировать передачу конфиденциальных файлов за пределы компании.

Контроль по регулярным выражениям
Блокирует отправку данных с чувствительными маркерами (ИИН, реквизиты, договоры) при попытке передачи в нейросети.

ИИ-классификатор документов (версия 11)
Автоматически определяет конфиденциальные документы и применяет строгие политики защиты.

Использование подобных инструментов позволяет предотвратить утечки данных через нейросети, обеспечить соблюдение требований законодательства и повысить прозрачность использования ИИ сотрудниками.

Рекомендации для руководителей

Чтобы минимизировать риски использования ИИ:

  • Инвентаризация: определите, какие ИИ-сервисы уже используются;
  • Оценка рисков: проанализируйте угрозы для защиты данных;
  • Обучение сотрудников: объясните правила безопасной работы с нейросетями;
  • Внедрение контроля: используйте специализированные решения для предотвращения утечек;
  • Легализация: сформируйте список разрешённых ИИ-инструментов.

Сегодня большинство компаний позитивно относятся к использованию ИИ сотрудниками. Однако только те организации, которые научатся управлять этим процессом, смогут извлечь максимум пользы без угроз для информационной безопасности.

Компании Казахстана, которые первыми выстроят безопасную и управляемую работу с ИИ, получают конкурентное преимущество без риска утечек, штрафов и регуляторных последствий.

Если смотреть с позиции бизнеса:
ИИ уже используется внутри вашей компании. Вопрос только в том- контролируете ли вы его или узнаете о проблеме после утечки данных.