Искусственный интеллект и криптовалюты
Главная > Управление рисками > Рост утечек данных в ИИ: ChatGPT и Gemini становятся источниками корпоративной информации

Рост утечек данных в ИИ: ChatGPT и Gemini становятся источниками корпоративной информации

5 просмотров, 03.02.2026

Рост утечек данных в ИИ: ChatGPT и Gemini становятся источниками корпоративной информации

Компании всё активнее внедряют генеративный ИИ в ежедневные процессы: сотрудники пишут письма, готовят отчёты, анализируют таблицы, создают презентации и даже набрасывают фрагменты кода. Это ускоряет работу, но параллельно формирует новую и очень опасную зону риска — утечки данных через ChatGPT, Gemini и другие ИИ-сервисы.

Проблема в том, что утечка может произойти не из-за взлома, а из-за привычки «быстро спросить у нейросети», не задумываясь, что именно отправляется в запросе. И чем сильнее бизнес привыкает к ИИ, тем чаще корпоративная информация оказывается в текстовых подсказках, историях диалогов и автоматических интеграциях.

Почему корпоративные данные всё чаще попадают в ChatGPT и Gemini

Главная причина — ИИ стал «универсальным помощником» и заменил десятки инструментов. Раньше сотрудник решал задачу внутри корпоративной среды: писал документ в офисном редакторе, отправлял его коллеге, согласовывал с руководителем. Сейчас он может сделать проще: вставить кусок текста в ChatGPT или Gemini и попросить «сделай красиво», «сократи», «подготовь тезисы», «составь письмо клиенту». На этом этапе происходит ключевой риск: в запросе оказываются внутренние данные, которые не должны выходить за пределы компании.

Причём утечки часто выглядят невинно. Это не обязательно «вот наша база клиентов». Иногда это небольшие фрагменты: название проекта, обсуждение скидок, детали договора, черновик юридического документа, техническое описание продукта, конфиденциальные показатели продаж. Но даже кусочки информации могут сложиться в общую картину, особенно если разные сотрудники делают похожие запросы. Так формируется эффект «капельной утечки», когда каждый отдельный фрагмент кажется безопасным, но в сумме создаёт полноценный риск раскрытия коммерческой тайны.

Вторая причина — иллюзия приватности. Многие пользователи воспринимают чат с ИИ как личную заметку, как будто это «внутренний блокнот», где можно набросать мысли. Но ChatGPT и Gemini — это облачные сервисы, и запросы в них технически являются передачей данных внешнему провайдеру. Даже если платформа обещает безопасность, у компании всё равно остаются вопросы: кто имеет доступ, как долго хранятся данные, где именно они обрабатываются, как они защищены, есть ли риск попадания в сторонние логи или аналитические системы.

Третья причина — интеграции и расширения. Сегодня ИИ подключают к почте, документам, календарям, CRM, внутренним базам знаний. Это удобно, но повышает вероятность того, что ассистент увидит больше, чем нужно для конкретной задачи. И если политика доступа настроена слабо, то пользователь может неосознанно вытащить в запрос то, что вообще не должен был видеть.

И ещё один фактор — человеческий. Когда сроки горят, правила безопасности воспринимаются как «лишняя бюрократия». Сотрудник не пытается нарушить регламент специально, он просто хочет быстро получить результат. ИИ превращается в «короткий путь», но этот путь часто проходит через конфиденциальные данные компании.

Какие типы данных чаще всего утекают через ИИ и чем это грозит

На практике утечки через ChatGPT и Gemini обычно связаны с данными, которые легко копируются и вставляются. Это текст, таблицы, куски кода, переписки, коммерческие документы. В корпоративной среде есть несколько самых уязвимых категорий информации, которые особенно часто попадают в ИИ-запросы.

Перед тем как перейти к деталям, полезно увидеть, какие данные чаще всего становятся «сырьём» для подсказок, и почему именно они создают риски.

Тип корпоративных данныхПримерыПотенциальные последствия
Коммерческая тайнапрайс-листы, условия скидок, маржинальность, планы продажпотеря конкурентного преимущества, демпинг со стороны конкурентов
Клиентские данныеимена, контакты, история сделок, обращения в поддержкунарушение GDPR/152-ФЗ, штрафы, репутационный ущерб
Внутренние документырегламенты, отчёты, презентации, стратегиираскрытие внутренних процессов и слабых мест
Техническая информацияисходный код, архитектура, ключи API, токеныуязвимости, взломы, компрометация инфраструктуры
Юридические материалыдоговоры, претензии, NDA, переписка юристовсудебные риски, срыв сделок, утрата доказательной базы
Финансовые данныебюджеты, платежи, прогнозы, инвестпланыутечка инсайда, риск мошенничества, давление на компанию

Эта таблица показывает ключевую проблему: ИИ не выбирает, что важно, а что нет. Он просто обрабатывает ввод. Если сотрудник вставил данные — они уже покинули периметр компании. И дальше всё зависит от того, как устроены правила хранения, политика обработки, ограничения корпоративной версии и внутренние настройки безопасности.

Отдельно стоит отметить риск утечек через код. Разработчики часто используют ИИ, чтобы ускорить работу: «почему ошибка», «оптимизируй функцию», «напиши тесты». Если в запрос попадает часть приватного репозитория или секреты в переменных окружения, это может стать критичным. Даже если человек уверен, что удалил ключи, он может забыть про токен в конфиге или строку подключения к базе данных.

Последствия утечки через ИИ почти всегда шире, чем кажется в моменте. Иногда это не мгновенная катастрофа, а медленный репутационный ущерб: клиенты теряют доверие, партнёры усиливают проверки, юридический отдел начинает тормозить процессы, а безопасность вводит запреты, которые раздражают сотрудников. Компания платит не только штрафами, но и потерей скорости.

Как сотрудники сами провоцируют утечки, даже не нарушая правила

Парадокс в том, что большинство утечек не выглядят как «нарушение». Человек не считает, что сделал что-то плохое. Он просто хотел улучшить текст письма или быстро получить аналитику. Но корпоративная информация попадает в запрос из-за типовых привычек, которые кажутся безопасными.

Обычно сценарий выглядит так: сотрудник берёт реальный документ (например, коммерческое предложение), вставляет его в чат и просит «сделай более убедительно». Внутри документа — реквизиты, условия, цены, имена, контекст переговоров. ИИ отлично справляется с задачей, но одновременно компания теряет контроль над тем, куда ушёл этот текст.

Есть и более скрытые формы утечки. Например, менеджер по продажам просит ИИ составить письмо клиенту и добавляет: «клиент недоволен задержкой, у него контракт на 2 млн, предложи скидку 15%». Формально это просто подсказка, но фактически — финансовая информация и детали сделки.

Чтобы лучше понять, почему это происходит постоянно, стоит выделить наиболее частые «опасные привычки», которые приводят к утечкам:

  • вставка реальных фрагментов договоров и переписок для «улучшения формулировок».
  • отправка таблиц с клиентами и контактами для сегментации или анализа.
  • использование ИИ для расшифровки внутренних созвонов и подготовки итогов.
  • копирование кода с приватных репозиториев ради быстрого исправления ошибок.
  • добавление внутренних цифр (план, бюджет, KPI) для генерации отчёта или презентации.
  • запросы на перевод или локализацию документов без удаления конфиденциальных деталей.

На первый взгляд это обычные рабочие действия. Но проблема в том, что пользователь часто не понимает, какие данные являются критичными. Для него это просто «контекст». Для компании — потенциальная утечка персональных данных, коммерческой тайны или технических секретов.

Важно и то, что ИИ создаёт ощущение дружелюбного диалога. Человек пишет более свободно, чем в официальном письме, добавляет пояснения, раскрывает детали, чтобы получить точный ответ. И именно эти детали превращают запрос в источник корпоративной информации.

После такого списка становится очевидно: бороться только запретами сложно. Если сотруднику запретить использовать ChatGPT и Gemini, он всё равно найдёт альтернативу: личный аккаунт, мобильное приложение, сторонний сервис. Поэтому задача бизнеса — не просто запрещать, а выстроить безопасный сценарий использования ИИ, где утечки минимизируются.

Реальные риски для бизнеса: от штрафов до потери конкурентных преимуществ

Когда корпоративные данные утекают через ИИ, последствия могут быть разными. Иногда компания узнаёт о проблеме быстро, например, если сотрудник случайно публикует конфиденциальный текст или отправляет его не туда. Но чаще утечка незаметна: информация ушла в запросы, а дальше её судьба не контролируется.

Первый блок рисков — юридический. Если в ИИ попали персональные данные клиентов, сотрудников или партнёров, компания может столкнуться с нарушением законодательства. Это может означать проверки, штрафы и требования по уведомлению пострадавших. Особенно болезненно это для компаний, которые работают с ЕС и обязаны соблюдать GDPR. Но и локальные нормы по защите персональных данных создают серьёзные обязательства.

Второй блок — финансовый. Утечка коммерческих условий может ударить по выручке напрямую. Если конкурент узнаёт ценовую политику, структуру скидок, стратегию переговоров, компания теряет преимущество. Даже если информация не попадёт «в руки конкурента» напрямую, сама возможность утечки снижает уверенность партнёров и заставляет их требовать дополнительные гарантии.

Третий блок — технологический. Утечки кода, архитектуры, ключей и внутренних описаний систем открывают путь к атакам. Иногда достаточно одного токена или одной строки подключения, чтобы злоумышленник получил доступ к инфраструктуре. ИИ в этом случае становится не причиной взлома, а каналом, через который секреты выходят наружу.

Четвёртый блок — репутационный. В эпоху, когда клиенты ожидают прозрачности и ответственности, любая история про утечку данных вызывает недоверие. Даже если компания быстро исправит ситуацию, осадок остаётся. Репутационные потери часто дороже штрафов, потому что влияют на продажи и долгосрочную устойчивость бренда.

И есть ещё один риск, о котором редко думают: зависимость от ИИ в принятии решений. Когда сотрудники регулярно «советуются» с нейросетью по внутренним вопросам, появляется шанс, что ИИ начнёт формировать неправильные рекомендации на основе неполного контекста. Это не утечка в прямом смысле, но это снижение качества управления, которое тоже стоит денег.

Как компании снижают риск утечек при работе с ChatGPT и Gemini

Безопасная работа с ИИ возможна, если компания относится к нему как к полноценному внешнему инструменту, а не как к «умной клавиатуре». Нужно выстроить правила, процессы и технические ограничения. Причём не на бумаге, а в реальной практике: чтобы сотруднику было проще работать безопасно, чем нарушать.

Первый шаг — политика использования ИИ. В ней важно не просто написать «нельзя», а объяснить, что именно запрещено: персональные данные, финансовые отчёты, клиентские базы, внутренние договоры, ключи и токены, закрытый код. Сотруднику нужно дать понятные примеры. Чем конкретнее правила, тем меньше случайных ошибок.

Второй шаг — корпоративные версии и контроль. Многие компании переходят на корпоративные решения, где есть управление доступом, ограничения хранения и возможность отключить обучение на данных пользователя. Это снижает риск, хотя полностью его не убирает. Главное — не смешивать личные аккаунты и рабочие задачи, потому что именно личные чаты часто становятся «серой зоной».

Третий шаг — технические барьеры. Это может быть DLP-система, фильтры на уровне прокси, блокировка отправки определённых типов данных, автоматическое скрытие номеров карт, паспортных данных, ключей API. Современные решения позволяют обнаруживать чувствительные данные в тексте ещё до того, как они уйдут во внешний сервис.

Четвёртый шаг — обучение. Это не должна быть формальная лекция. Лучше работают короткие инструкции, сценарии и примеры: «как спросить у ИИ безопасно», «как обезличить данные», «как заменить реальные цифры на диапазоны». Сотрудник должен понимать, что можно сделать по-другому, не теряя скорости.

Пятый шаг — культура. Если в компании принято «делать быстро любой ценой», утечки будут повторяться. Но если руководство поддерживает безопасные практики и показывает личный пример, сотрудники начинают относиться к данным осторожнее. Важно, чтобы безопасность не выглядела врагом эффективности, а была частью нормальной работы.

Что будет дальше: ИИ как новая точка контроля корпоративной безопасности

Рост утечек данных через ChatGPT и Gemini — это не временная мода, а закономерность. ИИ становится стандартным рабочим инструментом, и компании будут всё чаще сталкиваться с ситуацией, когда граница между «внутренним документом» и «запросом в нейросеть» стирается. Бизнесу придётся перестраивать подход к защите информации, потому что старые модели безопасности создавались для почты, файлов и корпоративных серверов, но не для диалоговых интерфейсов.

В ближайшие годы можно ожидать усиления корпоративного контроля: больше ограничений на использование публичных ИИ, больше переходов на закрытые модели и частные контуры, больше автоматических фильтров и мониторинга. Но параллельно будет расти и зрелость пользователей: сотрудники научатся формулировать запросы так, чтобы не раскрывать лишнее, а компании — создавать безопасные шаблоны и правила работы с ИИ.

Самое важное — понять, что утечки через ИИ не решаются одной кнопкой. Это сочетание технологий, процессов и привычек. ChatGPT и Gemini дают бизнесу огромную скорость, но скорость всегда требует дисциплины. И компании, которые первыми выстроят грамотную модель безопасного использования ИИ, смогут сохранить конкурентные преимущества, не превращая инновации в источник постоянных рисков.

Обратная связь
Имя
Телефон