ИИ-помощники для кода пишут небезопасный код: что нужно знать разработчикам
GitHub Copilot и Cursor AI могут создавать уязвимости безопасности. Узнайте о 74 CVE из кода, сгенерированного ИИ в 2026 году, и как защитить свою кодовую базу.
ИИ-помощники для кода пишут небезопасный код: что нужно знать разработчикам
По состоянию на март 2026 года исследователи выявили 74 CVE (Common Vulnerabilities and Exposures), напрямую связанных с кодом, сгенерированным ИИ. 35 из них были обнаружены только в марте. Распределение: Claude Code внёс 27 CVE, GitHub Copilot 4, Devin 2.
Это не гипотетический риск. Это реальные уязвимости в рабочих системах, созданные ИИ-помощниками для кода, которым разработчики доверили написание безопасного кода.
Заголовок The Register в марте 2026 был прямолинеен: «Программирование с ИИ не означает, что ваш код более безопасен». Исследование Стэнфорда подтвердило, что разработчики, использующие ИИ-помощники, на самом деле создают больше уязвимостей безопасности, чем те, кто программирует без помощи ИИ.
Подъём «вайб-кодинга»
В разработке программного обеспечения появился новый термин: «вайб-кодинг». Он описывает разработчиков, которые принимают код, сгенерированный ИИ, с минимальной проверкой — нажимают «принять» на основе того, «ощущается» ли код правильным, а не тщательно его анализируя.
Проблема? Уязвимости безопасности не всегда «ощущаются» неправильно. Уязвимость SQL-инъекции выглядит как обычный код базы данных. Небезопасная десериализация выглядит как стандартная обработка объектов. Межсайтовый скриптинг может скрываться в кажущейся безобидной манипуляции строками.
Когда разработчики принимают сотни предложений ИИ в день, тщательная проверка становится невозможной. Код выпускается, уязвимости выпускаются вместе с ним.
Реальные риски безопасности от ИИ-помощников для кода
1. Уязвимые паттерны кода
ИИ-помощники для кода обучаются на публичных репозиториях — включая репозитории, полные небезопасного кода. Они изучают распространённые паттерны, не обязательно безопасные.
Распространённые уязвимости, которые вводит ИИ:
| Уязвимость | Как ИИ её вводит |
|---|---|
| SQL-инъекция | Предлагает конкатенацию строк вместо параметризованных запросов |
| XSS | Генерирует код без санитизации пользовательского ввода |
| Path Traversal | Создаёт файловые операции без надлежащей валидации |
| Небезопасная десериализация | Предлагает десериализацию недоверенных данных |
| Захардкоженные секреты | Иногда включает заглушки учётных данных, выглядящие реально |
| Слабая криптография | Использует устаревшие алгоритмы (MD5, SHA1) |
2. Ваш код становится обучающими данными
На бесплатных тарифах большинства ИИ-помощников для кода ваш код может использоваться для обучения будущих моделей:
- GitHub Copilot Free/Individual: Фрагменты кода используются для улучшения модели (если вы не отказались)
- Cursor AI Free: Аналогичные политики сбора данных
- Claude Free Tier: Разговоры могут использоваться для обучения
Это означает:
- Ваши проприетарные алгоритмы могут влиять на предложения кода для конкурентов
- Чувствительная бизнес-логика может появляться в предложениях других разработчиков
- Встроенные в код коммерческие тайны теоретически могут быть извлечены
Корпоративные тарифы обычно предлагают соглашения о защите данных, но многие разработчики используют бесплатные тарифы, не понимая последствий.
3. Раскрытие учётных данных
При использовании ИИ-помощника для кода вы часто делитесь контекстом, включающим:
- Переменные окружения (иногда содержащие API-ключи)
- Конфигурационные файлы
- Строки подключения к базе данных
- Внутренние API-эндпоинты
Даже если вы не вставляете учётные данные напрямую, ИИ-помощники могут вывести их из контекста или предложить паттерны кода, которые их раскрывают.
Пример уязвимости:
# ИИ может предложить этот паттерн:
import os
api_key = os.getenv("API_KEY")
print(f"Using key: {api_key}") # Логирует секрет!
4. Риски цепочки поставок
ИИ-помощники для кода могут предлагать:
- Устаревшие пакеты с известными уязвимостями
- Названия пакетов-тайпосквоттеров (вредоносные пакеты с похожими именами)
- Зависимости, которые вы не собирались добавлять
- Пакеты, подтягивающие небезопасные транзитивные зависимости
Разработчик, спрашивающий «как парсить JSON в Python?», может получить предложение установить случайный пакет вместо использования встроенного модуля json.
5. Проблема пятницы после обеда
Gartner вызвал резонанс в 2026 году, предложив компаниям «запретить Copilot в пятницу после обеда». Аргумент: уставшие разработчики в конце недели с большей вероятностью примут предложения ИИ без надлежащей проверки.
Это подчёркивает более широкую проблему: ИИ-помощники наиболее опасны, когда разработчики:
- Устали
- Под давлением дедлайнов
- Работают в незнакомых кодовых базах
- Выполняют несколько задач одновременно
Именно тогда, когда разработчики чаще всего обращаются за помощью ИИ.
Недавние исследования и находки
Исследование Georgia Tech (март 2026)
Наиболее полное исследование отслеживало CVE, конкретно связанные с кодом, сгенерированным ИИ:
- 74 CVE в общей сложности отслежены до ИИ-помощников для кода
- Claude Code: 27 CVE (больше всего из-за возможностей доступа к файловой системе и выполнения кода)
- GitHub Copilot: 4 CVE
- Devin: 2 CVE
- 35 CVE обнаружено только в марте 2026 — темп ускоряется
Исследование Стэнфорда (2025)
Контролируемое исследование показало, что разработчики, использующие ИИ-помощники:
- С большей вероятностью пишут небезопасный код
- Более уверены, что их код безопасен (несмотря на то, что он менее безопасен)
- С меньшей вероятностью обращаются к документации по безопасности
Отчёт Pillar Security (2026)
Исследователи безопасности обнаружили новые векторы атак в GitHub Copilot и Cursor AI:
- Инъекция промптов через файлы репозитория
- Эксфильтрация контекста кода на внешние серверы
- Манипуляция предложениями через стратегически написанные комментарии в коде
Как безопаснее использовать ИИ-помощники для кода
1. Относитесь к предложениям ИИ как к недоверенному вводу
Каждое предложение должно быть:
- Проверено построчно
- Протестировано на последствия для безопасности
- Валидировано по лучшим практикам безопасности
Не предполагайте, что код, сгенерированный ИИ, безопасен, потому что он работает.
2. Используйте корпоративные тарифы для чувствительного кода
Если вы работаете с проприетарным кодом:
| Продукт | Корпоративная защита |
|---|---|
| GitHub Copilot Enterprise | Код не используется для обучения, соответствует SOC 2 |
| Cursor AI Business | Улучшенная защита данных |
| Claude Enterprise | Доступно соглашение об обработке данных |
Разница в стоимости минимальна по сравнению с риском утечки кода.
3. Никогда не делитесь учётными данными с ИИ
Не делайте:
- Не вставляйте API-ключи в промпты
- Не включайте файлы
.envв контекст - Не просите ИИ «отладить эту строку подключения» с реальными учётными данными
Делайте:
- Используйте заглушки:
YOUR_API_KEY_HERE - Редактируйте чувствительные значения перед тем, как делиться кодом
- Храните учётные данные в отдельных файлах, исключённых из ИИ
4. Запускайте сканирование безопасности
Интегрируйте автоматизированные инструменты безопасности, которые ловят то, что ИИ пропускает:
- Инструменты SAST (Semgrep, SonarQube) для анализа кода
- Сканеры зависимостей (Snyk, Dependabot) для уязвимых пакетов
- Сканеры секретов (GitGuardian, TruffleHog) для утёкших учётных данных
Запускайте их на каждом коммите, особенно на коммитах с кодом, сгенерированным ИИ.
5. Создайте командные рекомендации
Установите чёткие политики использования ИИ-помощников для кода:
- Какие тарифы одобрены для использования
- Какие типы кода не могут использовать помощь ИИ
- Обязательные процессы ревью для кода, сгенерированного ИИ
- Требования к обучению безопасности
6. Безопасное совместное использование учётных данных для разработки
При совместной работе над проектами с чувствительными учётными данными:
Не делайте:
- Не делитесь учётными данными через Telegram, Slack или email
- Не коммитьте учётные данные в репозитории (даже приватные)
- Не вставляйте учётные данные в чат-интерфейсы ИИ
Делайте:
- Используйте менеджеры паролей для совместного использования командных учётных данных
- Используйте инструменты управления секретами (HashiCorp Vault, AWS Secrets Manager)
- Делитесь одноразовыми учётными данными через зашифрованные истекающие ссылки
Сервисы вроде LOCK.PUB позволяют создавать защищённые паролем заметки, которые самоуничтожаются после просмотра — идеально для обмена паролями от баз данных, API-ключами или другими чувствительными учётными данными с коллегами без оставления постоянного следа.
Путь вперёд
ИИ-помощники для кода никуда не денутся. Они слишком полезны. Но текущий подход — доверять ИИ написание безопасного кода — явно проваливается.
Решение не в том, чтобы отказаться от инструментов ИИ для кода. А в том, чтобы:
- Относиться к коду ИИ как к коду джуниор-разработчика — он нуждается в ревью
- Поддерживать инструменты безопасности — автоматическое сканирование ловит ошибки ИИ
- Защищать свои данные — использовать корпоративные тарифы, не делиться секретами
- Оставаться в курсе — риски безопасности эволюционируют по мере расширения возможностей ИИ
74 CVE, обнаруженных в начале 2026 года, — это только начало. По мере того как ИИ-помощники для кода становятся мощнее и шире внедряются, поверхность атаки растёт. Готовьтесь соответственно.
Ключевые слова
Читайте также
16 Миллиардов Паролей Утекли: Как Проверить, Затронуты Ли Вы
Крупнейшая утечка паролей в истории раскрыла 16 миллиардов учётных данных. Узнайте, как проверить, скомпрометированы ли ваши аккаунты и что делать дальше.
Риски безопасности ИИ-агентов: почему давать ИИ слишком много прав опасно
ИИ-агенты вроде Claude Code и Devin могут автономно выполнять код, получать доступ к файлам и просматривать веб. Узнайте о рисках безопасности и способах защиты данных.
Утечки данных из ИИ-чатботов: что происходит, когда вы вставляете конфиденциальную информацию в ChatGPT
Безопасен ли ChatGPT для конфиденциальных данных? Узнайте о реальных рисках приватности ИИ-чатботов, недавних утечках и способах защиты вашей информации.
Создайте защищенную паролем ссылку сейчас
Создавайте бесплатно защищённые ссылки, секретные заметки и зашифрованные чаты.
Начать Бесплатно