Zurück zum Blog
Security
7 Min

KI-Coding-Assistenten Schreiben Unsicheren Code: Was Entwickler Wissen Müssen

GitHub Copilot und Cursor AI können Sicherheitslücken einführen. Erfahre mehr über 74 CVEs aus KI-generiertem Code in 2026 und wie du deine Codebase schützt.

LOCK.PUB

KI-Coding-Assistenten Schreiben Unsicheren Code: Was Entwickler Wissen Müssen

Stand März 2026 haben Forscher 74 CVEs (Common Vulnerabilities and Exposures) identifiziert, die direkt mit KI-generiertem Code verbunden sind. 35 davon wurden allein im März entdeckt. Die Aufschlüsselung: Claude Code trug 27 CVEs bei, GitHub Copilot 4 und Devin 2.

Das ist kein hypothetisches Risiko. Das sind echte Schwachstellen in Produktionssystemen, erstellt von KI-Coding-Assistenten, denen Entwickler vertrauten, sicheren Code zu schreiben.

Die Schlagzeile von The Register im März 2026 war deutlich: „Mit KI zu coden bedeutet nicht, dass dein Code sicherer ist." Eine Stanford-Studie bestätigte, dass Entwickler, die KI-Assistenten nutzen, tatsächlich mehr Sicherheitslücken einführen als jene, die ohne KI-Hilfe programmieren.

Der Aufstieg des „Vibe Coding"

Es gibt einen neuen Begriff in der Softwareentwicklung: „Vibe Coding." Er beschreibt Entwickler, die KI-generierten Code mit minimaler Überprüfung akzeptieren — auf „Akzeptieren" klicken, basierend darauf, ob sich der Code „richtig anfühlt", statt ihn sorgfältig zu analysieren.

Das Problem? Sicherheitslücken „fühlen" sich nicht immer falsch an. Eine SQL-Injection-Schwachstelle sieht aus wie normaler Datenbankcode. Unsichere Deserialisierung sieht aus wie Standard-Objektbehandlung. Cross-Site-Scripting kann sich in scheinbar harmlosen String-Manipulationen verstecken.

Wenn Entwickler hunderte KI-Vorschläge pro Tag akzeptieren, wird gründliche Überprüfung unmöglich. Der Code wird ausgeliefert, die Schwachstellen werden mit ausgeliefert.

Echte Sicherheitsrisiken von KI-Code-Assistenten

1. Verwundbare Code-Muster

KI-Code-Assistenten werden auf öffentlichen Repositories trainiert — einschließlich Repos voller unsicherem Code. Sie lernen gängige Muster, nicht unbedingt sichere Muster.

Häufige Schwachstellen, die KI einführt:

Schwachstelle Wie KI sie einführt
SQL-Injection Schlägt String-Verkettung statt parametrisierter Abfragen vor
XSS Generiert Code, der Benutzereingaben nicht bereinigt
Path Traversal Erstellt Dateioperationen ohne ordnungsgemäße Validierung
Unsichere Deserialisierung Schlägt Deserialisierung nicht vertrauenswürdiger Daten vor
Hartcodierte Geheimnisse Enthält manchmal Platzhalter-Zugangsdaten, die echt aussehen
Schwache Kryptographie Verwendet veraltete Algorithmen (MD5, SHA1)

2. Dein Code wird zu Trainingsdaten

In kostenlosen Tarifen der meisten KI-Coding-Assistenten kann dein Code zum Training zukünftiger Modelle verwendet werden:

  • GitHub Copilot Free/Individual: Code-Snippets werden zur Modellverbesserung genutzt (sofern du nicht widersprichst)
  • Cursor AI Free: Ähnliche Datenerhebungsrichtlinien
  • Claude Free Tier: Gespräche können für Training verwendet werden

Das bedeutet:

  • Deine proprietären Algorithmen könnten Code-Vorschläge für Konkurrenten beeinflussen
  • Sensible Geschäftslogik könnte in Vorschlägen anderer Entwickler auftauchen
  • In Code eingebettete Geschäftsgeheimnisse könnten theoretisch extrahierbar sein

Enterprise-Tarife bieten typischerweise Datenschutzvereinbarungen, aber viele Entwickler nutzen kostenlose Tarife ohne die Auswirkungen zu verstehen.

3. Zugangsdaten-Offenlegung

Wenn du einen KI-Code-Assistenten nutzt, teilst du oft Kontext einschließlich:

  • Umgebungsvariablen (manchmal mit API-Schlüsseln)
  • Konfigurationsdateien
  • Datenbank-Verbindungsstrings
  • Interne API-Endpunkte

Selbst wenn du Zugangsdaten nicht direkt einfügst, können KI-Assistenten sie aus dem Kontext ableiten oder Code-Muster vorschlagen, die sie offenlegen.

Beispiel einer Schwachstelle:

# KI könnte dieses Muster vorschlagen:
import os
api_key = os.getenv("API_KEY")
print(f"Using key: {api_key}")  # Loggt das Geheimnis!

4. Supply-Chain-Risiken

KI-Code-Assistenten können vorschlagen:

  • Veraltete Pakete mit bekannten Schwachstellen
  • Typosquatting-Paketnamen (bösartige Pakete mit ähnlichen Namen)
  • Abhängigkeiten, die du nicht hinzufügen wolltest
  • Pakete, die unsichere transitive Abhängigkeiten mitbringen

Ein Entwickler, der fragt „Wie parse ich JSON in Python?" könnte einen Vorschlag bekommen, ein zufälliges Paket zu installieren statt das eingebaute json-Modul zu nutzen.

5. Das Freitagnachmittag-Problem

Gartner sorgte 2026 für Aufsehen mit dem Vorschlag, Unternehmen sollten „Copilot am Freitagnachmittag verbieten." Die Begründung: Müde Entwickler am Wochenende neigen eher dazu, KI-Vorschläge ohne ordentliche Überprüfung zu akzeptieren.

Das verdeutlicht ein breiteres Problem: KI-Assistenten sind am gefährlichsten, wenn Entwickler:

  • Müde sind
  • Unter Termindruck stehen
  • In unbekannten Codebases arbeiten
  • Multitasking betreiben

Genau die Zeiten, in denen Entwickler am häufigsten nach KI-Hilfe greifen.

Aktuelle Forschung und Erkenntnisse

Georgia Tech Studie (März 2026)

Die bisher umfassendste Studie verfolgte CVEs, die speziell mit KI-generiertem Code verbunden sind:

  • 74 CVEs insgesamt auf KI-Code-Assistenten zurückgeführt
  • Claude Code: 27 CVEs (höchste Zahl aufgrund seiner Dateisystemzugriffs- und Code-Ausführungsfähigkeiten)
  • GitHub Copilot: 4 CVEs
  • Devin: 2 CVEs
  • 35 CVEs allein im März 2026 entdeckt — die Rate beschleunigt sich

Stanford-Forschung (2025)

Eine kontrollierte Studie fand, dass Entwickler mit KI-Assistenten:

  • Wahrscheinlicher unsicheren Code schreiben
  • Selbstsicherer sind, dass ihr Code sicher ist (obwohl er weniger sicher ist)
  • Weniger wahrscheinlich Sicherheitsdokumentation konsultieren

Pillar Security Bericht (2026)

Sicherheitsforscher entdeckten neue Angriffsvektoren in GitHub Copilot und Cursor AI:

  • Prompt-Injection durch Repository-Dateien
  • Exfiltration von Code-Kontext zu externen Servern
  • Manipulation von Vorschlägen durch strategisch verfasste Code-Kommentare

Wie man KI-Code-Assistenten sicherer nutzt

1. Behandle KI-Vorschläge als nicht vertrauenswürdige Eingabe

Jeder Vorschlag sollte:

  • Zeile für Zeile überprüft werden
  • Auf Sicherheitsauswirkungen getestet werden
  • Gegen Sicherheits-Best-Practices validiert werden

Nimm nicht an, dass KI-generierter Code sicher ist, weil er funktioniert.

2. Nutze Enterprise-Tarife für sensiblen Code

Wenn du mit proprietärem Code arbeitest:

Produkt Enterprise-Schutz
GitHub Copilot Enterprise Code nicht für Training genutzt, SOC 2-konform
Cursor AI Business Verbesserter Datenschutz
Claude Enterprise Datenverarbeitungsvertrag verfügbar

Der Kostenunterschied ist minimal im Vergleich zum Risiko von Code-Lecks.

3. Teile niemals Zugangsdaten mit KI

Nicht tun:

  • API-Schlüssel in Prompts einfügen
  • .env-Dateien im Kontext einschließen
  • KI bitten, „diesen Verbindungsstring zu debuggen" mit echten Zugangsdaten

Tun:

  • Platzhalter verwenden: YOUR_API_KEY_HERE
  • Sensible Werte vor dem Teilen von Code schwärzen
  • Zugangsdaten in separaten, von KI ausgeschlossenen Dateien aufbewahren

4. Führe Security-Scans durch

Integriere automatisierte Sicherheitstools, die das fangen, was KI übersieht:

  • SAST-Tools (Semgrep, SonarQube) für Code-Analyse
  • Dependency-Scanner (Snyk, Dependabot) für verwundbare Pakete
  • Secret-Scanner (GitGuardian, TruffleHog) für durchgesickerte Zugangsdaten

Führe diese bei jedem Commit aus, besonders bei Commits mit KI-generiertem Code.

5. Erstelle Team-Richtlinien

Etabliere klare Richtlinien für die Nutzung von KI-Code-Assistenten:

  • Welche Tarife sind zur Nutzung freigegeben
  • Welche Arten von Code keine KI-Unterstützung nutzen dürfen
  • Erforderliche Review-Prozesse für KI-generierten Code
  • Sicherheits-Schulungsanforderungen

6. Sicheres Teilen von Zugangsdaten für Entwicklung

Wenn du an Projekten mit sensiblen Zugangsdaten zusammenarbeitest:

Nicht tun:

  • Zugangsdaten via WhatsApp, Slack oder E-Mail teilen
  • Zugangsdaten in Repositories committen (auch nicht in private)
  • Zugangsdaten in KI-Chat-Interfaces einfügen

Tun:

  • Passwort-Manager für Team-Zugangsdaten-Sharing nutzen
  • Secret-Management-Tools nutzen (HashiCorp Vault, AWS Secrets Manager)
  • Einmal-Zugangsdaten über verschlüsselte, ablaufende Links teilen

Dienste wie LOCK.PUB ermöglichen passwortgeschützte Notizen, die sich nach dem Ansehen selbst löschen — ideal für das Teilen von Datenbank-Passwörtern, API-Schlüsseln oder anderen sensiblen Zugangsdaten mit Teammitgliedern ohne permanente Spuren zu hinterlassen.

Der Weg nach vorne

KI-Code-Assistenten werden nicht verschwinden. Sie sind zu nützlich. Aber der aktuelle Ansatz — darauf zu vertrauen, dass KI sicheren Code schreibt — scheitert nachweislich.

Die Lösung ist nicht, KI-Coding-Tools aufzugeben. Es ist:

  1. KI-Code wie Junior-Entwickler-Code behandeln — er braucht Review
  2. Sicherheitstools pflegen — automatisiertes Scanning fängt KI-Fehler
  3. Deine Daten schützen — Enterprise-Tarife nutzen, keine Geheimnisse teilen
  4. Informiert bleiben — Sicherheitsrisiken entwickeln sich mit wachsenden KI-Fähigkeiten

Die 74 CVEs, die Anfang 2026 entdeckt wurden, sind nur der Anfang. Da KI-Code-Assistenten mächtiger werden und breiter eingesetzt werden, wächst die Angriffsfläche. Bereite dich entsprechend vor.

Mehr erfahren: Wie man KI-Tools sicher nutzt →

Sichere Notiz zum Teilen von Zugangsdaten erstellen →

Schlüsselwörter

github copilot proprietärer code sicher
ki code sicherheitsrisiken
cursor ai sicherheit
ki generierter code schwachstellen
copilot schlägt unsicheren code vor

Erstellen Sie jetzt Ihren passwortgeschützten Link

Erstellen Sie kostenlos passwortgeschützte Links, geheime Notizen und verschlüsselte Chats.

Kostenlos Starten
KI-Coding-Assistenten Schreiben Unsicheren Code: Was Entwickler Wissen Müssen | LOCK.PUB Blog