
Jedes Mal, wenn mich jemand nach seiner KI-Richtlinie fragt, verzweifle ich innerlich ein wenig. Nicht, weil es eine schlechte Frage ist, sondern weil meine Antwort immer dieselbe ist: „Können wir mal die Angst als Grundlage weglassen?“ Die meisten Menschen verstehen nicht, wie die KI-Architektur funktioniert, daher ist es ihr erster Instinkt, in Panik zu geraten.
Und wir haben diesen Film schon einmal gesehen: Cloud, Mobilgeräte, Bring Your Own Device (BYOD). Sobald etwas Neues auftaucht, verwandelt sich die Sicherheitsabteilung in eine Neinsager-Abteilung und sagt den Teams: „Ihr könnt ChatGPT nicht verwenden. Es könnte zu Datenverlusten kommen.“
In der Zwischenzeit hat dieselbe Person gerade eine Kunden-ID in ein öffentliches GitHub-Problem eingefügt. Gutes Gespräch.
Respond faster with Sumo Logic Dojo AI
Cut through the noise, detect threats faster, and resolve issues before they disrupt your operations.
Der Angstreflex skaliert nicht
Angst ist keine Strategie. Wenn man „keine KI erlaubt“ sagt, verringert man damit nicht das Risiko. Man erreicht nur Folgendes:
- Schatten-IT (die Mitarbeiter werden sie sowieso benutzen)
- Inkonsistenz (Microsoft Copilot erlaubt, aber ChatGPT verboten?)
- Verlust des Vertrauens in die Sicherheit (der wichtigste Teil Ihrer Arbeit)
Wenn wir den sicheren und vernünftigen Einsatz der KI in unseren Unternehmen ermöglichen wollen, müssen wir von unüberlegten Einschränkungen zu bedrohungsbasierten Entscheidungen übergehen.
Eine Richtlinie ohne Threat Models ist nur Paranoia
Eine echte Sicherheitsrichtlinie sollte folgende Fragen beantworten:
- Was schützen wir?
- Vor wem?
- Und wie kann es scheitern?
Das ist Threat Modeling. Und es funktioniert auch bestens im Zusammenhang mit der KI.
Nehmen wir zum Beispiel an, das Entwicklerteam möchte ChatGPT für die Zusammenfassung von Supportfällen verwenden.
- Asset: Interne Support-Dokumente
- Bedrohung: Prompt-Injection, Datenverluste, Halluzinationen
- Auswirkungen: Geleakter Workflow, schlechte Kundenberatung
- Steuerelemente: Vorlagen, keine personenbezogenen Daten, Audit-Protokolle
Sie haben jetzt einen Grund, „Ja – mit Leitplanken“ zu sagen, anstatt „Nein – kein gutes Gefühl“.
Ein einfaches Rahmenwerk, das nicht nervt
Um die sichere Nutzung der KI in Ihrem Unternehmen zu gewährleisten, sollten Sie zunächst folgende Maßnahmen ergreifen:
- Bestandsaufnahme und Ermittlung: Sämtliche KI-Nutzungen ermitteln (ob Schatten oder nicht). Entwicklung, Marketing, HR, Rechtsabteilung – glauben Sie mir, es ist überall.
- Datenklassifizierung: Wissen, was sensibel ist. Personenbezogene Daten? Quellcode? Strategiedokumente?
- Bestimmte Zonen zulassen/überwachen/verweigern: Nicht alles muss verboten werden. Verwenden Sie ein abgestuftes Modell, um Risiko und Produktivität auszugleichen.
- Leitplanken und Protokollierung: Prompt-Filter, Ausgabevalidierung, Sitzungsaufzeichnung. Es gibt KI-Gateways – nutzen Sie sie.
- Ermöglichen, nicht behindern: Arbeiten Sie mit Teams. Ein „Nein“ ist keine langfristige Richtlinie.
Fünf Richtlinienbereiche, die Sie wahrscheinlich ignorieren
- Schatten-Feinabstimmung: Jeder kann jetzt ein LLaMA-Modell anhand interner Daten feinabstimmen. Viel Glück dabei, das wieder abzutrainieren.
- Prompt-IP-Datenverluste: Ihr Prompt ist Ihre Logik. Lassen Sie nicht zu, dass Ihre Mitarbeiter ihn in einer Discord-Gruppe posten.
- Browser-Erweiterungen: Jasper, Rewind, Merlin – das sind Exfil-Tools mit schickem Branding.
- KI-geschriebene Rechtsdokumente: Hoppla, Sie haben gerade eine Garantieklausel halluziniert.
- Autonome Agenten: Die Zapier+GPT-Einrichtung, die Ihr PM vorgenommen hat, sendet jetzt E-Mails an Kunden. Cool cool cool.
Jeder dieser Bereiche benötigt ein Threat Model, eine Risikomatrix und einen Richtlinienstandpunkt. Wir haben eine Mustermatrix für Sie erstellt, falls es sich mit Mathematik offizieller anfühlt.
| Bereich | Wahrscheinlichkeiten | Auswirkungen | Risikostufe |
| Schatten-Feinabstimmung | 4 | 5 | 20 |
| Prompt-Engineering-IP | 3 | 4 | 12 |
| KI-Browser-Erweiterungen | 5 | 4 | 20 |
| KI im Bereich Recht/Compliance | 3 | 5 | 15 |
| Autonome KI-Agenten | 4 | 5 | 20 |
Visualisiere oder stirb
Um es ganz einfach zu halten, hier ein allgemeines Threat-Modeling-Modell:
- Akteur
- Bedrohung
- Asset
- Auswirkungen
- Kontrollen
Kleben Sie diese auf ein Whiteboard und verbinden Sie die Punkte. Es funktioniert. Bonuspunkte erhalten Sie, wenn Sie Leute außerhalb der Sicherheitsbranche (Entwicklung, GTM usw.) einbeziehen, um Brücken zu bauen und eine breitere Sichtweise des Problems zu erhalten.
Fazit
KI-Richtlinien sind keine Ja/Nein-Frage.
Es geht darum, Folgendes herauszufinden:
- Was ist der Anwendungsfall?
- Wie hoch ist das Risiko?
- Können wir Kontrollen einrichten?
Die IT-Sicherheit hat nicht die Aufgabe, die Moralpolizei zu spielen. Unsere Aufgabe ist es, den Betrieb sicher zu aktivieren.
Hören Sie also auf, alles zu blockieren. Beginnen Sie mit Threat Modeling. Und vielleicht, nur vielleicht, werden die Leute aufhören, ihre KI-Nutzung vor Ihnen zu verbergen.
Die KI-Richtlinie ist nur die halbe Miete. Verstehen Sie die Risikolandschaft hinter dem Datenschutz im Zusammenhang mit der KI.


