
Jedes Mal, wenn mich jemand nach der Erstellung einer KI-Richtlinie fragt, stirbt ein kleiner Teil von mir. Nicht, weil es eine schlechte Frage wäre, sondern weil meine Antwort immer dieselbe ist: „Können wir sie zur Abwechslung mal nicht auf Basis purer Angst aufbauen?“ Die meisten Leute verstehen nicht, wie eine KI-Architektur funktioniert – deshalb ist ihr erster Instinkt Panik.
Und wir haben diesen Film schon einmal gesehen: Cloud, Mobile, Bring Your Own Device (BYOD). In der Sekunde, in der etwas Neues auftaucht, verwandelt sich die Security-Abteilung in die „Nein-Abteilung“ und erklärt den Teams: „Ihr dürft ChatGPT nicht benutzen. Ihr könntet sensible Daten leaken.“
In der Zwischenzeit hat dieselbe Person gerade eine Kunden-ID in ein öffentliches GitHub-Issue eingefügt. Gutes Gespräch.
Respond faster with Sumo Logic Dojo AI
Cut through the noise, detect threats faster, and resolve issues before they disrupt your operations.
Der Angstreflex skaliert nicht
Furcht ist keine Strategie. Die Aussage „KI verboten“ verringert das Risiko nicht. Sie garantiert nur:
- Schatten-IT (die Mitarbeiter werden sie sowieso benutzen)
- Inkonsistenz (Microsoft Copilot erlaubt, aber ChatGPT verboten?)
- Verlust des Vertrauens in die Sicherheit (der wichtigste Teil Ihrer Arbeit)
Wenn wir den sicheren und vernünftigen Einsatz der KI in unseren Unternehmen ermöglichen wollen, müssen wir von unüberlegten Einschränkungen zu bedrohungsbasierten Entscheidungen übergehen.
Eine Richtlinie ohne Bedrohungsmodelle ist nur Paranoia
Eine echte Sicherheitsrichtlinie sollte folgende Fragen beantworten:
- Was schützen wir?
- Vor wem?
- Und wie kann es scheitern?
Das ist Threat Modeling (Bedrohungsmodellierung). Und es funktioniert auch bestens im Zusammenhang mit der KI.
Angenommen, das Entwicklungsteam möchte ChatGPT für die Zusammenfassung von Supportfällen verwenden.
- Asset: Interne Support-Dokumente
- Bedrohung: Prompt-Injection, Datenverluste, Halluzinationen
- Auswirkungen: Geleakter Workflow, schlechte Kundenberatung
- Steuerelemente: Vorlagen, keine personenbezogenen Daten, Audit-Protokolle
Sie haben jetzt einen Grund, „Ja – mit Leitplanken“ zu sagen, anstatt „Nein – kein gutes Gefühl“.
Ein einfaches Framework, das nicht nervt
Um die sichere Nutzung der KI in Ihrem Unternehmen zu gewährleisten, sollten Sie zunächst folgende Maßnahmen ergreifen:
- Bestandsaufnahme und Entdeckung: Finden Sie alle KI-Nutzungen (Schatten oder nicht). Entwickler, Marketing, HR, Rechtsabteilung – glauben Sie mir, es ist überall.
- Datenklassifizierung: Wissen, was sensibel ist. PII? Quellcode? Strategie-Dokumente?
- Zonen zulassen/überwachen/verweigern: Nicht alles muss verboten werden. Verwenden Sie ein abgestuftes Modell, um Risiko und Produktivität auszugleichen.
- Leitplanken und Protokollierung: Prompt-Filter, Ausgabevalidierung, Sitzungsaufzeichnung. Es gibt KI-Gateways – nutzen Sie sie.
- Ermöglichen, nicht behindern: Mit Teams arbeiten. „Nein“ ist keine langfristige Richtlinie.
Fünf Richtlinienbereiche, die Sie wahrscheinlich ignorieren
- Schatten-Feinabstimmung: Jeder kann jetzt ein LLaMA-Modell anhand interner Daten feinabstimmen. Viel Glück dabei, das wieder rückgängig zu machen.
- Abfluss von geistigem Eigentum durch Prompts:: Ihr Prompt ist Ihr Geschäftsgeheimnis. Lassen Sie nicht zu, dass Ihre Techniker sie in Discord-Gruppen teilen.
- Browser-Erweiterungen: Jasper, Rewind, Merlin – das sind Exfil-Tools mit schickem Branding.
- KI-geschriebene Rechtsdokumente: Hoppla, Sie haben gerade eine Garantieklausel halluziniert.
- Autonome Agenten: Die Zapier+GPT-Einrichtung, die Ihr PM vorgenommen hat, sendet jetzt E-Mails an Kunden. Cool cool cool.
Für jeden dieser Punkte sind ein Bedrohungsmodell, eine Risikomatrix und eine Richtlinie erforderlich. Wir haben eine Beispielmatrix für Sie erstellt, falls mathematische Darstellungen das Ganze offizieller wirken lassen.
| Bereich | Wahrscheinlichkeiten | Auswirkungen | Risikostufe |
| Schatten-Feinabstimmung | 4 | 5 | 20 |
| Prompt-Engineering-IP | 3 | 4 | 12 |
| KI-Browser-Erweiterungen | 5 | 4 | 20 |
| KI im Bereich Recht/Compliance | 3 | 5 | 15 |
| Autonome KI-Agenten | 4 | 5 | 20 |
Visualisiere oder stirb
Um es ganz einfach zu halten, hier ein allgemeines Threat-Modeling-Modell:
- Akteur
- Bedrohung
- Asset
- Auswirkungen
- Kontrollen
Die Übersetzung„Hängen Sie das alles an ein Whiteboard und verbinden Sie die Punkte. Es funktioniert. Bonuspunkte gibt es, wenn Sie Leute außerhalb der Security-Abteilung dazuholen (Dev, GTM etc.) – so bauen Sie Brücken und erhalten eine vielfältigere Sicht auf das Problem.
Fazit
KI-Richtlinien sind keine Ja/Nein-Frage.
Es geht darum, Folgendes herauszufinden:
- Was ist der Anwendungsfall?
- Wie hoch ist das Risiko?
- Können wir Kontrollen einführen?
Die Sicherheitsabteilung ist nicht dazu da, die Moralpolizei zu spielen. Unsere Aufgabe ist es, das Geschäft sicher zu ermöglichen.
Verabschieden Sie sich von der Blockade-Haltung und gehen Sie zur Bedrohungsmodellierung über. Dann werden die Mitarbeiter ihre KI-Nutzung möglicherweise auch nicht mehr verheimlichen.
Die KI-Richtlinie ist nur die halbe Miete. Verstehen Sie die Risikolandschaft hinter dem Datenschutz im Zusammenhang mit der KI.



