
Erinnern Sie sich noch an die Zeit, als wir dachten, die Anwendungsebene sei der Ort, an dem die Post abgeht? Firewalls, WAFs, EDR und Dashboards in Hülle und Fülle – der gesamte „Security-Industrial-Complex“, der nur darauf ausgerichtet ist, das Verhalten von Apps zu überwachen. Doch jetzt übernimmt „Agentic AI“ das Ruder und verwandelt diese mittlere Ebene in eine Überholspur. Anstatt sich durch Benutzeroberflächen oder APIs zu klicken, setzt Ihr KI-Assistent direkte Systemaufrufe ab und automatisiert Workflows unmittelbar auf Betriebssystem- und Hardware-Ebene.
Das ist im Grunde so, als würde man einen übermütigen Praktikanten einstellen, ihm Root-Zugriff geben und sagen: „Keine Sorge, Sie werden es schon herausfinden.“ Was kann schon schiefgehen?
Respond faster with Sumo Logic Dojo AI
Cut through the noise, detect threats faster, and resolve issues before they disrupt your operations.
Die Fallstricke, die niemand zugeben will
Wie sich herausstellt, eigentlich ziemlich viel:
• Das Sicherheits-Vakuum: Wenn die KI auf der Betriebssystemebene agieren kann, kann sie auf dieser Ebene auch massiven Schaden anrichten. Vergessen Sie Flüchtigkeitsfehler bei einer Konfiguration – wir reden hier von KI mit Kernel-Privilegien. Ein einziger schädlicher Prompt oder ein vergifteter Datensatz, und es geht nicht mehr nur um eine missglückte Slack-Nachricht; es geht darum, dass Ihr Dateisystem neu geschrieben wird.
• Daten-Sichtbarkeit? Welche Daten-Sichtbarkeit?: All die sauberen Logs auf Anwendungsebene, für die Sie mühsam Pipelines aufgebaut haben? Verschwunden. Ab jetzt haben Sie es mit getrübten Datenströmen, unausgegorenen KI-Entscheidungen und weniger Kontrollpunkten zur Überwachung zu tun. Stellen Sie sich weniger ein zentrales Dashboard (Single Pane of Glass) vor, sondern eher einen beschlagenen Spiegel.
• Erweiterte Angriffsfläche: Schwachstellen verschwinden nicht einfach, nur weil die KI Ihre Anwendungsebene umgeht – sie multiplizieren sich. Firmware, Treiber, obskure Systemaufrufe … willkommen in der Schattenseite der IT, die die meisten Entwickler und Security-Experten niemals anfassen wollten.
• Bedrohungsmodelle im Mixer: Die ordentlichen Schichten-Diagramme (Nutzer → Anwendung → Betriebssystem → Hardware), die Sie früher an Whiteboards gezeichnet haben? Werfen Sie sie weg. KI-gesteuerte Agenten können Schichten kurzschließen und ein schichtenübergreifendes Chaos verursachen, das Ihre alten Modelle nicht erfassen.
Also – was nun?
Wenn die KI die Anwendungsebene überspringt, muss Ihre Sicherheitsstrategie angepasst werden. Sie müssen Folgendes einführen:
• Neue Bedrohungsmodelle: Gehen Sie davon aus, dass die KI Zugriff auf Systemebene hat, denn das wird sie tun. Aktualisieren Sie Ihre Modelle entsprechend.
• Sichtbarkeit auf tieferen Ebenen: Anwendungsprotokolle reichen nicht mehr aus. Investieren Sie in Observability auf Betriebssystem- und Hardware-Ebene. Machen Sie sich mit Telemetriedaten vertraut, die die meisten früher ignoriert haben.
• Leitplanken für KI-Betrieb: Genauso wie Sie einen Praktikanten nicht unbeaufsichtigt in der Produktion arbeiten lassen würden, sollten Sie KI-Agenten nicht uneingeschränkt agieren lassen. Least Privilege, Sandboxing und Laufzeitprüfungen – all das muss für KI-Einsätze weiterentwickelt werden.
• Hardware- und Betriebssystemanbieter werden aktiv: Wenn die Anwendungsebene übersprungen wird, verlagert sich die Last nach unten. Erwarten (und fordern) Sie von Hardware- und Betriebssystemherstellern die Bereitstellung von mehr „KI-sicheren“ Mechanismen für Vertrauen, Verifizierung und Rollback.
Fazit
Agentische KI ist nicht per se schlecht, aber sie wirkt disruptiv. Wir tauschen den Komfort der Sichtbarkeit auf Anwendungsebene gegen ein Niemandsland mit neuen Regeln ein, in dem die KI direkt mit dem Betriebssystem und der Hardware interagiert. Wenn wir Sichtbarkeit, Bedrohungsmodellierung und Schutzmaßnahmen nicht jetzt neu überdenken, wird die nächste Sicherheitslücke kein „Hoppla, falsch konfigurierter S3-Bucket“ sein. Es wird Ihr KI-Praktikant sein, der auf den Produktionsservern Systemadministrator spielt.
Sind Sie bereit, Guardrails anzubringen? Lernen Sie, wie Sie bessere KI-Sicherheitsrichtlinien schreiben können.


