
Erinnern Sie sich noch an die Zeit, als wir dachten, die Anwendungsebene sei der Ort, an dem der ganze Spaß stattfindet? Firewalls, WAFs, EDR, Dashboards in Hülle und Fülle – der gesamte industrielle Sicherheitskomplex ist darauf ausgerichtet, zu überwachen, was Anwendungen tun. Nun, mit einer „agentenbasierten KI“ wird dieser Mittelweg zu einer Umgehungsspur. Anstatt sich durch Benutzeroberflächen oder APIs zu klicken, macht Ihr KI-Kumpel direkte Systemaufrufe und automatisiert Arbeitsabläufe auf Betriebssystem- und Hardwareebene.
Das ist im Grunde so, als würde man einen übermütigen Praktikanten einstellen, ihm Root-Zugriff geben und sagen: „Keine Sorge, Sie werden es schon herausfinden.“ Was kann schon schiefgehen?
Respond faster with Sumo Logic Dojo AI
Cut through the noise, detect threats faster, and resolve issues before they disrupt your operations.
Die Fallstricke, die niemand zugeben will
Wie sich herausstellt, eigentlich ziemlich viel:
• Schwarzes Loch in der Sicherheit: Wenn die KI auf der Betriebssystemebene agieren kann, kann sie dort auch Mist bauen. Vergessen Sie das Vertippen bei einer Konfiguration – wir sprechen hier von einer KI mit Kernel-Rechten. Eine falsche Eingabeaufforderung oder ein vergifteter Datensatz, und es ist nicht nur eine schiefgelaufene Slack-Nachricht, sondern Ihr Dateisystem wird neu geschrieben.
• Datensichtbarkeit? Welche Datensichtbarkeit?: All die schönen, sauberen Protokolle der Anwendungsebene, für die Sie Pipelines erstellt haben? Vorbei. Jetzt haben Sie es mit verworrenen Datenströmen, halbgaren KI-Entscheidungen und weniger zu überwachenden Schwachstellen zu tun. Denken Sie weniger an „Einscheibenglas“ und eher an „beschlagene Spiegel“.
• Erweiterte Angriffsfläche: Schwachstellen verschwinden nicht, nur weil die KI Ihre Anwendung umgeht – sie vermehren sich. Firmware, Treiber, obskure Systemaufrufe – willkommen in der Unterwelt, die die meisten Entwickler und Sicherheitsfachleute nie anfassen wollten.
• Bedrohungsmodelle in einem Mixer: Diese hübschen Schichtdiagramme (Benutzer → App → Betriebssystem → Hardware), die Sie auf Whiteboards gezeichnet haben? Ja, werfen Sie sie weg. KI-gesteuerte Agenten können Schichten kurzschließen und dadurch ein unerwartetes schichtenübergreifendes Chaos verursachen, das von Ihren alten Modellen nicht erfasst wird.
Also – was nun?
Wenn die KI die Anwendungsebene überspringt, muss Ihre Sicherheitsstrategie angepasst werden. Sie müssen Folgendes einführen:
• Neue Bedrohungsmodelle: Gehen Sie davon aus, dass die KI Zugriff auf Systemebene hat, denn das wird sie tun. Aktualisieren Sie Ihre Modelle entsprechend.
• Sichtbarkeit auf niedrigeren Ebenen: App-Protokolle reichen nicht mehr aus. Investieren Sie in die Beobachtbarkeit auf Betriebssystem- und Hardwareebene. Machen Sie sich mit der Telemetrie vertraut, die die meisten Menschen bisher ignoriert haben.
• Leitplanken für KI-Betrieb: Genauso wie Sie einen Praktikanten nicht unbeaufsichtigt in der Produktion arbeiten lassen würden, sollten Sie KI-Agenten nicht uneingeschränkt agieren lassen. Least Privilege, Sandboxing und Laufzeitprüfungen – all das muss für KI-Einsätze weiterentwickelt werden.
• Hardware- und Betriebssystemhersteller steigen ein: Wenn die Anwendungsebene übersprungen wird, verlagert sich die Last nach unten. Erwarten (und fordern) Sie von Hardware- und Betriebssystemanbietern, dass sie mehr „KI-sichere“ Primitive für Vertrauen, Verifizierung und Rollback anbieten.
Fazit
Agentenbasierte KIs sind nicht „schlecht”, aber sie ist disruptiv. Wir tauschen den Komfort der Sichtbarkeit der App-Ebene gegen ein Zombieland mit neuen Regeln, in dem die KI das Betriebssystem und die Hardware direkt berührt. Wenn wir jetzt nicht über Sichtbarkeit, Threat Modeling (Bedrohungsmodellierung) und Leitplanken nachdenken, wird der nächste Sicherheitsvorfall nicht nur ein „Ups, ungesicherter S3-Bucket“ sein. Es wird Ihr KI-Praktikant sein, der Systemadministrator auf Produktionsservern spielt.
Sind Sie bereit, Leitplanken anzubringen? Lernen Sie, wie Sie bessere KI-Sicherheitsrichtlinien schreiben können.

