
Man kann mit Sicherheit sagen, dass die generative KI und die Einführung von GPT4 im Jahr 2023 die größte Aufregung – und Angst – in der Tech-Welt ausgelöst haben
. Das ist angesichts der möglichen Anwendungsbereiche und der Benutzerfreundlichkeit nicht überraschend. Sogar Schulkinder nutzen es!
Es ist das Hauptgesprächsthema auf großen Tech-Konferenzen und in Publikationen, in den Vorstandsetagen von Unternehmen, in
Produkt- und Engineering-Teams und sogar bei Familien am Esstisch – aber vielleicht auch nur in meiner Familie
. Bei so viel Interesse und Besorgnis sollte es niemanden überraschen, wenn nächstes Jahr um diese Zeit jedem Team im Unternehmen die Frage nach Effizienzsteigerungen gestellt wird
.
Was bedeutet es also, vorbereitet zu sein? Bei Sumo Logic haben wir uns diese Fragen als Ausgangspunkt gestellt
, um sicherzustellen, dass wir 2024 und in den kommenden Jahren einen Mehrwert für unsere Kunden schaffen und bieten.
KI-Halluzinationen: Feature oder Fehler?
In einer kürzlichen Produktbesprechung bemerkte einer meiner Datenwissenschaftler, dass er gar nicht wusste, dass unsere Abfragen auf diese Weise funktionieren
. Wir müssen uns natürlich fragen, was an generativer KI dieses Maß an Kreativität ermöglicht. Ich behaupte, dass dies daran liegt, dass
die Technologie halluzinieren und Dinge ausprobieren kann, die als außerhalb der Norm gelten. Wenn wir Halluzinationen als
einen zu behebenden Fehler behandeln, könnten wir versehentlich die Fähigkeit der Technologie, Kreativität, Einsicht und sogar
Innovation einzubringen, zunichte machen.
Die meisten Gespräche über KI-Halluzinationen lösen auf dem Markt Angst aus, aber ich behaupte, dass der wahre Schuldige nicht
die Halluzination ist, sondern der Ton. Das größte Problem mit ChatGPT ist, dass es seine Antworten so definitiv darstellt.
Bei der Ideenfindung und beim Brainstorming muss man in der Regel kreativ sein und Raum für Irrtümer lassen.
Wenn wir unseren KI-Brainstorming-Partner nicht mehr als Wahrheitsvermittler, sondern als Kreativitätspartner behandeln, können wir
darauf hinarbeiten, unglaublich schwierige neue Probleme für Kunden zu lösen, indem wir die natürlichen Stärken dieser Technologie nutzen,
zu denen auch ihre Halluzinationen gehören.
Systeme der Aufzeichnung vs. Systeme der Erkenntnis
Wenn wir akzeptieren, dass generative KI nicht die Quelle einer endgültigen Antwort für unsere Kunden ist, welche zusätzlichen
Technologien müssen wir dann einsetzen? An dieser Stelle sind Aufzeichnungssysteme von entscheidender Bedeutung.
Ein Aufzeichnungssystem ist die maßgebliche Datenquelle, Tatsache oder Information. Es ist das, was heute das typische IT-System
antreibt, z. B. Logs, Datenbanken, Service Maps, Integrationen, Stammeswissen usw. In diesem Fall gilt: Je
mehr Daten Sie mit dem System verbinden können, desto leistungsfähiger kann es werden.
Da es sich um die maßgebliche Information, eine „Quelle der Wahrheit“ handelt, muss sie auch zu 100 % richtig sein. Aber es ist schwer,
sie in Echtzeit zu verwalten und zu nutzen, und deshalb sind automatische Generierung und automatische Erkennung für Datensysteme so
wichtig.
Der Begriff „Single Source of Truth“ ist zwar schon lange bekannt, aber für Entwickler, Sicherheits- und Betriebsteams
ist er oft sehr viel vager. Aus diesem Grund sind Logs von entscheidender Bedeutung und dienen
als atomare Wahrheitsebene – Logs sind das einzige Artefakt, das auf natürliche Weise und automatisch von
Anwendungen und Infrastrukturen generiert wird, und damit ist eine offensichtliche Grundlage für ein System der Aufzeichnung.
In der Zwischenzeit betrachte ich generative KI als so etwas wie ein „System der Erkenntnis“, bei dem die Technologie
zusätzliche Erkenntnisse liefern kann, die man vorher nicht hatte.
In einer früheren Position musste ich zum Beispiel eine 60-minütige Präsentation über „Innovation“ vor einem Raum voller Praktikanten
und Mitarbeiter halten. Ohne eine Vorstellung davon zu haben, was ich präsentieren sollte, tat ich, was jeder von uns tut. Ich ging zu Google und tippte
„Innovation“ in die Suchleiste ein und scrollte dann durch tonnenweise Websites, Bilder und Videos. Schließlich entdeckte ich
ein Bild einer Schildkröte mit Formel-1-Reifen, das mir als Teil meiner Präsentation diente.
Ich habe zwar nicht nach „Schildkröte mit Formel-1-Reifen“ gesucht, aber es hat mich bei meiner Arbeit inspiriert – so wie die Google-Suche mein
Denken inspiriert hat, kann die KI ihr System von Erkenntnissen nutzen, um eine Denkpartnerschaft zu schaffen, die über die reine Suche hinausgeht.
Durch die Kombination von Aufzeichnungs- und Erkenntnissystemen werden wir neue Lösungen schaffen, die den Kunden definitive
Antworten auf ihre eigenen Daten geben können.
Was bedeutet das für Entwickler, Betriebs- und Sicherheitsteams?
Es ist eine aufregende und zugleich gefährliche Zeit in der Technologie- und Softwarebranche. Ich denke, Unternehmen wie Microsoft und GitHub haben es
richtig gemacht, wenn sie die Namenskonvention „Copilot“
verwenden, da der Name darauf hindeutet, dass die Technologie Ihnen hilft, Ihre Arbeit besser zu erledigen – und nicht versucht, Sie zu ersetzen.
Ich kann mir vorstellen, dass ähnliche Innovationen in Bereichen wie Testen, Observability und Sicherheit entstehen, wenn die kritische
Verbindung zwischen Aufzeichnungssystemen und Erkenntnissen gefestigt wird. Es könnte ein schnelleres Onboarding bedeuten, vor allem wenn
es einfacher ist, natürlichere und tiefer gehende Fragen an Ihre Systeme zu stellen, wie „Was kann ich tun, um die Kosten und
die Sicherheit meiner Infrastruktur zu verbessern?“ Es könnte auch dazu beitragen, redundante Aufgaben zu automatisieren, insbesondere bei der
Berichterstattung.
Die Gefahren sind ebenfalls offensichtlich, da KI potenzielle Sicherheits- und Rechtsfragen aufwirft. Bei einem Innovations-Roundtable
(diesmal ohne Formel-1-Schildkröten), an dem ich kürzlich teilnahm, waren die größten Bedenken der Führungskräfte die rechtlichen Auswirkungen von KI.
Je nachdem, wie die LLMs und FMs trainiert werden, gibt es potenzielle rechtliche Bedenken, insbesondere im Hinblick auf das Training Ihrer
Modelle unter Verwendung des geistigen Eigentums anderer. Dies wirft die Frage nach der gesamten Lieferkette auf, einschließlich IP und absichtlicher
Vergiftung von Informationen oder Code. Ganz zu schweigen von den „direkten Bedrohungen“, wenn KI für Social Engineering
oder zum Schreiben von bösartigem Code oder Malware eingesetzt wird.
Um den Nutzen zu maximieren und das Risiko zu minimieren, sollten alle Führungskräfte von Entwicklern, Betriebs- und Sicherheitsteams
jetzt grundlegende Best Practices einführen.
- Wo in Ihrem Code sollten Sie KI einsetzen und wo nicht? Werden Sie generative KI einsetzen, um Ihnen beim Schreiben von Code in Ihren
zentralen Systemen oder Anwendungen zu helfen? Das wichtigste der bewährten Verfahren ist die Einführung von Richtlinien. Code kann sich schnell in Ihrem
Produkt ausbreiten, und Sie möchten wissen, wie viel davon KI-unterstützt war. - Wo werden Sie den größten Nutzen aus der KI ziehen? Wählen Sie die spezifischen Bereiche aus, die am meisten von der Kombination von
Systemen der Erkenntnis mit Systemen der Aufzeichnung profitieren würden, und trainieren Sie die LLMs, um zunächst nur mit dieser Codebasis besser zu werden. - Planen Sie, dass Ihre Systeme der Aufzeichnung und Ihre Systeme der Erkenntnis für den zukünftigen Geschäftserfolg aufeinander abgestimmt sind. Diese
Prozesse und Systeme befinden sich zwar noch im Anfangsstadium ihrer Vernetzung, aber die Erschließung ihres kombinierten Potenzials wird
entscheidend sein, wenn Ihr Unternehmen den nächsten Technologiesprung macht.
Bei Sumo Logic sind wir begeistert von Technologien wie der generativen KI. Immer mehr DevSecOps-Teams erkennen
, dass Logs als gemeinsame Sprache und Aufzeichnungssystem für die Teamzusammenarbeit dienen können – wenn man ein System der Erkenntnis
hinzufügt, wird die Wirkung exponentiell noch größer. Wir verfügen bereits über die branchenweit skalierbarste Plattform für Log-Analysen
, die zur Grundlage für das Aufbrechen von Silos und den Aufbau von Zusammenarbeit wird.

