Support auf Autopilot: KI macht das IT Service Management noch effizienter

In heutigen ITSM-Systemen laufen immer mehr Vorgänge automatisiert ab, zur Ticketbearbeitung, proaktiven Fehlererkennung, im Incident Management oder in Form virtueller Assistenten. Helfer im Hintergrund immer öfter: KI.

von Pierre Cordes, Solution Expert bei der handz.on GmbH

Künstliche Intelligenz lässt sich im ITSM-Kontext in zwei grundlegende Haupteinsatzgebiete einteilen: Predictive Machine Learning auf der einen Seite für die Automatisierung von Ticketkategorisierung, Routing und Major Incident Erkennung, Generative AI (GenAI) auf der anderen Seite zur Generierung von Lösungstexten oder Zusammenfassungen von Logbucheinträgen eines Tickets. So vorteilhaft beide Ansätze sind, so unterschiedlich gestalten sich die mit ihnen verbundenen Anforderungen und Herausforderungen.

Predictive Machine Learning: Automatisierung und Effizienz

Predictive Machine Learning wird hauptsächlich zur Steuerung von Ticketprozessen eingesetzt. Dies umfasst die automatische Kategorisierung und das Routing von Tickets. Diese – oft auch als “klassisch” bezeichnete – Künstliche Intelligenz konzentriert sich auf die Automatisierung von Prozessen mithilfe KI-gestützter Algorithmen. Ziel ist es, wiederkehrende Aufgaben zu automatisieren, wie etwa Tickets automatisch zu kategorisieren, zu priorisieren und damit die Effizienz der IT-Abteilung zu steigern.

Meldet jemand zum Beispiel ein Problem mit dem Drucker, wird das Ticket dank KI automatisch der richtigen Kategorie (z.B. Hardware, Drucker) zugeordnet und an die zuständige Supportgruppe weitergeleitet. Nicht nur die Bearbeitungszeit reduziert sich dadurch, sondern auch das Risiko wird minimiert, dass Tickets in der falschen Abteilung landen und unnötig hin- und her geschoben werden.

Ein weiteres Beispiel ist die Erkennung von Major Incidents. Melden mehrere Beschäftigte innerhalb kurzer Zeit ähnliche Probleme, erkennt die KI dies und fasst die Einzeltickets automatisch zu einem Major Incident zusammen. Das erleichtert die Bearbeitung und beschleunigt die Lösungsfindung. Ist etwa ein NAS-System nicht erreichbar, erreichen die IT-Abteilung ansonsten Dutzende, vielleicht Hunderte Einzeltickets mit jeweils genau dem gleichen Problem. Anstatt dessen können sich die Admins auf den Major Incident konzentrieren und alle zugehörigen Tickets gleichzeitig lösen. Eine enorme Ersparnis an Zeit und Personalressourcen.

Zentraler Vorteil von Predictive Machine Learning: Es ist on-premises nutzbar und damit DSGVO-konform, da keine Daten das Unternehmen verlassen. Die Technologie nutzt bestehende strukturierte Daten und damit einen kontrollierbaren Lernraum. Sie bietet eine hohe Geschwindigkeit bei Entscheidungsunterstützung, ist aber gleichzeitig stark abhängig von der Qualität und Quantität der Bestandsdaten. Ein einmal angelerntes Modell bedarf außerdem kontinuierlicher Pflege und Nachtrainingsprozesse. Und es stellt in der Regel eine „Black Box“ für Personen ohne tiefergehende Data-Science-Kenntnisse dar.

Generative AI: Texterzeugung und Datenanalyse

Generative KI (GenAI) geht einen Schritt weiter. Sie nutzt KI, um Lösungstexte zu generieren, Logbucheinträge zusammenzufassen und Wissen zu extrahieren. Anstatt lange Logdateien manuell zu durchsuchen, kann GenAI die wichtigsten Informationen extrahieren und in wenigen Sätzen wiedergeben. Das eröffnet im ITSM ganz neue Möglichkeiten. Auf die Tickets bezogen, werden diese nicht nur kategorisiert, sondern zugleich inhaltlich bearbeitet. Basierend auf der Fehlerbeschreibung und den vorhandenen Ticketdaten generiert die KI einen Lösungsvorschlag, welcher der IT-Abteilung direkt zur Verfügung gestellt wird. In manchen Fällen kann die KI das Ticket sogar komplett automatisch lösen.

Darüber hinaus lassen sich generative KI-Lösungen auch zur Erstellung von Knowledge-Artikeln nutzen. Basierend auf den vorhandenen Ticketdaten generieren sie automatisch Artikel für die Wissensdatenbank, die gleichermaßen IT-Fachkräften wie Usern bei der schnellen und eigenständigen Lösung von Problemen helfen. Auch durch GenAI ergeben sich damit wieder die bekannten Effekte bzgl. Zeitersparnis und schnellere Problemlösung. IT-Fachkräfte können sich auf die wesentlichen Aspekte eines Problems konzentrieren, anstatt in aufwendigen Routinen und Handarbeiten festzustecken.

Was bei der generativen KI verbleibt, ist die bekannte Achillesferse des Halluzinierens, weswegen immer eine menschliche Validierung der Ergebnisse erforderlich ist. Zudem ist es wichtig, die Mitarbeitenden auf den Einsatz von KI vorzubereiten und ihnen die notwendigen Kenntnisse und Regeln zur Nutzung (rechtlich und ethisch) zu vermitteln. Nur so können sie die Potenziale der neuen Technologie voll ausschöpfen und Risiken minimieren.

Datenqualität als Erfolgsfaktor

Unabhängig davon, welcher KI-Ansatz verwendet wird, hängt der Erfolg maßgeblich von der Qualität der Eingangsdaten ab. Eine unzureichende Ticketbeschreibung erschwert die Analyse und führt zu ungenauen Ergebnissen. Daher ist es wichtig, sicherzustellen, dass die Ticketdaten vollständig und präzise sind. Nur so kann die KI die Tickets korrekt kategorisieren, die richtigen Lösungsvorschläge generieren und die Wissensdatenbank mit relevanten Informationen füllen. Also nicht „Ich habe ein Problem”, sondern „Ich kann an meinem PC im Büro X seit Uhrzeit Y den Drucker Z nicht benutzen“. Je präziser und umfangreicher Informationen, desto mehr Input steht der KI zur Verarbeitung zur Verfügung.

Datenschutz und lokale Lösungen

Ein weiterer wichtiger Aspekt ist der Datenschutz. Predictive Machine Learning lässt sich vollständig lokal betreiben, wodurch die Daten das Unternehmen nicht verlassen. Der zentrale Unterschied von GenAI ist, dass die Daten hier in aller Regel an externe Cloud-Dienste gesendet werden, was automatisch Datenschutzbedenken aufwirft. Das heißt, es gilt alle Daten, die das Unternehmen zur Textgenerierung verlassen, im Vorfeld mit dem Informationssicherheitsbeauftragten (ISB) des Unternehmens abzustimmen und freizugeben.

Abhilfe schaffen zudem Privacy-Preserving AI-Konzepte wie dem Federated Learning, bei dem eine KI dezentral auf mehreren Endgeräten oder Servern trainiert wird – ohne dass die Rohdaten diese Geräte verlassen. Stattdessen werden nur die Modell-Updates an einen zentralen Server gesendet, der daraus ein gemeinsames Modell aggregiert. Der Betrieb eines solchen, so genannten Large-Language-Modells (LLM) auf den eigenen Servern ist allerdings mit einem zusätzlichen Bedarf an Ressourcen (Zeit- und Kostenaufwand sowie Rechnerkapazität) verbunden.

Schrittweise Implementierung

Wie können Unternehmen den Weg zum KI-gestützten ITSM erfolgreich gestalten? Ein wichtiger Schritt ist die Auswahl des richtigen ITSM-Systems. Viele moderne Systeme bieten bereits integrierte KI-Funktionen oder lassen sich problemlos mit KI-Lösungen erweitern. Ebenso erfolgskritisch ist die Analyse der vorhandenen Daten. Unternehmen sollten prüfen, welche Daten vorhanden sind, wie gut die Datenqualität ist und welche Daten für den KI-Einsatz benötigt werden.

Sind diese Schritte getan, können sie mit der Implementierung der KI-Lösung starten. Es empfiehlt sich, mit Predictive Machine Learning zu beginnen, da sich dies lokal und datenschutzkonform betreiben lässt. Damit werden in der ersten Stufe die internen Prozesse verbessert und die User für die neue Arbeitsweise eingenommen. Sobald dies erfolgreich absolviert ist und eine ausreichende Akzeptanz bei den Usern erreicht wurde, kann im nächsten Schritt der Einsatz von LLM-Services in Betracht gezogen werden, immer unter der Voraussetzung, dass das Unternehmen die Datenfreigabe erlaubt.

Kombinierter Einsatz und Zukunft

So sinnvoll eine stufenweise Einführung ist, so dürfte sich doch ein kombinierter, das heißt hybrider Ansatz als wirklicher Booster für das ITSM erweisen. Predictive AI wird dabei im Hintergrund zur Strukturierung genutzt, generative AI im Frontend zur Nutzerinteraktion oder Dokumentation. Weiter in die Zukunft gedacht, sind Szenarien eines domänenspezifischen Trainings denkbar, bei denen eigene Service-Daten für das LLM-Training verwendet werden. Und auch Datenschutzhürden lassen sich letztlich überwinden durch Privacy-Preserving AI-Konzepte.

Frühere Beiträge

Aktuelles