bbv KI Webinar - Praktikable KI
Webinar: Praktikable KI
Am 18. März 2026 veranstaltete die BBV eine weitere Folge ihrer Webinarreihe zur Künstlichen Intelligenz. Im Fokus steht diesmal die Frage, wie konkrete KI-Use-Cases in Unternehmen aufgebaut werden und welche Rolle eine technische Plattform dabei spielt. Gemeinsam mit Emre ordne ich verschiedene Anwendungsfälle aus dem Umfeld des Swiss AI Hub ein und zeige, wie sich Assistenten und Agenten in bestehende Prozesse integrieren lassen. Ziel ist kein Blick auf einzelne Tools oder Demos, sondern eine nüchterne, praxisnahe Einordnung, wie KI-Systeme in realen Unternehmenskontexten nutzbar werden.
Loading YT...
KI-Use-Cases im Unternehmen: Plattformen, Prozesse und konkrete Anwendungen
Im Webinar steht für mich eine einfache Leitidee im Zentrum: Künstliche Intelligenz entfaltet ihren Nutzen im Unternehmenskontext nicht dort, wo möglichst viel über Visionen gesprochen wird, sondern dort, wo konkrete Prozesse, saubere technische Integration und belastbare Anwendungsfälle zusammenkommen. Genau aus dieser Perspektive stelle ich einige Beispiele aus dem Umfeld des Swiss AI Hub vor. Es geht nicht um eine Produktschau und auch nicht um spektakuläre Demos, sondern um die Frage, wie sich KI-Anwendungen in bestehende Unternehmensrealitäten einfügen lassen. Entscheidend ist dabei weniger das Sprachmodell allein als die Fähigkeit, Datenquellen, Systeme, Rechte, Prozesse und menschliches Expertenwissen sinnvoll miteinander zu verbinden.
„Es geht nur um konsolidiertes Wissen.“
Zu Beginn ordnen wir den Markt anhand eines einfachen Modells. Ganz unten stehen die Foundation-Modelle, also die eigentlichen Sprachmodelle wie GPT, Gemini oder Open-Source-Modelle. Darauf folgen Interaktionselemente wie Chat-Oberflächen, Websuche oder Bildgenerierung, also Werkzeuge, mit denen Menschen mit diesen Modellen arbeiten. Darüber liegen integrierte Unternehmenslösungen wie Microsoft Copilot oder Gemini in Workspace-Anwendungen. Noch konkreter werden spezialisierte AI-Apps, die einzelne Probleme in klar umrissenen Domänen lösen. Für viele Unternehmen reicht das aus, solange ihre Anforderungen mit bestehenden Lösungen abgedeckt werden können. Schwieriger wird es dort, wo Prozesse sehr individuell, historisch gewachsen oder stark unternehmensspezifisch sind. Dann reicht es oft nicht mehr, ein fertiges Produkt einzuführen. Dann braucht es eine eigene technologische Grundlage, auf der kundenspezifische Anwendungen aufgebaut werden können.
Eine KI-Plattform als Grundlage für individuelle Unternehmensprozesse
Genau an diesem Punkt setzt eine Technologieplattform an. Eine solche Plattform bietet nicht einfach nur Zugriff auf ein einzelnes Modell, sondern schafft die Voraussetzungen dafür, unterschiedliche Modelle passend zur jeweiligen Aufgabe einzusetzen, Daten datenschutzkonform einzubinden und KI-Funktionen dort verfügbar zu machen, wo Mitarbeitende ohnehin arbeiten. Damit wird KI nicht zu einem isolierten Zusatztool, sondern zu einer integrierten Komponente in bestehenden Arbeitsabläufen.
Ein wichtiger Unterschied im Webinar ist jener zwischen Assistenten und Agenten. Beide basieren auf Sprachmodellen und können mit Werkzeugen, Daten oder Rechten ausgestattet sein. Der Unterschied liegt für mich vor allem in ihrer Rolle innerhalb eines Prozesses. Assistenten sind eher passiv. Sie werden von Menschen oder anderen Einheiten angestossen und erledigen dann eine klar formulierte Aufgabe. Agenten hingegen sind stärker in Prozesse eingebettet und können autonomer arbeiten. Sie werden nicht nur auf Zuruf aktiv, sondern an definierten Stellen eines Unternehmensprozesses.
„Ein Assistent arbeitet dem Mitarbeiter zu. Ein Agent gliedert sich an einen Unternehmensprozess ein.“
Diese Unterscheidung ist nicht rein technisch gemeint, sondern hilft dabei, KI-Systeme fachlich sauber zu beschreiben. Ein Assistent unterstützt Mitarbeitende direkt in ihrer Arbeit. Ein Agent wird Teil eines definierten Ablaufs, der auch ohne ständigen menschlichen Input funktionieren kann. Genau diese Differenz wird in den vorgestellten Beispielen immer wieder sichtbar.
BMD: Servicetechniker gezielt mit kontextbezogenem Wissen unterstützen
Ein besonders anschaulicher Anwendungsfall stammt aus dem Umfeld von Krananlagen und Hebelösungen. Dort besteht die Herausforderung darin, dass Servicemitarbeitende im Feld bei Störungen schnell auf sehr grosses, heterogenes Wissen zugreifen müssen. Neben eigenen Systemen kommen auch Produkte von Drittanbietern zum Einsatz. Entsprechend entstehen umfangreiche Dokumentationen, Schaltpläne, Handbücher und servicebezogene Informationen. Wenn vor Ort ein Problem auftritt, wird häufig das Backoffice kontaktiert. Dort sitzen erfahrene Schlüsselpersonen, die viel Wissen mitbringen, aber ihrerseits ebenfalls in grossen Datenbeständen recherchieren müssen, bevor sie helfen können. In einer Situation, in der eine Anlage stillsteht, ist genau diese Verzögerung besonders teuer.
Die erste Ausbaustufe der Lösung besteht deshalb in einem KI-Assistenten, der auf einem klassischen RAG-Konzept basiert. Dabei wird ein Sprachmodell mit einem unternehmensspezifischen Wissenspool kombiniert. Dadurch liefert das System nicht nur allgemeine Antworten, sondern kontextbezogene Informationen aus genau jenen Dokumenten und Quellen, die für den konkreten Kunden und die konkrete Anlage relevant sind. Der eigentliche Mehrwert entsteht jedoch erst durch die zusätzliche Verknüpfung mit Historie- und Kundendaten. Ein guter Assistent nennt nicht nur eine theoretisch passende Massnahme, sondern kann auch proaktive Hinweise liefern, etwa auf bekannte frühere Störungen oder spezifische Schwachstellen bei einer bestimmten Anlage.
Entscheidend ist dabei, dass diese Qualität nicht durch das Sprachmodell allein entsteht. Sie beruht auf der technischen Verknüpfung von Wissensdaten, Kundendaten, Ticketsystem und Dokumentation. Erst durch diese Integration wird aus einer allgemeinen KI-Antwort eine belastbare Unterstützung für den konkreten Servicefall.
In einer zweiten Stufe wird dieses System um einen Agenten ergänzt. Wenn der Assistent keine ausreichend belastbare Antwort findet oder ein definierter Confidence-Wert nicht erreicht wird, zieht der Agent einen menschlichen Experten bei. Dieses Wissen fliesst nicht nur in die aktuelle Antwort zurück, sondern wird zugleich in den zentralen Wissenspool überführt. Damit wird Expertenwissen schrittweise systematisch verfügbar gemacht, statt ausschliesslich in einzelnen Köpfen zu verbleiben.
„Das Wissen bleibt nicht an die Person gebunden.“
Gerade in Zeiten von Fachkräftemangel und Pensionierungen ist dieser Punkt zentral. KI wird hier nicht als Ersatz für Expertise verstanden, sondern als Mechanismus, um Expertise im Unternehmen zu halten, zugänglich zu machen und langfristig nutzbar zu machen.
Laborautomatisierung: Supportwissen aus mehreren Quellen zusammenführen
Ein weiterer Case zeigt dieselbe Grundidee in einer anderen Domäne, nämlich im technischen Support eines international tätigen Unternehmens aus dem Bereich Laborautomatisierung. Die Ausgangslage ist hier besonders anspruchsvoll, weil weltweit viele Grosskunden betreut werden und nahezu jedes System ein Unikat ist. Relevantes Wissen liegt verteilt über Systeme wie Jira, SharePoint und Confluence, teilweise in unterschiedlichen Sprachen. Tritt ein Problem auf, beginnt häufig eine zeitaufwendige Suche über mehrere Quellen hinweg. Gerade für Support-Mitarbeitende ist das belastend und ineffizient.
Hier besteht die Lösung darin, die KI direkt in den bestehenden Supportprozess einzubetten. Statt ein separates Tool zu öffnen, ist die Unterstützung unmittelbar in Jira oder alternativ über Teams zugänglich. Sobald ein Ticket geöffnet wird, startet im Hintergrund eine Multiquellensuche. Relevante Inhalte aus unterschiedlichen Systemen werden zusammengeführt, sprachlich vereinheitlicht und in Form eines Lösungsvorschlags bereitgestellt. Damit arbeitet die KI genau dort, wo die Mitarbeitenden ohnehin tätig sind.
Ein solcher Ansatz ist nicht nur deshalb hilfreich, weil er Zeit spart. Er erhöht auch die Akzeptanz, weil die Unterstützung in den gewohnten Systemen stattfindet. KI wird nicht als neues Zielsystem eingeführt, sondern als Erweiterung bestehender Arbeitsschritte. Genau diese Integrationsfähigkeit ist in der Praxis oft entscheidender als die reine Modellleistung.
Das Konzept lässt sich zusätzlich in Richtung Kunde erweitern. In einem Kundenportal kann ein KI-System bereits vor der Ticketerstellung relevante Informationen abfragen, Fehlerberichte einholen und erste Lösungsansätze liefern. Falls sich das Anliegen dadurch nicht klären lässt, wird ein Ticket mit deutlich besserer Informationslage erzeugt. Auch das beschleunigt den Support erheblich, weil Rückfragen reduziert und wichtige Informationen früher strukturiert erfasst werden.
Datenzugriff, Rechte und Trennung von Kundenwissen
Gerade dieser Fall zeigt sehr deutlich, wie wichtig Governance, Zugriffskontrolle und saubere Datenführung sind. Wenn mehrere Kunden, sensible Informationen und globale Organisationen im Spiel sind, darf ein System niemals versehentlich Wissen eines Kunden in einem anderen Kontext verwenden. Solche Anforderungen lassen sich nicht mit gutem Prompting allein lösen. Sie erfordern präzise technische Architektur, saubere Rechteverwaltung und klar definierte Datenpipelines.
„Da kann ich sehr viele Datenschutz- oder Compliance-Probleme verursachen, wenn ich diese Datenpipelines nicht richtig einsetze.“
Für mich ist das einer der wichtigsten Punkte des gesamten Webinars. In vielen Diskussionen über generative KI steht das Modell im Vordergrund. In realen Unternehmensprojekten ist aber oft die Architektur rundherum der entscheidende Erfolgsfaktor. Erst sie stellt sicher, dass Antworten relevant, nachvollziehbar und organisatorisch überhaupt zulässig sind.
FMH: Komplexe Regelwerke für die medizinische Abrechnung zugänglich machen
Ein dritter Anwendungsfall betrifft den medizinischen Bereich und die Frage, wie komplexe Abrechnungsregeln für ärztliche Leistungen zugänglich gemacht werden können. Ärztinnen und Ärzte beschreiben konkrete Konsultationen, müssen diese korrekt abrechnen und greifen dazu auf umfangreiche Regelwerke und Handbücher zurück. Wenn Unklarheiten entstehen, landen Anfragen häufig bei Fachpersonen, die diese manuell beantworten müssen. Das kostet Zeit auf beiden Seiten und bindet wertvolle Expertise in repetitiven Abklärungen.
Die dafür skizzierte Lösung arbeitet mit mehreren KI-Einheiten. Ein Assistent nimmt die Eingabe entgegen, strukturiert sie und zerlegt komplexe Schilderungen in Teilfragen. Danach werden die Teilfragen an spezialisierte Agenten weitergeleitet, die jeweils auf unterschiedliche Wissensbereiche zugreifen, etwa auf Handbücher oder Tarifregeln. Die Ergebnisse werden anschliessend wieder zu einer verständlichen Antwort zusammengeführt.
Auch hier ist der Anspruch nicht, eine Black Box zu schaffen, sondern eine nachvollziehbare Unterstützung mit Quellenbezug. Gerade in sensiblen Fachdomänen ist Transparenz zentral. Nutzende müssen erkennen können, woher eine Aussage kommt und auf welcher Grundlage sie zustande kommt. Wenn bestimmte Antworten nicht mit ausreichender Sicherheit generiert werden können, soll das System nicht einfach weiterspekulieren, sondern den Fall an menschliche Fachpersonen eskalieren. Damit bleibt KI ein Hilfsmittel innerhalb eines fachlich verantworteten Prozesses.
Nicht jeder sinnvolle Use Case ist ein guter generativer KI-Use-Case
Ein besonders wichtiger Punkt des Webinars liegt für mich darin, falsche Erwartungen bewusst zu korrigieren. Nicht jeder sinnvolle digitale Anwendungsfall ist automatisch ein guter generativer KI-Use-Case. Genau das wird anhand eines bewusst konstruierten Gegenbeispiels deutlich. Aufgaben, die im Kern auf numerischen Berechnungen, statistischen Modellen oder deterministischen Prognosen beruhen, lassen sich unter Umständen mit KI-Komponenten kombinieren, aber generative Sprachmodelle sind dafür nicht automatisch das richtige Werkzeug.
Ein Sprachmodell kann Text verstehen, strukturieren und mit Kontext arbeiten. Es ist aber kein Ersatz für präzise mathematische Modelle, klassische Statistik oder robuste Berechnungspipelines. Gerade in Unternehmen entsteht schnell die Vorstellung, man könne sämtliche PDFs, Excels und Regeln einem mächtigen Modell geben, und dieses löse dann alle Probleme. Diese Erwartung ist unrealistisch.
„LLMs sind Sprachmodelle, keine Taschenrechner.“
Damit verbunden ist ein weiterer verbreiteter Irrtum: die Annahme, ein einziges zentrales Chatfenster genüge, damit KI alle Arten von Anfragen im Unternehmen korrekt versteht und verarbeitet. Auch das greift zu kurz. Ob ein Passwort zurückgesetzt, ein Ticket klassifiziert, ein Dokument zusammengefasst oder ein bestimmter Geschäftsprozess ausgelöst werden soll, muss technisch sauber angebunden und kontrolliert werden. Sprachmodelle allein orchestrieren keine sicheren Unternehmensprozesse. Erst Schnittstellen, Rechte, definierte Workflows und ergänzende Softwarelogik machen daraus eine belastbare Anwendung.
Anforderungen, Testfälle und Feedbackschlaufen statt blindem Go-live
Ein weiterer Schwerpunkt liegt auf der Arbeitsweise rund um KI-Projekte selbst. Ein System geht nicht einfach live und funktioniert danach stabil wie gewünscht. Gute KI-Anwendungen entstehen iterativ. Sie brauchen Anforderungen, Akzeptanzkriterien, Testfälle, verantwortliche Personen und Feedbackschlaufen. Besonders wichtig ist dabei die Frage, was überhaupt eine gute Antwort ausmacht. Richtigkeit allein reicht nicht. Auch Stil, Vollständigkeit, Kürze, Quellenbezug oder proaktive Hinweise gehören zu den Qualitätsmerkmalen, die vorab geklärt werden müssen.
Ohne diese Vorarbeit droht selbst ein technisch solides System an mangelnder Akzeptanz zu scheitern. Wenn Nutzende von Beginn an perfekte Antworten erwarten und keine realistische Einordnung erhalten, wird das System schnell als unbrauchbar wahrgenommen. Deshalb sind Erwartungsmanagement, Monitoring und die laufende Verbesserung von Datenstrukturen und Prozessen so wichtig.
„Tag 1 ist nicht das Ende des Projekts.“
Hinzu kommt, dass bestehende Legacy-Systeme oft nicht ohne Weiteres von KI nutzbar gemacht werden können. Historisch gewachsene Schnittstellen, proprietäre Datenbanken oder schlecht strukturierte Altsysteme müssen erst übersetzt, erschlossen oder technisch ummantelt werden, bevor ein Agent oder Assistent sinnvoll damit arbeiten kann. Auch das ist keine Nebensache, sondern ein grosser Teil der eigentlichen Projektarbeit.
KI im Unternehmen braucht mehr als ein starkes Modell
Am Ende verdichtet sich daraus für mich ein klares Bild: Wertvolle KI-Anwendungen im Unternehmen entstehen nicht durch möglichst grosse Versprechen, sondern durch präzise zugeschnittene Lösungen. Entscheidend ist, welches Problem tatsächlich gelöst werden soll, welche Daten dafür verfügbar sind, welche Systeme eingebunden werden müssen und wie sich menschliche Expertise sinnvoll ergänzen lässt. KI ist dann stark, wenn sie in Prozesse integriert ist, Kontext versteht, Wissen zugänglich macht und Mitarbeitende gezielt entlastet.
Das Webinar zeigt deshalb weniger einzelne Tools als ein Grundmuster, das sich durch mehrere Anwendungsfälle zieht: KI braucht einen sauberen technischen Unterbau, klare Rollen zwischen Assistenten und Agenten, kontrollierte Datenzugriffe und ein realistisches Verständnis ihrer Grenzen. Genau in diesem Zusammenspiel liegt der Unterschied zwischen Hype und produktiver Anwendung.
