Webinar: Datenflüsse in KI-Systemen

Datenbewegungen und ihre Auswirkungen verstehen

28.02.2024
ca. 40 Teilnehmende
41 Min.

Ich habe ein Webinar gehalten, das sich intensiv mit den Datenflüssen in KI-Systemen beschäftigt hat. Dabei ging es um die Frage, wie große Sprachmodelle – wie etwa GPT – tatsächlich funktionieren und wo genau wir als Anwenderinnen und Anwender den entscheidenden Hebel haben, um Qualität und Sicherheit der Antworten zu gewährleisten. Mein Kollege Allen moderierte den Abend, stellte unsere bisherigen Themen der Webinarreihe vor und betonte von Anfang an, dass wir einen „Blick unter die Haube“ werfen wollten.

Mir war dabei wichtig, den Teilnehmenden zu zeigen, dass KI keine Magie ist und auch nicht von selbst „aus dem Nichts“ Wissen erzeugt. Die Technik basiert auf statistischen Verfahren und mathematischen Modellen, die sich nur dann als hilfreich erweisen, wenn wir sie mit den richtigen Informationen versorgen. Gleichzeitig wollte ich verständlich machen, warum wir sogenannte „Datenflüsse“ genau im Auge behalten sollten, sobald wir KI-Modelle in unsere Arbeitsabläufe integrieren.

„Generative KI ist kein Zaubertrick. Sie funktioniert nur durch Interaktion und die gezielte Steuerung der zugrunde liegenden Daten.“

Diese Aussage zog sich als roter Faden durch das gesamte Webinar. Ich wollte damit betonen, dass jede Nutzerin und jeder Nutzer unmittelbar Einfluss auf das Ergebnis nimmt, sobald Fragen gestellt oder Informationen übermittelt werden.

Loading YT...

Drei wesentliche Quellen für das Modell

Um zu verdeutlichen, was mit „Datenflüssen“ gemeint ist, erläuterte ich, welche Instanzen ein großes Sprachmodell wie GPT grundsätzlich mit Informationen versorgen. Erstens gibt es das Wissen, das wir direkt beim Stellen einer Frage mitgeben. Zweitens lassen sich firmeneigene Datenbanken einbinden, um zusätzliches oder aktuelles Wissen bereitzustellen. Und drittens existiert das sogenannte Modellwissen, also jene statistischen Zusammenhänge, die sich aus den Trainingsdaten im Modell verfestigt haben.

Ich schilderte, dass es für viele Unternehmen entscheidend ist, ihr internes Fachwissen – zum Beispiel Dokumente, Handbücher oder Richtlinien – in Form einer Datenbank anbinden zu können. Gerade dann, wenn die Standardantwort des Modells nicht ausreicht oder vielleicht sogar veraltete Fakten enthält, gewinnt man auf diese Weise eine höhere Genauigkeit und Relevanz. Andernfalls stützen sich die Antworten allein auf das riesige, aber möglicherweise nicht mehr ganz aktuelle oder passend ausgerichtete Trainingsmaterial des Sprachmodells.

„Das Modell bringt sein eigenes ‚Allgemeinwissen‘ mit, doch wirklich präzise wird es erst, wenn wir klarstellen, was für unseren konkreten Fall relevant ist.“

Ich merkte an, dass diese zweite Datenquelle – das firmeneigene Wissen – unsere wichtigste Ergänzung zum eher globalen Modellwissen darstellt. Wie man es am besten einbindet, hängt unter anderem von der eingesetzten Softwarearchitektur und den Datenschutzanforderungen ab.

Wie der Kontext entsteht

In meinem Webinar ging es auch darum, wie wir dem Modell beim Formulieren passender Antworten helfen können. Dabei sprach ich über die sogenannte „Retrieval-Augmented Generation“. Hinter diesem Begriff steht die Idee, dass man nicht einfach eine Frage an das Modell schickt, sondern vorher gezielt Informationen aus einer Wissensdatenbank abruft und dem Modell als Kontext beifügt. Auf diese Weise werden nicht alle möglichen Dokumente wahllos in das System gegeben, sondern nur jene, die wirklich relevant sind.

Dieses Vorgehen reduziert das Risiko falscher oder widersprüchlicher Aussagen. Vor allem unterstützt es die Nachvollziehbarkeit. Wenn etwa im Nachgang die Frage aufkommt, warum die KI zu einem bestimmten Ergebnis gelangt ist, kann man leicht erkennen, welche Textstellen als Grundlage dienten.

„Statt das Modell zu verwirren, geben wir ihm eine exakte Auswahl relevanter Inhalte. So bleibt die Antwort genauer und konsistenter.“

Ich erklärte anhand eines Beispiels, dass ein Sprachmodell bei der Anfrage „Was bedeutet es, wenn jemand auf der Bank ist?“ sehr unterschiedliche Richtungen einschlagen kann. Denkt es an eine Parkbank oder an ein Bankinstitut? Oder doch an den Sportkontext? Wer die passenden Hintergrundinformationen von vornherein klarstellt, erhält in der Regel deutlich präzisere Ergebnisse.

Agenten als unterstützende Akteure

Im Verlauf des Webinars zeigte ich, dass noch eine dritte Komponente ins Spiel kommen kann: Software-Agenten, die unterschiedliche Funktionen übernehmen. Ein Agent könnte zum Beispiel darauf spezialisiert sein, Finanzdaten herauszusuchen, ein anderer könnte sich um Fragen des Vertriebs kümmern. Diese kleinen Helferlein orchestrieren, wie das große Sprachmodell auf bestimmte Eingaben reagieren soll.

Viele Teilnehmende waren besonders an dieser Stelle überrascht, wie viele Prozesse man automatisieren oder vordefinieren kann, bevor das eigentliche Sprachmodell mit einer Frage in Kontakt kommt. Ich schilderte, dass wir so sicherstellen, dass nicht jede Person eigenständig die perfekten Befehle („Prompts“) tippen muss, sondern dass bestimmte Schritte von Agenten automatisch übernommen werden.

„Ein Agent kann die Passagen heraussuchen, sinnvoll aufbereiten und notfalls sogar mehrfache Zwischenschritte unternehmen, bevor er das Modell befragt.“

Meine Erfahrung zeigt, dass dies in komplexen Umgebungen wie großen Unternehmen ein Segen sein kann. Die Anwenderinnen und Anwender sparen Zeit, bekommen konsistente Ergebnisse und müssen nicht jedes Mal die gesamte Klaviatur der KI-Steuerung manuell spielen.

Umgang mit sensiblen Daten

Bei aller Begeisterung für das Thema sind auch Grenzen und Risiken angesprochen worden. Ich stellte klar, dass ein Sprachmodell während der Nutzung nicht ‚weiterlernt‘, es also keine wachsende Datenbank im Hintergrund führt, die unsere Eingaben automatisch speichert. Dennoch speichern viele Anbieter Gesprächsverläufe, um das System später zu verbessern oder neue Modelle zu trainieren. Dies ist eine Frage der Firmenpolitik und Vertragsgestaltung.

Ein wesentlicher Punkt war die Datenschutzperspektive. Wer personenbezogene Informationen mit einem externen Anbieter teilt, muss genau prüfen, welche Daten den Server verlassen und ob sie eventuell anonymisiert werden sollten. Ich erläuterte, dass es hier architektonische Lösungen gibt, die sensible Daten erst in einer eigenen Umgebung verarbeiten, bevor sie an das große Modell weitergereicht werden.

„Sensible Daten sollte man nicht unreflektiert in ein öffentlich zugängliches KI-System kippen. Technisch lässt sich das oft lösen, doch man muss es bewusst angehen.“

Ich machte deutlich, dass ein KI-System wie GPT keine Fehlerfreiheit garantiert. Es kann bei falschem oder fehlendem Kontext zu sogenannten „Halluzinationen“ kommen. Ein systematischer Umgang mit Quellen und eine abschließende Prüfung durch Menschen bleiben in vielen Fällen unerlässlich. Es war mir ein Anliegen, das klar zu kommunizieren, um keine falschen Erwartungen zu wecken.

Ausblick und Schlussgedanken

Nachdem ich die verschiedenen Aspekte – vom Einbinden einer Vektordatenbank über Agentenkonzepte bis hin zur Sicherheit – beleuchtet hatte, warf Allen abschließend einen Blick auf das nächste Webinar unserer Reihe. Am 11. April wird Emre uns in die Welt der geschäftlichen Anwendung von KI führen. Es wird darum gehen, wie man aus einer guten Idee ein tragfähiges KI-Produkt entwickelt und welche Strategien sich dabei bewährt haben.

Ich persönlich freue mich sehr auf diesen Beitrag, weil er den Bogen von der Technik hin zur echten Geschäftspraxis spannt. Oft ist die technische Machbarkeit längst da, doch der Nutzen und die erfolgreiche Umsetzung im Unternehmensalltag sind eigene Herausforderungen.

„Erfolgreiche KI-Projekte entstehen an der Schnittstelle zwischen guter Idee, effizienter Datennutzung und realistischen Umsetzungsstrategien.“

Zum Ende des Webinars gab es ein Zeitfenster für Fragen. Es zeigte sich, dass viele Teilnehmende die Zusammenhänge offenbar sehr klar fanden, denn es kamen keine konkreten Nachfragen mehr. Allen scherzte, dass wir nun beinahe etwas enttäuscht seien – aber meist bedeutet Schweigen, dass die Botschaft verstanden wurde.

Damit schloss ich den Abend. Mein Ziel war es, zu zeigen, wie ein Sprachmodell in der Praxis wirklich „tickt“ und warum wir alle Datenflüsse genau im Blick behalten sollten. Für mich steht fest, dass ein fundiertes Verständnis dieses Ablaufs der Schlüssel ist, um KI-Lösungen effektiv und verantwortungsvoll zu nutzen. Ich danke allen, die am Webinar teilgenommen haben, und freue mich darauf, dieses Wissen gemeinsam weiterzuentwickeln.