[{"data":1,"prerenderedAt":4190},["ShallowReactive",2],{"\u002Fpresentations\u002Fwebinar_ki_use_cases":3,"all-presentations-pages":292,"content-query-wOkOF2z919":3983},{"_path":4,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":8,"description":9,"eventName":10,"subtitle":11,"logo":12,"eventDate":13,"eventDuration":14,"audience":15,"views":16,"videoId":17,"body":18,"_type":286,"_id":287,"_source":288,"_file":289,"_stem":290,"_extension":291},"\u002Fpresentations\u002Fwebinar_ki_use_cases","presentations",false,"","Webinar: Praktikable KI","Im Webinar stehen praxisnahe Einsatzmöglichkeiten von KI in der Softwareentwicklung im Mittelpunkt – von der \nAnforderungsanalyse bis zu Testing und Code Reviews. Gezeigt wird, wie sich Workshop-Artefakte wie Notizen, Post-its \nund Skizzen mit Speech-to-Text und multimodalen Modellen strukturieren und in Requirements überführen lassen. Beim \nCoding liegt der Fokus auf bewusstem Kontextmanagement, sinnvollen Prompting-Strategien und dem Einsatz \nspezialisierter Assistenten. Für Onboarding und Wissensaufbau wird KI als Navigations- und Lernhilfe in grossen \nCodebases sowie als Schritt-für-Schritt-Erklärpartner eingesetzt. Aus Architektursicht geht es um Tool-Recherche \nmit kontrollierten Quellen, das systematische Eintauchen in neue Codebases und den Wechsel zwischen Überblicks- und \nImplementationskontext.\n","bbv KI Webinar - Praktikable KI","wegweisende Use Cases mit dem Swiss AI Hub","\u002Fimages\u002Fpresentations\u002Fwebinar10\u002Fai_use_cases_1.png","2026-03-18","59 Min.","ca. 65 Teilnehmende",8373,"EGSTDTqYHjg",{"type":19,"children":20,"toc":273},"root",[21,29,34,41,46,55,60,66,71,76,84,89,95,100,105,110,115,123,128,134,139,144,149,154,160,165,173,178,184,189,194,199,205,210,215,223,228,234,239,244,252,257,263,268],{"type":22,"tag":23,"props":24,"children":25},"element","p",{},[26],{"type":27,"value":28},"text","Am 18. März 2026 veranstaltete die BBV eine weitere Folge ihrer Webinarreihe zur Künstlichen Intelligenz.\nIm Fokus steht diesmal die Frage, wie konkrete KI-Use-Cases in Unternehmen aufgebaut werden und welche Rolle eine\ntechnische Plattform dabei spielt. Gemeinsam mit Emre ordne ich verschiedene Anwendungsfälle aus dem Umfeld des Swiss\nAI Hub ein und zeige, wie sich Assistenten und Agenten in bestehende Prozesse integrieren lassen. Ziel ist kein Blick\nauf einzelne Tools oder Demos, sondern eine nüchterne, praxisnahe Einordnung, wie KI-Systeme in realen\nUnternehmenskontexten nutzbar werden.",{"type":22,"tag":30,"props":31,"children":33},"youtube-video",{":video-id":32},"videoId",[],{"type":22,"tag":35,"props":36,"children":38},"h3",{"id":37},"ki-use-cases-im-unternehmen-plattformen-prozesse-und-konkrete-anwendungen",[39],{"type":27,"value":40},"KI-Use-Cases im Unternehmen: Plattformen, Prozesse und konkrete Anwendungen",{"type":22,"tag":23,"props":42,"children":43},{},[44],{"type":27,"value":45},"Im Webinar steht für mich eine einfache Leitidee im Zentrum: Künstliche Intelligenz entfaltet ihren Nutzen im\nUnternehmenskontext nicht dort, wo möglichst viel über Visionen gesprochen wird, sondern dort, wo konkrete Prozesse,\nsaubere technische Integration und belastbare Anwendungsfälle zusammenkommen. Genau aus dieser Perspektive stelle ich\neinige Beispiele aus dem Umfeld des Swiss AI Hub vor. Es geht nicht um eine Produktschau und auch nicht um spektakuläre\nDemos, sondern um die Frage, wie sich KI-Anwendungen in bestehende Unternehmensrealitäten einfügen lassen. Entscheidend\nist dabei weniger das Sprachmodell allein als die Fähigkeit, Datenquellen, Systeme, Rechte, Prozesse und menschliches\nExpertenwissen sinnvoll miteinander zu verbinden.",{"type":22,"tag":47,"props":48,"children":49},"blockquote",{},[50],{"type":22,"tag":23,"props":51,"children":52},{},[53],{"type":27,"value":54},"„Es geht nur um konsolidiertes Wissen.“",{"type":22,"tag":23,"props":56,"children":57},{},[58],{"type":27,"value":59},"Zu Beginn ordnen wir den Markt anhand eines einfachen Modells. Ganz unten stehen die Foundation-Modelle,\nalso die eigentlichen Sprachmodelle wie GPT, Gemini oder Open-Source-Modelle. Darauf folgen Interaktionselemente\nwie Chat-Oberflächen, Websuche oder Bildgenerierung, also Werkzeuge, mit denen Menschen mit diesen Modellen arbeiten.\nDarüber liegen integrierte Unternehmenslösungen wie Microsoft Copilot oder Gemini in Workspace-Anwendungen. Noch\nkonkreter werden spezialisierte AI-Apps, die einzelne Probleme in klar umrissenen Domänen lösen. Für viele Unternehmen\nreicht das aus, solange ihre Anforderungen mit bestehenden Lösungen abgedeckt werden können. Schwieriger wird es dort,\nwo Prozesse sehr individuell, historisch gewachsen oder stark unternehmensspezifisch sind. Dann reicht es oft nicht\nmehr, ein fertiges Produkt einzuführen. Dann braucht es eine eigene technologische Grundlage, auf der kundenspezifische\nAnwendungen aufgebaut werden können.",{"type":22,"tag":35,"props":61,"children":63},{"id":62},"eine-ki-plattform-als-grundlage-für-individuelle-unternehmensprozesse",[64],{"type":27,"value":65},"Eine KI-Plattform als Grundlage für individuelle Unternehmensprozesse",{"type":22,"tag":23,"props":67,"children":68},{},[69],{"type":27,"value":70},"Genau an diesem Punkt setzt eine Technologieplattform an. Eine solche Plattform bietet nicht einfach nur Zugriff auf\nein einzelnes Modell, sondern schafft die Voraussetzungen dafür, unterschiedliche Modelle passend zur jeweiligen Aufgabe\neinzusetzen, Daten datenschutzkonform einzubinden und KI-Funktionen dort verfügbar zu machen, wo Mitarbeitende ohnehin\narbeiten. Damit wird KI nicht zu einem isolierten Zusatztool, sondern zu einer integrierten Komponente in bestehenden\nArbeitsabläufen.",{"type":22,"tag":23,"props":72,"children":73},{},[74],{"type":27,"value":75},"Ein wichtiger Unterschied im Webinar ist jener zwischen Assistenten und Agenten. Beide basieren auf Sprachmodellen und\nkönnen mit Werkzeugen, Daten oder Rechten ausgestattet sein. Der Unterschied liegt für mich vor allem in ihrer Rolle\ninnerhalb eines Prozesses. Assistenten sind eher passiv. Sie werden von Menschen oder anderen Einheiten angestossen und\nerledigen dann eine klar formulierte Aufgabe. Agenten hingegen sind stärker in Prozesse eingebettet und können autonomer\narbeiten. Sie werden nicht nur auf Zuruf aktiv, sondern an definierten Stellen eines Unternehmensprozesses.",{"type":22,"tag":47,"props":77,"children":78},{},[79],{"type":22,"tag":23,"props":80,"children":81},{},[82],{"type":27,"value":83},"„Ein Assistent arbeitet dem Mitarbeiter zu. Ein Agent gliedert sich an einen Unternehmensprozess ein.“",{"type":22,"tag":23,"props":85,"children":86},{},[87],{"type":27,"value":88},"Diese Unterscheidung ist nicht rein technisch gemeint, sondern hilft dabei, KI-Systeme fachlich sauber zu beschreiben.\nEin Assistent unterstützt Mitarbeitende direkt in ihrer Arbeit. Ein Agent wird Teil eines definierten Ablaufs, der auch\nohne ständigen menschlichen Input funktionieren kann. Genau diese Differenz wird in den vorgestellten Beispielen immer\nwieder sichtbar.",{"type":22,"tag":35,"props":90,"children":92},{"id":91},"bmd-servicetechniker-gezielt-mit-kontextbezogenem-wissen-unterstützen",[93],{"type":27,"value":94},"BMD: Servicetechniker gezielt mit kontextbezogenem Wissen unterstützen",{"type":22,"tag":23,"props":96,"children":97},{},[98],{"type":27,"value":99},"Ein besonders anschaulicher Anwendungsfall stammt aus dem Umfeld von Krananlagen und Hebelösungen. Dort besteht die\nHerausforderung darin, dass Servicemitarbeitende im Feld bei Störungen schnell auf sehr grosses, heterogenes Wissen\nzugreifen müssen. Neben eigenen Systemen kommen auch Produkte von Drittanbietern zum Einsatz. Entsprechend entstehen\numfangreiche Dokumentationen, Schaltpläne, Handbücher und servicebezogene Informationen. Wenn vor Ort ein Problem\nauftritt, wird häufig das Backoffice kontaktiert. Dort sitzen erfahrene Schlüsselpersonen, die viel Wissen mitbringen,\naber ihrerseits ebenfalls in grossen Datenbeständen recherchieren müssen, bevor sie helfen können. In einer Situation,\nin der eine Anlage stillsteht, ist genau diese Verzögerung besonders teuer.",{"type":22,"tag":23,"props":101,"children":102},{},[103],{"type":27,"value":104},"Die erste Ausbaustufe der Lösung besteht deshalb in einem KI-Assistenten, der auf einem klassischen RAG-Konzept basiert.\nDabei wird ein Sprachmodell mit einem unternehmensspezifischen Wissenspool kombiniert. Dadurch liefert das System nicht\nnur allgemeine Antworten, sondern kontextbezogene Informationen aus genau jenen Dokumenten und Quellen, die für den\nkonkreten Kunden und die konkrete Anlage relevant sind. Der eigentliche Mehrwert entsteht jedoch erst durch die\nzusätzliche Verknüpfung mit Historie- und Kundendaten. Ein guter Assistent nennt nicht nur eine theoretisch passende\nMassnahme, sondern kann auch proaktive Hinweise liefern, etwa auf bekannte frühere Störungen oder spezifische\nSchwachstellen bei einer bestimmten Anlage.",{"type":22,"tag":23,"props":106,"children":107},{},[108],{"type":27,"value":109},"Entscheidend ist dabei, dass diese Qualität nicht durch das Sprachmodell allein entsteht. Sie beruht auf der technischen\nVerknüpfung von Wissensdaten, Kundendaten, Ticketsystem und Dokumentation. Erst durch diese Integration wird aus einer\nallgemeinen KI-Antwort eine belastbare Unterstützung für den konkreten Servicefall.",{"type":22,"tag":23,"props":111,"children":112},{},[113],{"type":27,"value":114},"In einer zweiten Stufe wird dieses System um einen Agenten ergänzt. Wenn der Assistent keine ausreichend belastbare\nAntwort findet oder ein definierter Confidence-Wert nicht erreicht wird, zieht der Agent einen menschlichen Experten\nbei. Dieses Wissen fliesst nicht nur in die aktuelle Antwort zurück, sondern wird zugleich in den zentralen Wissenspool\nüberführt. Damit wird Expertenwissen schrittweise systematisch verfügbar gemacht, statt ausschliesslich in einzelnen\nKöpfen zu verbleiben.",{"type":22,"tag":47,"props":116,"children":117},{},[118],{"type":22,"tag":23,"props":119,"children":120},{},[121],{"type":27,"value":122},"„Das Wissen bleibt nicht an die Person gebunden.“",{"type":22,"tag":23,"props":124,"children":125},{},[126],{"type":27,"value":127},"Gerade in Zeiten von Fachkräftemangel und Pensionierungen ist dieser Punkt zentral. KI wird hier nicht als Ersatz für\nExpertise verstanden, sondern als Mechanismus, um Expertise im Unternehmen zu halten, zugänglich zu machen und\nlangfristig nutzbar zu machen.",{"type":22,"tag":35,"props":129,"children":131},{"id":130},"laborautomatisierung-supportwissen-aus-mehreren-quellen-zusammenführen",[132],{"type":27,"value":133},"Laborautomatisierung: Supportwissen aus mehreren Quellen zusammenführen",{"type":22,"tag":23,"props":135,"children":136},{},[137],{"type":27,"value":138},"Ein weiterer Case zeigt dieselbe Grundidee in einer anderen Domäne, nämlich im technischen Support eines international\ntätigen Unternehmens aus dem Bereich Laborautomatisierung. Die Ausgangslage ist hier besonders anspruchsvoll,\nweil weltweit viele Grosskunden betreut werden und nahezu jedes System ein Unikat ist. Relevantes Wissen liegt verteilt\nüber Systeme wie Jira, SharePoint und Confluence, teilweise in unterschiedlichen Sprachen. Tritt ein Problem auf,\nbeginnt häufig eine zeitaufwendige Suche über mehrere Quellen hinweg. Gerade für Support-Mitarbeitende ist das\nbelastend und ineffizient.",{"type":22,"tag":23,"props":140,"children":141},{},[142],{"type":27,"value":143},"Hier besteht die Lösung darin, die KI direkt in den bestehenden Supportprozess einzubetten. Statt ein separates Tool zu\nöffnen, ist die Unterstützung unmittelbar in Jira oder alternativ über Teams zugänglich. Sobald ein Ticket geöffnet\nwird, startet im Hintergrund eine Multiquellensuche. Relevante Inhalte aus unterschiedlichen Systemen werden\nzusammengeführt, sprachlich vereinheitlicht und in Form eines Lösungsvorschlags bereitgestellt. Damit arbeitet die\nKI genau dort, wo die Mitarbeitenden ohnehin tätig sind.",{"type":22,"tag":23,"props":145,"children":146},{},[147],{"type":27,"value":148},"Ein solcher Ansatz ist nicht nur deshalb hilfreich, weil er Zeit spart. Er erhöht auch die Akzeptanz, weil die\nUnterstützung in den gewohnten Systemen stattfindet. KI wird nicht als neues Zielsystem eingeführt, sondern als\nErweiterung bestehender Arbeitsschritte. Genau diese Integrationsfähigkeit ist in der Praxis oft entscheidender als\ndie reine Modellleistung.",{"type":22,"tag":23,"props":150,"children":151},{},[152],{"type":27,"value":153},"Das Konzept lässt sich zusätzlich in Richtung Kunde erweitern. In einem Kundenportal kann ein KI-System bereits vor\nder Ticketerstellung relevante Informationen abfragen, Fehlerberichte einholen und erste Lösungsansätze liefern.\nFalls sich das Anliegen dadurch nicht klären lässt, wird ein Ticket mit deutlich besserer Informationslage erzeugt.\nAuch das beschleunigt den Support erheblich, weil Rückfragen reduziert und wichtige Informationen früher strukturiert\nerfasst werden.",{"type":22,"tag":35,"props":155,"children":157},{"id":156},"datenzugriff-rechte-und-trennung-von-kundenwissen",[158],{"type":27,"value":159},"Datenzugriff, Rechte und Trennung von Kundenwissen",{"type":22,"tag":23,"props":161,"children":162},{},[163],{"type":27,"value":164},"Gerade dieser Fall zeigt sehr deutlich, wie wichtig Governance, Zugriffskontrolle und saubere Datenführung sind. Wenn\nmehrere Kunden, sensible Informationen und globale Organisationen im Spiel sind, darf ein System niemals versehentlich\nWissen eines Kunden in einem anderen Kontext verwenden. Solche Anforderungen lassen sich nicht mit gutem Prompting\nallein lösen. Sie erfordern präzise technische Architektur, saubere Rechteverwaltung und klar definierte Datenpipelines.",{"type":22,"tag":47,"props":166,"children":167},{},[168],{"type":22,"tag":23,"props":169,"children":170},{},[171],{"type":27,"value":172},"„Da kann ich sehr viele Datenschutz- oder Compliance-Probleme verursachen, wenn ich diese Datenpipelines nicht\nrichtig einsetze.“",{"type":22,"tag":23,"props":174,"children":175},{},[176],{"type":27,"value":177},"Für mich ist das einer der wichtigsten Punkte des gesamten Webinars. In vielen Diskussionen über generative KI steht\ndas Modell im Vordergrund. In realen Unternehmensprojekten ist aber oft die Architektur rundherum der entscheidende\nErfolgsfaktor. Erst sie stellt sicher, dass Antworten relevant, nachvollziehbar und organisatorisch überhaupt zulässig\nsind.",{"type":22,"tag":35,"props":179,"children":181},{"id":180},"fmh-komplexe-regelwerke-für-die-medizinische-abrechnung-zugänglich-machen",[182],{"type":27,"value":183},"FMH: Komplexe Regelwerke für die medizinische Abrechnung zugänglich machen",{"type":22,"tag":23,"props":185,"children":186},{},[187],{"type":27,"value":188},"Ein dritter Anwendungsfall betrifft den medizinischen Bereich und die Frage, wie komplexe Abrechnungsregeln für\närztliche Leistungen zugänglich gemacht werden können. Ärztinnen und Ärzte beschreiben konkrete Konsultationen,\nmüssen diese korrekt abrechnen und greifen dazu auf umfangreiche Regelwerke und Handbücher zurück. Wenn Unklarheiten\nentstehen, landen Anfragen häufig bei Fachpersonen, die diese manuell beantworten müssen. Das kostet Zeit auf beiden\nSeiten und bindet wertvolle Expertise in repetitiven Abklärungen.",{"type":22,"tag":23,"props":190,"children":191},{},[192],{"type":27,"value":193},"Die dafür skizzierte Lösung arbeitet mit mehreren KI-Einheiten. Ein Assistent nimmt die Eingabe entgegen, strukturiert\nsie und zerlegt komplexe Schilderungen in Teilfragen. Danach werden die Teilfragen an spezialisierte Agenten\nweitergeleitet, die jeweils auf unterschiedliche Wissensbereiche zugreifen, etwa auf Handbücher oder Tarifregeln.\nDie Ergebnisse werden anschliessend wieder zu einer verständlichen Antwort zusammengeführt.",{"type":22,"tag":23,"props":195,"children":196},{},[197],{"type":27,"value":198},"Auch hier ist der Anspruch nicht, eine Black Box zu schaffen, sondern eine nachvollziehbare Unterstützung mit\nQuellenbezug. Gerade in sensiblen Fachdomänen ist Transparenz zentral. Nutzende müssen erkennen können, woher eine\nAussage kommt und auf welcher Grundlage sie zustande kommt. Wenn bestimmte Antworten nicht mit ausreichender Sicherheit\ngeneriert werden können, soll das System nicht einfach weiterspekulieren, sondern den Fall an menschliche Fachpersonen\neskalieren. Damit bleibt KI ein Hilfsmittel innerhalb eines fachlich verantworteten Prozesses.",{"type":22,"tag":35,"props":200,"children":202},{"id":201},"nicht-jeder-sinnvolle-use-case-ist-ein-guter-generativer-ki-use-case",[203],{"type":27,"value":204},"Nicht jeder sinnvolle Use Case ist ein guter generativer KI-Use-Case",{"type":22,"tag":23,"props":206,"children":207},{},[208],{"type":27,"value":209},"Ein besonders wichtiger Punkt des Webinars liegt für mich darin, falsche Erwartungen bewusst zu korrigieren. Nicht\njeder sinnvolle digitale Anwendungsfall ist automatisch ein guter generativer KI-Use-Case. Genau das wird anhand eines\nbewusst konstruierten Gegenbeispiels deutlich. Aufgaben, die im Kern auf numerischen Berechnungen, statistischen\nModellen oder deterministischen Prognosen beruhen, lassen sich unter Umständen mit KI-Komponenten kombinieren, aber\ngenerative Sprachmodelle sind dafür nicht automatisch das richtige Werkzeug.",{"type":22,"tag":23,"props":211,"children":212},{},[213],{"type":27,"value":214},"Ein Sprachmodell kann Text verstehen, strukturieren und mit Kontext arbeiten. Es ist aber kein Ersatz für präzise\nmathematische Modelle, klassische Statistik oder robuste Berechnungspipelines. Gerade in Unternehmen entsteht schnell\ndie Vorstellung, man könne sämtliche PDFs, Excels und Regeln einem mächtigen Modell geben, und dieses löse dann alle\nProbleme. Diese Erwartung ist unrealistisch.",{"type":22,"tag":47,"props":216,"children":217},{},[218],{"type":22,"tag":23,"props":219,"children":220},{},[221],{"type":27,"value":222},"„LLMs sind Sprachmodelle, keine Taschenrechner.“",{"type":22,"tag":23,"props":224,"children":225},{},[226],{"type":27,"value":227},"Damit verbunden ist ein weiterer verbreiteter Irrtum: die Annahme, ein einziges zentrales Chatfenster genüge, damit\nKI alle Arten von Anfragen im Unternehmen korrekt versteht und verarbeitet. Auch das greift zu kurz. Ob ein Passwort\nzurückgesetzt, ein Ticket klassifiziert, ein Dokument zusammengefasst oder ein bestimmter Geschäftsprozess ausgelöst\nwerden soll, muss technisch sauber angebunden und kontrolliert werden. Sprachmodelle allein orchestrieren keine\nsicheren Unternehmensprozesse. Erst Schnittstellen, Rechte, definierte Workflows und ergänzende Softwarelogik machen\ndaraus eine belastbare Anwendung.",{"type":22,"tag":35,"props":229,"children":231},{"id":230},"anforderungen-testfälle-und-feedbackschlaufen-statt-blindem-go-live",[232],{"type":27,"value":233},"Anforderungen, Testfälle und Feedbackschlaufen statt blindem Go-live",{"type":22,"tag":23,"props":235,"children":236},{},[237],{"type":27,"value":238},"Ein weiterer Schwerpunkt liegt auf der Arbeitsweise rund um KI-Projekte selbst. Ein System geht nicht einfach live\nund funktioniert danach stabil wie gewünscht. Gute KI-Anwendungen entstehen iterativ. Sie brauchen Anforderungen,\nAkzeptanzkriterien, Testfälle, verantwortliche Personen und Feedbackschlaufen. Besonders wichtig ist dabei die Frage,\nwas überhaupt eine gute Antwort ausmacht. Richtigkeit allein reicht nicht. Auch Stil, Vollständigkeit, Kürze,\nQuellenbezug oder proaktive Hinweise gehören zu den Qualitätsmerkmalen, die vorab geklärt werden müssen.",{"type":22,"tag":23,"props":240,"children":241},{},[242],{"type":27,"value":243},"Ohne diese Vorarbeit droht selbst ein technisch solides System an mangelnder Akzeptanz zu scheitern. Wenn Nutzende von\nBeginn an perfekte Antworten erwarten und keine realistische Einordnung erhalten, wird das System schnell als\nunbrauchbar wahrgenommen. Deshalb sind Erwartungsmanagement, Monitoring und die laufende Verbesserung von\nDatenstrukturen und Prozessen so wichtig.",{"type":22,"tag":47,"props":245,"children":246},{},[247],{"type":22,"tag":23,"props":248,"children":249},{},[250],{"type":27,"value":251},"„Tag 1 ist nicht das Ende des Projekts.“",{"type":22,"tag":23,"props":253,"children":254},{},[255],{"type":27,"value":256},"Hinzu kommt, dass bestehende Legacy-Systeme oft nicht ohne Weiteres von KI nutzbar gemacht werden können. Historisch\ngewachsene Schnittstellen, proprietäre Datenbanken oder schlecht strukturierte Altsysteme müssen erst übersetzt,\nerschlossen oder technisch ummantelt werden, bevor ein Agent oder Assistent sinnvoll damit arbeiten kann. Auch das\nist keine Nebensache, sondern ein grosser Teil der eigentlichen Projektarbeit.",{"type":22,"tag":35,"props":258,"children":260},{"id":259},"ki-im-unternehmen-braucht-mehr-als-ein-starkes-modell",[261],{"type":27,"value":262},"KI im Unternehmen braucht mehr als ein starkes Modell",{"type":22,"tag":23,"props":264,"children":265},{},[266],{"type":27,"value":267},"Am Ende verdichtet sich daraus für mich ein klares Bild: Wertvolle KI-Anwendungen im Unternehmen entstehen nicht\ndurch möglichst grosse Versprechen, sondern durch präzise zugeschnittene Lösungen. Entscheidend ist, welches Problem\ntatsächlich gelöst werden soll, welche Daten dafür verfügbar sind, welche Systeme eingebunden werden müssen und wie\nsich menschliche Expertise sinnvoll ergänzen lässt. KI ist dann stark, wenn sie in Prozesse integriert ist, Kontext\nversteht, Wissen zugänglich macht und Mitarbeitende gezielt entlastet.",{"type":22,"tag":23,"props":269,"children":270},{},[271],{"type":27,"value":272},"Das Webinar zeigt deshalb weniger einzelne Tools als ein Grundmuster, das sich durch mehrere Anwendungsfälle zieht:\nKI braucht einen sauberen technischen Unterbau, klare Rollen zwischen Assistenten und Agenten, kontrollierte\nDatenzugriffe und ein realistisches Verständnis ihrer Grenzen. Genau in diesem Zusammenspiel liegt der Unterschied\nzwischen Hype und produktiver Anwendung.",{"title":7,"searchDepth":274,"depth":274,"links":275},2,[276,278,279,280,281,282,283,284,285],{"id":37,"depth":277,"text":40},3,{"id":62,"depth":277,"text":65},{"id":91,"depth":277,"text":94},{"id":130,"depth":277,"text":133},{"id":156,"depth":277,"text":159},{"id":180,"depth":277,"text":183},{"id":201,"depth":277,"text":204},{"id":230,"depth":277,"text":233},{"id":259,"depth":277,"text":262},"markdown","content:presentations:webinar_ki_use_cases.md","content","presentations\u002Fwebinar_ki_use_cases.md","presentations\u002Fwebinar_ki_use_cases","md",[293,500,668,804,1089,1314,1500,1691,1871,2200,2356,2604,2675,2854,2992,3221,3301,3500,3699,3853],{"_path":4,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":8,"description":9,"eventName":10,"subtitle":11,"logo":12,"eventDate":13,"eventDuration":14,"audience":15,"views":16,"videoId":17,"body":294,"_type":286,"_id":287,"_source":288,"_file":289,"_stem":290,"_extension":291},{"type":19,"children":295,"toc":489},[296,300,303,307,311,318,322,326,330,334,341,345,349,353,357,361,365,372,376,380,384,388,392,396,400,404,411,415,419,423,427,431,435,439,443,450,454,458,462,466,473,477,481,485],{"type":22,"tag":23,"props":297,"children":298},{},[299],{"type":27,"value":28},{"type":22,"tag":30,"props":301,"children":302},{":video-id":32},[],{"type":22,"tag":35,"props":304,"children":305},{"id":37},[306],{"type":27,"value":40},{"type":22,"tag":23,"props":308,"children":309},{},[310],{"type":27,"value":45},{"type":22,"tag":47,"props":312,"children":313},{},[314],{"type":22,"tag":23,"props":315,"children":316},{},[317],{"type":27,"value":54},{"type":22,"tag":23,"props":319,"children":320},{},[321],{"type":27,"value":59},{"type":22,"tag":35,"props":323,"children":324},{"id":62},[325],{"type":27,"value":65},{"type":22,"tag":23,"props":327,"children":328},{},[329],{"type":27,"value":70},{"type":22,"tag":23,"props":331,"children":332},{},[333],{"type":27,"value":75},{"type":22,"tag":47,"props":335,"children":336},{},[337],{"type":22,"tag":23,"props":338,"children":339},{},[340],{"type":27,"value":83},{"type":22,"tag":23,"props":342,"children":343},{},[344],{"type":27,"value":88},{"type":22,"tag":35,"props":346,"children":347},{"id":91},[348],{"type":27,"value":94},{"type":22,"tag":23,"props":350,"children":351},{},[352],{"type":27,"value":99},{"type":22,"tag":23,"props":354,"children":355},{},[356],{"type":27,"value":104},{"type":22,"tag":23,"props":358,"children":359},{},[360],{"type":27,"value":109},{"type":22,"tag":23,"props":362,"children":363},{},[364],{"type":27,"value":114},{"type":22,"tag":47,"props":366,"children":367},{},[368],{"type":22,"tag":23,"props":369,"children":370},{},[371],{"type":27,"value":122},{"type":22,"tag":23,"props":373,"children":374},{},[375],{"type":27,"value":127},{"type":22,"tag":35,"props":377,"children":378},{"id":130},[379],{"type":27,"value":133},{"type":22,"tag":23,"props":381,"children":382},{},[383],{"type":27,"value":138},{"type":22,"tag":23,"props":385,"children":386},{},[387],{"type":27,"value":143},{"type":22,"tag":23,"props":389,"children":390},{},[391],{"type":27,"value":148},{"type":22,"tag":23,"props":393,"children":394},{},[395],{"type":27,"value":153},{"type":22,"tag":35,"props":397,"children":398},{"id":156},[399],{"type":27,"value":159},{"type":22,"tag":23,"props":401,"children":402},{},[403],{"type":27,"value":164},{"type":22,"tag":47,"props":405,"children":406},{},[407],{"type":22,"tag":23,"props":408,"children":409},{},[410],{"type":27,"value":172},{"type":22,"tag":23,"props":412,"children":413},{},[414],{"type":27,"value":177},{"type":22,"tag":35,"props":416,"children":417},{"id":180},[418],{"type":27,"value":183},{"type":22,"tag":23,"props":420,"children":421},{},[422],{"type":27,"value":188},{"type":22,"tag":23,"props":424,"children":425},{},[426],{"type":27,"value":193},{"type":22,"tag":23,"props":428,"children":429},{},[430],{"type":27,"value":198},{"type":22,"tag":35,"props":432,"children":433},{"id":201},[434],{"type":27,"value":204},{"type":22,"tag":23,"props":436,"children":437},{},[438],{"type":27,"value":209},{"type":22,"tag":23,"props":440,"children":441},{},[442],{"type":27,"value":214},{"type":22,"tag":47,"props":444,"children":445},{},[446],{"type":22,"tag":23,"props":447,"children":448},{},[449],{"type":27,"value":222},{"type":22,"tag":23,"props":451,"children":452},{},[453],{"type":27,"value":227},{"type":22,"tag":35,"props":455,"children":456},{"id":230},[457],{"type":27,"value":233},{"type":22,"tag":23,"props":459,"children":460},{},[461],{"type":27,"value":238},{"type":22,"tag":23,"props":463,"children":464},{},[465],{"type":27,"value":243},{"type":22,"tag":47,"props":467,"children":468},{},[469],{"type":22,"tag":23,"props":470,"children":471},{},[472],{"type":27,"value":251},{"type":22,"tag":23,"props":474,"children":475},{},[476],{"type":27,"value":256},{"type":22,"tag":35,"props":478,"children":479},{"id":259},[480],{"type":27,"value":262},{"type":22,"tag":23,"props":482,"children":483},{},[484],{"type":27,"value":267},{"type":22,"tag":23,"props":486,"children":487},{},[488],{"type":27,"value":272},{"title":7,"searchDepth":274,"depth":274,"links":490},[491,492,493,494,495,496,497,498,499],{"id":37,"depth":277,"text":40},{"id":62,"depth":277,"text":65},{"id":91,"depth":277,"text":94},{"id":130,"depth":277,"text":133},{"id":156,"depth":277,"text":159},{"id":180,"depth":277,"text":183},{"id":201,"depth":277,"text":204},{"id":230,"depth":277,"text":233},{"id":259,"depth":277,"text":262},{"_path":501,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":502,"description":503,"eventName":504,"subtitle":505,"logo":506,"eventDate":507,"eventDuration":508,"audience":509,"body":510,"_type":286,"_id":665,"_source":288,"_file":666,"_stem":667,"_extension":291},"\u002Fpresentations\u002Ffhnw_ai_agent_platforms","KI-Agenten in Produktion","Am 13. März 2026 zeigte ich beim FHNW Bootcamp KI-Agenten, warum ein einzelner \nfunktionierender Agent noch keine Lösung ist und ab dem dritten Use-Case eine\nzentrale Plattform unumgänglich wird. Anhand von sechs Modulen — Wissensbasis,\nGovernance, Transparenz, Evaluation, LLM Gateway und PII-Schutz — erklärte ich,\nwie jedes dieser Querschnittsthemen einmal zentral gelöst werden kann, statt es\nfür jeden Use-Case zu replizieren. Die zentrale Botschaft lautet: Ein PoC ist\nschnell gebaut, aber die Plattform entscheidet, ob KI im Unternehmen wirklich skaliert.\n","Bootcamp AI-Agents - Organisationen mit KI-Agenten transformieren","Was die Plattform leisten muss","\u002Fimages\u002Fpresentations\u002Ffhnw\u002Fai_agent_platform.png","2026-03-13","ca 40 Min.","ca. 35 Teilnehmende",{"type":19,"children":511,"toc":655},[512,517,522,527,533,538,543,549,554,559,565,570,575,581,586,591,597,602,607,613,618,623,629,634,639,645,650],{"type":22,"tag":23,"props":513,"children":514},{},[515],{"type":27,"value":516},"Am 13. März 2026 durfte ich beim FHNW Bootcamp KI-Agenten einen Vortrag zum Thema\n„KI-Agenten in Produktion\" halten. Im Zentrum stand die Frage, was eine KI-Plattform\nleisten muss, damit Agents nicht nur als Proof of Concept funktionieren, sondern\nzuverlässig im Unternehmensalltag skalieren.",{"type":22,"tag":23,"props":518,"children":519},{},[520],{"type":27,"value":521},"Den Einstieg machte ein konkreter Use Case: Schlüsselpersonen verlassen das Unternehmen\nund ihr Wissen geht mit. Ein KI-Assistent beantwortet rund 80 Prozent der Anfragen\ndirekt aus Handbüchern und der Wissensbasis. Reicht das nicht aus, übernimmt ein\nKI-Agent, leitet die Frage an eine Expertin oder einen Experten weiter und speichert\ndas neue Wissen dauerhaft für alle. Dieses Setup funktioniert gut für einen einzelnen\nAgent. Doch sobald ein zweiter oder dritter Agent hinzukommt, entsteht das sogenannte\nDay-Two-Problem: dreifache Wissensbasis, dreifache Zugriffskontrolle, dreifaches\nTesting, dreifache Modellanbindung. Das skaliert nicht.",{"type":22,"tag":23,"props":523,"children":524},{},[525],{"type":27,"value":526},"Die Strassenverkehr-Analogie bringt es auf den Punkt: Ein einzelnes Auto fährt\nauch ohne Ampeln. Aber hundert Autos brauchen Verkehrsregeln, Ampeln, Überwachung\nund einen TÜV, nicht schnellere Motoren. Ab dem dritten Use-Case braucht es eine\nPlattform, die diese Querschnittsthemen einmal zentral löst, statt sie für jeden\nUse-Case zu replizieren.",{"type":22,"tag":35,"props":528,"children":530},{"id":529},"modul-1-wissensbasis-firmenwissen-anbinden",[531],{"type":27,"value":532},"Modul 1: Wissensbasis — Firmenwissen anbinden",{"type":22,"tag":23,"props":534,"children":535},{},[536],{"type":27,"value":537},"Der erste Baustein ist die zentrale Wissensbasis. Das Problem ist simpel:\nEin Service-Agent soll aus Handbüchern, Tickets und Prozessdokumenten antworten,\naber das Sprachmodell kennt diese Inhalte nicht. Retrieval-Augmented Generation\n(RAG) schliesst diese Lücke. Dokumente werden in kleine Abschnitte aufgeteilt und\nals Vektoren gespeichert. Eine eingehende Frage wird ebenfalls vektorisiert und\ndas System findet inhaltlich ähnliche Abschnitte, die als Kontext ans Modell\nübergeben werden. Das Ergebnis: Das Modell antwortet mit Firmenwissen, obwohl es\ndieses nie im Training gesehen hat.",{"type":22,"tag":23,"props":539,"children":540},{},[541],{"type":27,"value":542},"Heute pflegt oft jeder Agent seine eigene Datenbank, Dokumente werden doppelt\naufbereitet und die Ergebnisse sind inkonsistent. Eine zentrale Wissensbasis mit\nklar definierten Bereichen löst das einmal für alle. Neue Agents sind sofort\nangebunden, ohne Zusatzaufwand.",{"type":22,"tag":35,"props":544,"children":546},{"id":545},"modul-2-governance-wer-darf-was",[547],{"type":27,"value":548},"Modul 2: Governance — Wer darf was?",{"type":22,"tag":23,"props":550,"children":551},{},[552],{"type":27,"value":553},"Das zweite Modul adressiert eine Frage, die in der Praxis oft zu spät gestellt wird:\nUnter wessen Identität arbeitet ein Agent, der auf Kundendaten, Prozessdokumente\nund technische Handbücher zugreift? Es gibt zwei grundlegend verschiedene Ansätze.\nDer Agent als Assistent erbt die Berechtigungen des angemeldeten Nutzers, wie ein\nPraktikant, der unter dem Login einer Kollegin arbeitet, mit maximalem Zugriff des\nNutzers. Der Agent als eigenständige Entität hingegen hat eine eigene Identität und\neigene Rechte, exakt die minimalen Berechtigungen, die er für seine Aufgabe benötigt.",{"type":22,"tag":23,"props":555,"children":556},{},[557],{"type":27,"value":558},"Agents als eigenständige Entitäten machen KI beherrschbar: Sie folgen dem\nLeast-Privilege-Prinzip, können ohne Nutzer-Kontext arbeiten (etwa für nächtliche\nBatch-Verarbeitungen oder automatische Ticket-Beantwortungen), liefern konsistente\nInputs für systematische Tests und hinterlassen klare, zuordenbare Traces und Logs.",{"type":22,"tag":35,"props":560,"children":562},{"id":561},"modul-3-transparenz-was-ist-passiert",[563],{"type":27,"value":564},"Modul 3: Transparenz — Was ist passiert?",{"type":22,"tag":23,"props":566,"children":567},{},[568],{"type":27,"value":569},"Stellen wir uns vor, ein Service-Agent gibt einem Techniker eine falsche\nReparaturanleitung. Der Kunde ist verärgert. Was passiert als nächstes? Ohne\nTransparenz lautet die Antwort: Wir haben keine Ahnung, wie das passieren konnte.\nKein Audit-Trail, keine Nachvollziehbarkeit, das Vertrauen ist verloren. Mit\nTransparenz hingegen kann man nachvollziehen, was passiert ist: welche Dokumente\nherangezogen wurden, wie der Kontext zusammengebaut wurde, was das Modell geliefert\nhat und welche Zwischenschritte bei längeren Workflows durchlaufen wurden.",{"type":22,"tag":23,"props":571,"children":572},{},[573],{"type":27,"value":574},"Ich stelle den Teilnehmenden eine einfache Frage: Würden Sie einen Geschäftsprozess\nbetreiben, den niemand nachvollziehen kann? Transparenz ist kein Nice-to-have.\nSie ist die Voraussetzung für verantwortungsvollen KI-Betrieb.",{"type":22,"tag":35,"props":576,"children":578},{"id":577},"modul-4-evaluation-ki-testen-wie-software",[579],{"type":27,"value":580},"Modul 4: Evaluation — KI testen wie Software",{"type":22,"tag":23,"props":582,"children":583},{},[584],{"type":27,"value":585},"Die Transparenz-Logs sind nicht nur für den Betrieb wertvoll, sie sind die Grundlage\nfür systematische Qualitätssicherung. KI-Qualität ist messbar, nicht Glückssache.\nMit einem Referenz-Datensatz aus typischen Fragen und geprüften Antworten, einem\nLLM-as-Judge-Ansatz (ein Sprachmodell bewertet die Antwort eines anderen Modells)\nsowie eigenen Evaluatoren für domänenspezifische Kriterien wie Quellenkorrektheit,\nCompliance und Tonalität lässt sich Qualität automatisiert messen. Bei jeder\nÄnderung, ob neuer Prompt, neue Dokumente oder ein neues Modell, läuft die\nEvaluation und zeigt sofort, ob die Qualität gestiegen oder gesunken ist.",{"type":22,"tag":23,"props":587,"children":588},{},[589],{"type":27,"value":590},"Wichtig dabei: Agents mit eigener Identität liefern konsistente Inputs und machen\nsystematische Evaluation erst möglich. Die Module bauen aufeinander auf.",{"type":22,"tag":35,"props":592,"children":594},{"id":593},"modul-5-llm-gateway-modellwechsel-ohne-chaos",[595],{"type":27,"value":596},"Modul 5: LLM Gateway — Modellwechsel ohne Chaos",{"type":22,"tag":23,"props":598,"children":599},{},[600],{"type":27,"value":601},"Modelle werden häufiger gewechselt, als man denkt: wegen Abkündigung durch den\nAnbieter, besserer Qualität eines neuen Modells, deutlich geringerer Kosten oder\njuristischer Gründe. Ohne Gateway ist jeder Agent hart mit einem bestimmten Modell\nverdrahtet. Bei einer wachsenden Anzahl von Agents wird ein notwendiger Modellwechsel\nschnell zum Chaos, besonders wenn es schnell gehen muss.",{"type":22,"tag":23,"props":603,"children":604},{},[605],{"type":27,"value":606},"Das LLM Gateway entkoppelt Agents von konkreten Modellen. Use-Cases sprechen\nlogische Endpunkte an, etwa \"thinking-large\", \"fast-small\" oder \"embedding\", und\ndas Gateway mappt diese auf die jeweils aktuellen, konkreten Modelle. Ein\nService-Agent, ein Onboarding-Agent und ein Compliance-Agent kommunizieren alle\nmit dem Gateway, welches die Anfragen an Claude Opus, GPT-4o mini oder das\nEmbedding-Modell weiterleitet, je nach Anforderung. Kostenkontrolle durch zentrale\nRate Limits und Budget-Grenzen ist ein weiterer Vorteil dieser Architektur.",{"type":22,"tag":35,"props":608,"children":610},{"id":609},"modul-6-pii-schutz-sensible-daten-schützen",[611],{"type":27,"value":612},"Modul 6: PII-Schutz — Sensible Daten schützen",{"type":22,"tag":23,"props":614,"children":615},{},[616],{"type":27,"value":617},"Das sechste Modul ist ein zentrales Anliegen im Schweizer Unternehmenskontext:\nPersonenbezogene Daten dürfen das Unternehmen nicht unkontrolliert verlassen. Ein\nService-Agent, der Kundenanfragen bearbeitet, hat es mit Namen, E-Mail-Adressen,\nKundennummern und manchmal Kreditkartendaten zu tun. Je nach Anbieter werden\nAnfragen gespeichert oder für Trainingszwecke verwendet, DSGVO und DSG verlangen\nden Schutz personenbezogener Daten, und selbst bei Nicht-Speicherung stellt sich\ndie Frage, ob sensible Daten überhaupt über das Internet versendet werden sollten.",{"type":22,"tag":23,"props":619,"children":620},{},[621],{"type":27,"value":622},"Die Lösung: PII-Schutz auf Gateway-Ebene, automatisch, zentral und ohne\nCode-Änderung in den einzelnen Agents. Bevor eine Anfrage das Unternehmen verlässt,\nwerden sensible Daten erkannt und behandelt: Namen werden zu Platzhaltern maskiert,\nE-Mail-Adressen und IBANs ersetzt, Kreditkartendaten blockieren die Anfrage\nvollständig. Einmal zentral gelöst, gilt dasselbe Muster wie bei allen anderen\nModulen.",{"type":22,"tag":35,"props":624,"children":626},{"id":625},"das-zusammenspiel-die-module-als-system",[627],{"type":27,"value":628},"Das Zusammenspiel: Die Module als System",{"type":22,"tag":23,"props":630,"children":631},{},[632],{"type":27,"value":633},"Die sechs Module entfalten ihren eigentlichen Wert erst im Zusammenspiel. Ein\nvollständiger Request durch die Plattform sieht so aus: Der Service-Techniker\nstellt eine Frage. RAG durchsucht die zentrale Wissensbasis. Governance prüft,\nob dieser Agent auf die betreffenden Daten zugreifen darf. Transparenz loggt,\nwelche Dokumente herangezogen und welcher Prompt aufgebaut wurde. PII-Schutz\nmaskiert sensible Daten in der Anfrage. Das LLM Gateway routet ans richtige Modell.\nUnd die Evaluation prüft regelmässig, ob die Qualität noch stimmt.",{"type":22,"tag":23,"props":635,"children":636},{},[637],{"type":27,"value":638},"Jedes Modul wird einmal gebaut und funktioniert dann für alle Agents. Das ist das\nentscheidende Prinzip: einmal zentral lösen, statt für jeden Use-Case replizieren.",{"type":22,"tag":35,"props":640,"children":642},{"id":641},"synthese-die-plattform-entscheidet-ob-ki-skaliert",[643],{"type":27,"value":644},"Synthese: Die Plattform entscheidet, ob KI skaliert",{"type":22,"tag":23,"props":646,"children":647},{},[648],{"type":27,"value":649},"Die Abschlussfrage des Vortrags bringt alles auf den Punkt: Lösen wir dieses\nProblem einmal zentral, oder wiederholen wir es für jeden Use-Case? Ein PoC ist\nschnell gebaut. Aber die Plattform entscheidet, ob KI im Unternehmen wirklich\nskaliert.",{"type":22,"tag":23,"props":651,"children":652},{},[653],{"type":27,"value":654},"Die Diskussions-Impulse am Ende sorgten für lebhafte Gespräche: Welches Modul\nwürde man als erstes aufbauen? Wie würde man die eigenen heutigen KI-Agents\nbeschreiben, als Assistenten oder als eigenständige Entitäten? Und was passiert\nim eigenen Unternehmen heute, wenn ein KI-System einen Fehler macht? Diese\nFragen trafen den Nerv der Teilnehmenden und zeigten, dass der Weg von\nerfolgreichen Proof of Concepts hin zu produktionsreifer KI für viele\nUnternehmen noch vor ihnen liegt.",{"title":7,"searchDepth":274,"depth":274,"links":656},[657,658,659,660,661,662,663,664],{"id":529,"depth":277,"text":532},{"id":545,"depth":277,"text":548},{"id":561,"depth":277,"text":564},{"id":577,"depth":277,"text":580},{"id":593,"depth":277,"text":596},{"id":609,"depth":277,"text":612},{"id":625,"depth":277,"text":628},{"id":641,"depth":277,"text":644},"content:presentations:fhnw_ai_agent_platforms.md","presentations\u002Ffhnw_ai_agent_platforms.md","presentations\u002Ffhnw_ai_agent_platforms",{"_path":669,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":670,"description":671,"eventName":672,"subtitle":673,"logo":674,"eventDate":675,"eventDuration":508,"audience":676,"body":677,"_type":286,"_id":801,"_source":288,"_file":802,"_stem":803,"_extension":291},"\u002Fpresentations\u002Ffhnw_ai_trends","Überblick aktueller KI-Trends in der Schweizer Industrie","Am 05. März 2026 präsentierte ich beim FHNW AI Bootcamp vier aktuelle KI-Trends \nin der Schweizer Industrie: Modelle konvergieren und werden risikoarm wählbar,\nAgents verwandeln KI vom Gesprächspartner zum Mitarbeiter, und offene Standards\nwie MCP verbinden KI mit bestehenden Unternehmenssystemen. Anhand konkreter\nPraxisbeispiele aus den Bereichen Wissensmanagement und Predictive Maintenance\nzeigte ich, dass der Mehrwert nicht im Modell liegt, sondern in der Verbindung\nmit den eigenen Daten und Systemen. Die zentrale Botschaft lautet: Nicht das\nModell entscheidet, sondern die Plattform, denn dort entstehen langfristige\nAbhängigkeiten oder echte digitale Souveränität.\n","Bootcamp Artificial Intelligence for Management","Vier Trends - ein Muster","\u002Fimages\u002Fpresentations\u002Ffhnw\u002Fai_trends.png","2026-03-05","20 Teilnehmende",{"type":19,"children":678,"toc":794},[679,684,689,695,700,705,711,716,721,726,731,737,742,747,752,758,763,768,773,779,784,789],{"type":22,"tag":23,"props":680,"children":681},{},[682],{"type":27,"value":683},"Am 05. März 2026 hatte ich die Gelegenheit, im Rahmen des FHNW AI Bootcamps einen Vortrag\nzum Thema „Überblick aktueller KI-Trends in der Schweizer Industrie\" zu halten.\nUnter dem Motto „Vier Trends — ein Muster\" habe ich versucht, den Teilnehmenden nicht\neinfach eine Bestandsaufnahme der KI-Landschaft zu liefern, sondern die verborgene Logik\nhinter scheinbar unabhängigen Entwicklungen sichtbar zu machen. Mein Versprechen an die\nZuhörenden war klar: Sie verlassen den Raum mit einem klaren Bild, wie diese Trends\nzusammenhängen — und mit drei konkreten Fragen für ihre nächste KI-Entscheidung.",{"type":22,"tag":23,"props":685,"children":686},{},[687],{"type":27,"value":688},"Den Einstieg machte eine Zahl, die viele überrascht: KI ist in den vergangenen 18 Monaten\n300-mal günstiger geworden. Der Preis pro KI-Intelligenzeinheit fiel von 32 auf 0.10 US-Dollar.\nDas ist kein schrittweiser Fortschritt — das ist eine strukturelle Verschiebung,\ndie alles Folgende erst ermöglicht.",{"type":22,"tag":35,"props":690,"children":692},{"id":691},"trend-1-modell-revolution-die-wahl-wird-risikoarm",[693],{"type":27,"value":694},"Trend 1: Modell-Revolution — Die Wahl wird risikoarm",{"type":22,"tag":23,"props":696,"children":697},{},[698],{"type":27,"value":699},"Der erste Trend betrifft die Modelle selbst. GPT, Claude, Gemini, DeepSeek — die führenden\nFrontier-Modelle operieren heute auf vergleichbarem Niveau. Das zeigen sowohl der\nArtificial Analysis Intelligence Index als auch unabhängige Benchmarks wie der\nMensa Norway IQ Test von trackingai.org. Proprietäre Modelle wie GPT (OpenAI),\nClaude (Anthropic) und Gemini (Google) stehen leistungsfähigen Open-Source-Alternativen\nwie DeepSeek, Llama (Meta) und Qwen (Alibaba) gegenüber.",{"type":22,"tag":23,"props":701,"children":702},{},[703],{"type":27,"value":704},"Die praktische Konsequenz daraus ist entscheidend: Unternehmen müssen sich nicht mehr\nfür ein einziges Modell entscheiden — alle sind gut genug. Die Modellwahl ist\nrisikoarm geworden. Damit entsteht eine klare Architektur: Die Modell-Schicht\n(Rechenzentrum mit proprietären und Open-Source-Modellen) wird zur austauschbaren\nInfrastruktur — vergleichbar mit der Cloud vor zehn Jahren.",{"type":22,"tag":35,"props":706,"children":708},{"id":707},"trend-2-agents-von-chat-zu-action",[709],{"type":27,"value":710},"Trend 2: Agents — Von Chat zu Action",{"type":22,"tag":23,"props":712,"children":713},{},[714],{"type":27,"value":715},"Der zweite Trend ist der Wechsel vom Gesprächspartner zum Mitarbeiter.\nEin Chatbot beantwortet die Frage „Wie waren unsere Q4-Zahlen?\". Ein Agent dagegen\nerledigt die Aufgabe: Quartalsbericht erstellen, mit Vorjahr vergleichen, Entwurf\nans Management schicken. Agents können Tools nutzen, Workflows folgen und Rückfragen\nstellen — aber: Ein Agent ohne Zugang zu den Systemen eines Unternehmens ist wie ein\nneuer Mitarbeiter ohne Laptop.",{"type":22,"tag":23,"props":717,"children":718},{},[719],{"type":27,"value":720},"Wichtig ist dabei eine konzeptionelle Unterscheidung, die ich in der Praxis oft\nvermisse: Ein reaktiver Assistent hilft dem Nutzer. Ein Unternehmens-Agent hilft\nder Organisation — er hat eine eigene Identität, arbeitet für die Organisation und\nerhält aufgabenbasierten Zugang zu Daten, nicht nutzerabhängigen. Ein Agent, der\nnur auf Nutzeranfragen reagiert, ist kein Agent — sondern ein Assistent.",{"type":22,"tag":23,"props":722,"children":723},{},[724],{"type":27,"value":725},"Auf dem Spektrum zwischen vordefinierten Workflows und vollständig autonomen Systemen\nempfehle ich in der Praxis, mit Workflows zu starten und schrittweise zu erweitern.\nVordefinierte Workflow-Agents sind vorhersagbar und kontrollierbar — ideal für\nbekannte, standardisierte Prozesse. Agentic AI dagegen plant und entscheidet selbst,\nist mächtiger, aber schwerer zu steuern.",{"type":22,"tag":23,"props":727,"children":728},{},[729],{"type":27,"value":730},"Als konkretes Praxisbeispiel zeigte ich einen Use Case zum Wissensmanagement:\nSchlüsselpersonen gehen in Pension — ihr Wissen geht mit. Ein KI-Assistent deckt\nrund 80 Prozent der Anfragen aus vorhandenen Handbüchern und Dokumenten ab.\nWo die Wissensbasis nicht ausreicht, leitet ein KI-Agent die Frage an eine Expertin\noder einen Experten weiter — und speichert die neue Antwort dauerhaft in der\nWissensbasis. So entsteht ein lernendes System, das institutionelles Wissen\nkonserviert, bevor es das Unternehmen verlässt.",{"type":22,"tag":35,"props":732,"children":734},{"id":733},"trend-3-integration-ki-inseln-werden-verbunden",[735],{"type":27,"value":736},"Trend 3: Integration — KI-Inseln werden verbunden",{"type":22,"tag":23,"props":738,"children":739},{},[740],{"type":27,"value":741},"Der dritte Trend ist MCP — das Model Context Protocol. Ich beschreibe es gerne als\n„USB für KI\": ein offener Standard, der KI-Plattformen (als MCP Client) mit beliebiger\nUnternehmenssoftware (als MCP Server) verbindet — CRM, ERP, Kalender, Dokumente,\nTicketsysteme. Auf der einen Seite stehen Systeme wie Claude Desktop oder Claude Code,\nauf der anderen Seite PostgreSQL, GDrive, Git, Slack, Google Maps.",{"type":22,"tag":23,"props":743,"children":744},{},[745],{"type":27,"value":746},"Das zweite Praxisbeispiel aus diesem Abschnitt stammt aus dem industriellen Umfeld:\nEin Maschinenhersteller verfügt über analytische Sensordaten — deterministisch,\naber kontextlos. Erst die Kombination mit den Nutzungs- und Wartungsdaten beim\nVerwender, zugänglich via MCP, ermöglicht echte Mehrwerte: Predictive Maintenance\nund Auto-Kalibrierung. Der Wert lag nicht im Modell — sondern in der Verbindung.",{"type":22,"tag":23,"props":748,"children":749},{},[750],{"type":27,"value":751},"Ein weiteres Beispiel: Ein Gerätehersteller automatisiert den Support, indem\nein KI-Agent direkt in Jira arbeitet. Wird ein Ticket eröffnet, durchsucht der\nAgent automatisch Handbücher und alte Tickets, erstellt einen Antwortvorschlag und\nlegt ihn dem Supportteam zur Freigabe vor. Der Agent arbeitet dort, wo das Team\narbeitet — nicht in einem separaten KI-Tool. Das vollständige Bild zeigt eine\ndreischichtige Architektur: Business Applikationen (CRM, ERP, Analytics) verbunden\nüber API, MCP und A2A mit der KI-Plattform, welche wiederum über eine API auf das\nRechenzentrum zugreift.",{"type":22,"tag":35,"props":753,"children":755},{"id":754},"trend-4-lock-in-die-kehrseite-der-plattform",[756],{"type":27,"value":757},"Trend 4: Lock-In — Die Kehrseite der Plattform",{"type":22,"tag":23,"props":759,"children":760},{},[761],{"type":27,"value":762},"Der vierte Trend ist die strategische Kehrseite der Plattformentwicklung.\nWas als einfacher Chatbot begann (2023: Fragen stellen, Antworten bekommen),\nwurde 2024 zum Assistenten (Dokumente analysieren, Bilder verstehen) und ist\n2025\u002F26 zur vollwertigen Plattform geworden, die Hotels bucht, Kalender verwaltet\nund Aufgaben eigenständig erledigt. Je mächtiger diese Plattform, desto grösser\ndie Abhängigkeit.",{"type":22,"tag":23,"props":764,"children":765},{},[766],{"type":27,"value":767},"Lock-In entsteht dabei schleichend auf drei Ebenen: Die Wissensbasis mit\nDokumenten, Vektorisierung und Synchronisation lässt sich kaum migrieren.\nWorkflows, die in visuellen Buildern erstellt wurden, sind in der Regel nicht\nexportierbar. Und das Memory — Chatverläufe, Präferenzen, Kontextwissen — geht\nbeim Plattformwechsel schlicht verloren.",{"type":22,"tag":23,"props":769,"children":770},{},[771],{"type":27,"value":772},"Die gute Nachricht: Souveränität ist auf allen Ebenen möglich. Offene Standards\nwie MCP und A2A schützen vor Abhängigkeiten. Und für den Schweizer Kontext\nzeigt ein Ausblick auf den Swiss AI Hub und Anbieter wie Infomaniak, dass es\nrealistische Alternativen zur vollständigen Abhängigkeit von US-Hyperscalern gibt —\nvon der Modellschicht bis zur Plattformebene.",{"type":22,"tag":35,"props":774,"children":776},{"id":775},"synthese-nicht-das-modell-entscheidet-die-plattform-entscheidet",[777],{"type":27,"value":778},"Synthese: Nicht das Modell entscheidet — die Plattform entscheidet",{"type":22,"tag":23,"props":780,"children":781},{},[782],{"type":27,"value":783},"Die vier Trends folgen einem Muster: Modelle konvergieren und die Wahl wird\nrisikoarm. Agents handeln, brauchen aber Werkzeuge und Daten. MCP verbindet\nals offener Standard. Und Lock-In entsteht, weil die Plattform-Wahl strategisch\nist. Die zentrale Botschaft des Vortrags lässt sich in einem Satz zusammenfassen:\nNicht das Modell entscheidet. Die Plattform entscheidet.",{"type":22,"tag":23,"props":785,"children":786},{},[787],{"type":27,"value":788},"Was bedeutet das konkret? Drei Fragen sollten Unternehmen stellen, bevor sie\neine KI-Plattform wählen: Ist sie offen? Wer kontrolliert die Daten? Welche\nIntegrationen sind möglich — heute und in Zukunft?",{"type":22,"tag":23,"props":790,"children":791},{},[792],{"type":27,"value":793},"Die Diskussion im Anschluss zeigte, dass diese Fragen den Nerv vieler\nTeilnehmender trafen — besonders die Unterscheidung zwischen Assistent und Agent\nsowie der konkrete Ansatz, mit Workflows zu starten statt gleich auf maximale\nAutonomie zu setzen. Ich bin überzeugt, dass wir uns in einer Phase befinden,\nin der die strategischen Weichen für den KI-Einsatz der nächsten Jahre gestellt\nwerden — und freue mich darauf, diesen Weg weiter zu begleiten.",{"title":7,"searchDepth":274,"depth":274,"links":795},[796,797,798,799,800],{"id":691,"depth":277,"text":694},{"id":707,"depth":277,"text":710},{"id":733,"depth":277,"text":736},{"id":754,"depth":277,"text":757},{"id":775,"depth":277,"text":778},"content:presentations:fhnw_ai_trends.md","presentations\u002Ffhnw_ai_trends.md","presentations\u002Ffhnw_ai_trends",{"_path":805,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":806,"description":807,"eventName":808,"subtitle":809,"logo":810,"eventDate":811,"eventDuration":812,"audience":813,"views":814,"videoId":815,"body":816,"_type":286,"_id":1086,"_source":288,"_file":1087,"_stem":1088,"_extension":291},"\u002Fpresentations\u002Fwebinar_ai_in_2026","Webinar: KI Trends 2026","Der Rückblick auf 2025 ordnet die Entwicklung von KI-Modellen als Phase der Konvergenz ein, in der Fortschritt \nweniger über klassische Benchmarks, sondern stärker über Effizienz und Kosten pro Leistung sichtbar wird. Ein \nSchwerpunkt liegt auf der Verschiebung der Differenzierung von der Modellqualität hin zu Plattformfunktionen wie \nIntegration, Memory, Retrieval, Governance und agentischen Workflows. Die Rivalität zwischen USA und China wird \nals Zusammenspiel aus massiven Infrastrukturinvestitionen und einer Open-Weight-Strategie mit starkem Preisdruck \nund wachsendem Open-Source-Ökosystem eingeordnet. Für 2026 stehen Integration in bestehende Unternehmenssysteme \nsowie Standards wie MCP im Zentrum, um KI-Workflows zuverlässig mit Business-Applikationen zu verbinden. Gleichzeitig \nwerden Lock-in-Effekte und KI-Souveränität als Entscheidungen über Rechenzentrum, Plattform und angebundene Systeme \ndargestellt.\n","bbv KI Webinar - Rückblick\u002F Ausblick 2025\u002F2026","AI Wrapped 2025 und Ausblick 2026","\u002Fimages\u002Fpresentations\u002Fwebinar9\u002Fai_trends_2026_1","2026-01-14","107 Min.","ca. 200 Teilnehmende",2224,"5kYoGZ2qXWc",{"type":19,"children":817,"toc":1072},[818,825,830,833,839,844,852,857,863,868,876,881,887,892,900,905,911,916,924,929,935,940,945,951,956,961,967,972,980,985,991,996,1001,1007,1012,1048,1053,1059,1064],{"type":22,"tag":819,"props":820,"children":822},"h2",{"id":821},"rückblick-2025-und-ausblick-2026-ki-zwischen-konvergenz-plattformen-und-souveränität",[823],{"type":27,"value":824},"Rückblick 2025 und Ausblick 2026: KI zwischen Konvergenz, Plattformen und Souveränität",{"type":22,"tag":23,"props":826,"children":827},{},[828],{"type":27,"value":829},"Der Rückblick auf 2025 dient nicht der Chronologie, sondern der Einordnung: Welche Kräfte prägen den Markt tatsächlich\n– und welche Entwicklungen sind für 2026 plausibel? Statt einzelner Produktmeldungen stehen wiederkehrende Muster im\nFokus: Wie verändert sich die Leistungsdynamik von Modellen? Wo findet Differenzierung statt? Was bedeutet das für\nKosten, Integration und Abhängigkeiten in Unternehmen?",{"type":22,"tag":30,"props":831,"children":832},{":video-id":32},[],{"type":22,"tag":35,"props":834,"children":836},{"id":835},"_2025-als-jahr-der-modell-konvergenz",[837],{"type":27,"value":838},"2025 als Jahr der Modell-Konvergenz",{"type":22,"tag":23,"props":840,"children":841},{},[842],{"type":27,"value":843},"2025 wirkt auf den ersten Blick weniger spektakulär, weil klassische Benchmarks kaum noch große Sprünge zeigen. Das ist\nweniger ein Zeichen von Stillstand als ein Hinweis darauf, dass viele etablierte Messlatten „ausgereizt“ sind.\nFortschritt verschiebt sich: Nicht das Knacken der nächsten Prozentpunkte dominiert, sondern Effizienz – kleinere\nModelle, geringerer Ressourcenbedarf, stärkere Leistung pro Recheneinheit und zunehmend auch smartphone-taugliche\nVarianten.",{"type":22,"tag":47,"props":845,"children":846},{},[847],{"type":22,"tag":23,"props":848,"children":849},{},[850],{"type":27,"value":851},"„Die Challenge ist nicht mehr, den Benchmark zu knacken – sondern ihn mit immer kleineren, effizienteren Modellen\nzu erreichen.“",{"type":22,"tag":23,"props":853,"children":854},{},[855],{"type":27,"value":856},"Gleichzeitig entsteht ein subjektiver Effekt: Für Alltagsaufgaben fühlt sich Fortschritt oft wie Stagnation an, weil\nviele Standard-Tasks bereits „gut genug“ gelöst sind. Messbar steigen Fähigkeiten dennoch weiter – nur zunehmend in\nNischen, die erst bei domänenspezifischen Aufgaben spürbar werden.",{"type":22,"tag":35,"props":858,"children":860},{"id":859},"business-perspektive-modellwahl-wird-sekundär-plattformwahl-zentral",[861],{"type":27,"value":862},"Business-Perspektive: Modellwahl wird sekundär, Plattformwahl zentral",{"type":22,"tag":23,"props":864,"children":865},{},[866],{"type":27,"value":867},"Wenn sich Modelle angleichen, verliert die Frage „welches Modell ist am intelligentesten?“ an Bedeutung. Relevanter\nwerden Kriterien wie Kontextlänge, Kostenstruktur, Verfügbarkeit, Compliance, Datenfluss – und vor allem\nIntegrationsfähigkeit. Damit verschiebt sich die Differenzierung deutlich weg vom Modellkern hin zur Plattform:\nInterface, Such- und Retrieval-Komponenten, Memory, Vektordatenbanken, Governance, Transparenz und agentische Workflows.",{"type":22,"tag":47,"props":869,"children":870},{},[871],{"type":22,"tag":23,"props":872,"children":873},{},[874],{"type":27,"value":875},"„Der große Differentiator ist nicht mehr das Modell – sondern die Plattform rundherum.“",{"type":22,"tag":23,"props":877,"children":878},{},[879],{"type":27,"value":880},"Viele Funktionen, die im Alltag wie „Modellfähigkeiten“ wirken (Webrecherche, Quellenanzeige, Dokument-Retrieval,\nMemory), sind in der Praxis Plattformfunktionen. Daraus folgt: Der wahrgenommene Fortschritt entsteht zunehmend durch\nProduktisierung und Ökosystem statt durch reine Modell-Intelligenz.",{"type":22,"tag":35,"props":882,"children":884},{"id":883},"usa-vs-china-infrastruktur-wette-gegen-open-weight-strategie",[885],{"type":27,"value":886},"USA vs. China: Infrastruktur-Wette gegen Open-Weight-Strategie",{"type":22,"tag":23,"props":888,"children":889},{},[890],{"type":27,"value":891},"Ein zweites Leitmotiv 2025 ist die Rivalität zwischen USA und China – sichtbar über zwei kontrastierende Strategien.\nIn den USA dominieren enorme Infrastrukturinvestitionen: Rechenzentren, Training und Inferenz, mit der Wette, dass mehr\nCompute zu besserer Marktposition führt. China setzt stärker auf Open Weights: Modelle und Forschung werden breit\nverfügbar gemacht, wodurch Innovation in der Breite beschleunigt und Preis- bzw. Effizienzdruck erzeugt wird.",{"type":22,"tag":47,"props":893,"children":894},{},[895],{"type":22,"tag":23,"props":896,"children":897},{},[898],{"type":27,"value":899},"„Intelligenz wird günstiger – nicht zwingend, weil alles billiger wird, sondern weil Leistung pro Dollar stark steigt.“",{"type":22,"tag":23,"props":901,"children":902},{},[903],{"type":27,"value":904},"Diese Dynamik senkt Kosten für alle Marktteilnehmer, beschleunigt Open-Source-Ökosysteme und verschiebt zugleich\nwissenschaftlichen Einfluss. Für Unternehmen bedeutet das: Optionen werden vielfältiger, und Architekturentscheidungen\ngewinnen gegenüber Anbieterloyalität.",{"type":22,"tag":35,"props":906,"children":908},{"id":907},"_2025-versprechen-werden-technisch-eingelöst-und-erzeugen-ai-slop",[909],{"type":27,"value":910},"2025: Versprechen werden technisch eingelöst – und erzeugen „AI Slop“",{"type":22,"tag":23,"props":912,"children":913},{},[914],{"type":27,"value":915},"In mehreren Modalitäten wirkt 2025 wie ein Reifejahr: Textintelligenz, große Kontexte, Bildgenerierung und zunehmend\nVideo liefern Ergebnisse, die in vielen Fällen kaum noch an klaren technischen Grenzen scheitern. Gleichzeitig steigt\ndie Menge generierter Inhalte schneller als deren Qualität. Daraus entsteht „AI Slop“: Inhalte, die ohne Sorgfalt\nproduziert und ohne Kontrolle veröffentlicht werden – mit Risiko von Feedback-Loops, in denen KI wiederum KI-Inhalte\nals scheinbar legitime Quellen referenziert.",{"type":22,"tag":47,"props":917,"children":918},{},[919],{"type":22,"tag":23,"props":920,"children":921},{},[922],{"type":27,"value":923},"„Die Gedanken gehören Menschen – die Arbeit kann die KI machen.“",{"type":22,"tag":23,"props":925,"children":926},{},[927],{"type":27,"value":928},"Der gleiche Mechanismus zeigt sich im Code: Die Engstelle verschiebt sich vom Schreiben hin zum Prüfen, Absichern\nund Einordnen. Wenn sehr viel Code sehr schnell entsteht, wächst das Risiko ungeprüfter Übernahmen und Sicherheitslücken\n– selbst dann, wenn die Basistechnologie beeindruckend ist.",{"type":22,"tag":35,"props":930,"children":932},{"id":931},"ausblick-2026-ki-arbeit-entsteht-durch-prozesswandel-nicht-durch-das-nächste-modell",[933],{"type":27,"value":934},"Ausblick 2026: KI-Arbeit entsteht durch Prozesswandel, nicht durch das nächste Modell",{"type":22,"tag":23,"props":936,"children":937},{},[938],{"type":27,"value":939},"Für 2026 zeichnet sich weniger eine „neue Modellmagie“ ab, sondern eine Umsetzungsfrage: Die Fähigkeiten sind da –\nentscheidend wird, ob Unternehmen bereit sind, Arbeitsweisen und Prozesse anzupassen. Erfahrungen aus der\nSoftwareentwicklung zeigen ein typisches Muster: In der frühen Einführung entsteht zunächst ein Produktivitätstal\n(Toolwahl, neue Workflows, neue Rollen), bevor bei konsequenter Anpassung deutliche Beschleunigung möglich wird.",{"type":22,"tag":23,"props":941,"children":942},{},[943],{"type":27,"value":944},"Wesentlich ist dabei eine Verschiebung der Rolle: weniger „Code schreiben“ bzw. „Output erzeugen“, mehr „Requirements\npräzisieren“, „Kontext bereitstellen“, „Ergebnisse reviewen“ und „Systeme so strukturieren, dass Agenten zuverlässig\narbeiten können“.",{"type":22,"tag":35,"props":946,"children":948},{"id":947},"_2026-als-jahr-der-integration",[949],{"type":27,"value":950},"2026 als Jahr der Integration",{"type":22,"tag":23,"props":952,"children":953},{},[954],{"type":27,"value":955},"Im Privaten wirkt KI oft reibungslos, weil Nutzer bereits in integrierten Ökosystemen arbeiten. In Unternehmen ist\ndas selten so: CRM, ERP, Datenbanken, Fachapplikationen, Legacy-Systeme und individuelle Prozesslandschaften lassen\nsich nicht einfach in ein Anbieter-Ökosystem überführen. Deshalb wird Integration zur Kernbedingung dafür, dass KI im\nBusiness wirklich Wert schöpft.",{"type":22,"tag":23,"props":957,"children":958},{},[959],{"type":27,"value":960},"Ohne Integration bleibt KI ein „Chatfenster neben der Realität“. Mit Integration wird sie Bestandteil von Abläufen:\nDatenzugriff, Toolzugriff, Berechtigungen, Auditierbarkeit, Freigaben und nachvollziehbare Zwischenschritte.",{"type":22,"tag":35,"props":962,"children":964},{"id":963},"mcp-als-standard-verbindung-von-ki-plattformen-und-business-tools",[965],{"type":27,"value":966},"MCP als Standard: Verbindung von KI-Plattformen und Business-Tools",{"type":22,"tag":23,"props":968,"children":969},{},[970],{"type":27,"value":971},"Das Model Context Protocol (MCP) etabliert sich als Mechanismus, um KI-Clients (Plattformen, IDEs, Interfaces) mit\nMCP-Servern (Tools, Datenquellen, Business-Systemen) zu verbinden. Der Unterschied zu klassischen APIs liegt nicht in\nder Existenz einer Schnittstelle, sondern darin, dass die Schnittstelle agentisch gedacht ist: Fähigkeiten sind für\nModelle beschreibbar und nutzbar, inklusive Interaktionsmustern wie Rückfragen oder Human-in-the-Loop.",{"type":22,"tag":47,"props":973,"children":974},{},[975],{"type":22,"tag":23,"props":976,"children":977},{},[978],{"type":27,"value":979},"„Nicht jede Organisation muss die Oberfläche bauen – eine Organisation kann auch nur als MCP-Server Wert liefern.“",{"type":22,"tag":23,"props":981,"children":982},{},[983],{"type":27,"value":984},"Das verändert auch Business-Modelle: Wertschöpfung kann entstehen, indem Fähigkeiten so angeboten werden, dass Nutzer\nsie aus ihrer bevorzugten KI-Plattform heraus konsumieren – statt Nutzer zwingend in eine eigene UI zu ziehen.",{"type":22,"tag":35,"props":986,"children":988},{"id":987},"_2026-als-jahr-des-logins-lock-in-entsteht-dort-wo-investiert-wird",[989],{"type":27,"value":990},"2026 als Jahr des Logins: Lock-in entsteht dort, wo investiert wird",{"type":22,"tag":23,"props":992,"children":993},{},[994],{"type":27,"value":995},"Weil Modelle austauschbarer werden, verlagert sich Lock-in auf Plattform- und Umsetzungsebene: Chat-History, Memory,\nAudit Logs – und vor allem die Investitionen in Datenprojekte, kuratierte Wissensbestände, Agenten-Workflows, Governance\nund Integrationen. Je mehr in einer Plattform „gebaut“ wird, desto höher werden die Wechselkosten.",{"type":22,"tag":23,"props":997,"children":998},{},[999],{"type":27,"value":1000},"Der größte Lock-in entsteht nicht durch das Modell, sondern durch die eigene Arbeit, die in Plattform- und\nProzessstrukturen gegossen wurde.",{"type":22,"tag":35,"props":1002,"children":1004},{"id":1003},"souveränität-auf-drei-ebenen-rechenzentrum-plattform-business-integration",[1005],{"type":27,"value":1006},"Souveränität auf drei Ebenen: Rechenzentrum, Plattform, Business-Integration",{"type":22,"tag":23,"props":1008,"children":1009},{},[1010],{"type":27,"value":1011},"Souveränität lässt sich nicht auf Hosting reduzieren. Relevante Entscheidungen betreffen mindestens drei Ebenen:",{"type":22,"tag":1013,"props":1014,"children":1015},"ol",{},[1016,1028,1038],{"type":22,"tag":1017,"props":1018,"children":1019},"li",{},[1020,1026],{"type":22,"tag":1021,"props":1022,"children":1023},"strong",{},[1024],{"type":27,"value":1025},"Rechenzentrum \u002F Betrieb:",{"type":27,"value":1027}," Wo laufen Modelle, wo liegen Daten physisch und rechtlich?",{"type":22,"tag":1017,"props":1029,"children":1030},{},[1031,1036],{"type":22,"tag":1021,"props":1032,"children":1033},{},[1034],{"type":27,"value":1035},"KI-Plattform:",{"type":27,"value":1037}," Wer kontrolliert Memory, Audit Logs, Governance, Agentik und Erweiterbarkeit?",{"type":22,"tag":1017,"props":1039,"children":1040},{},[1041,1046],{"type":22,"tag":1021,"props":1042,"children":1043},{},[1044],{"type":27,"value":1045},"Business-Integration:",{"type":27,"value":1047}," Welche Systeme sind angebunden, welche Datenflüsse entstehen, wie kontrollierbar sind sie?",{"type":22,"tag":23,"props":1049,"children":1050},{},[1051],{"type":27,"value":1052},"Open-Source-Optionen und lokale Anbieter können auf allen Ebenen eine Rolle spielen – entscheidend ist, dass die\nAnforderungen (Datenschutz, Branchenregeln, Betriebsmodell, Transparenz, Erweiterbarkeit) explizit gemacht und über\nalle Ebenen konsistent umgesetzt werden.",{"type":22,"tag":35,"props":1054,"children":1056},{"id":1055},"einordnende-schlusslinie-für-2026",[1057],{"type":27,"value":1058},"Einordnende Schlusslinie für 2026",{"type":22,"tag":23,"props":1060,"children":1061},{},[1062],{"type":27,"value":1063},"2026 wird weniger durch den „nächsten Modellknall“ spannend, sondern durch Umsetzung: Integration, saubere Datenarbeit,\nagentische Workflows mit Governance und die Bereitschaft, Prozesse und Rollenbilder anzupassen. Die Technologie liefert\ndie Bausteine – Wert entsteht dort, wo sie in der Systemlandschaft und im Alltag verankert wird.",{"type":22,"tag":47,"props":1065,"children":1066},{},[1067],{"type":22,"tag":23,"props":1068,"children":1069},{},[1070],{"type":27,"value":1071},"„Nicht blenden lassen: Die Gedanken gehören Menschen – die Arbeit kann die KI machen.“",{"title":7,"searchDepth":274,"depth":274,"links":1073},[1074],{"id":821,"depth":274,"text":824,"children":1075},[1076,1077,1078,1079,1080,1081,1082,1083,1084,1085],{"id":835,"depth":277,"text":838},{"id":859,"depth":277,"text":862},{"id":883,"depth":277,"text":886},{"id":907,"depth":277,"text":910},{"id":931,"depth":277,"text":934},{"id":947,"depth":277,"text":950},{"id":963,"depth":277,"text":966},{"id":987,"depth":277,"text":990},{"id":1003,"depth":277,"text":1006},{"id":1055,"depth":277,"text":1058},"content:presentations:webinar_ai_in_2026.md","presentations\u002Fwebinar_ai_in_2026.md","presentations\u002Fwebinar_ai_in_2026",{"_path":1090,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":1091,"description":1092,"eventName":1093,"subtitle":1094,"logo":1095,"eventDate":1096,"eventDuration":1097,"audience":1098,"views":1099,"videoId":1100,"body":1101,"_type":286,"_id":1311,"_source":288,"_file":1312,"_stem":1313,"_extension":291},"\u002Fpresentations\u002Fwebinar_ai_infra","Webinar: Robustes KI-Grundgerüst","Im Webinar steht KI-Infrastruktur als gemeinsamer Unterbau im Mittelpunkt, auf dem mehrere KI-Anwendungen im \nUnternehmen aufsetzen können. Behandelt werden zentrale Komponenten wie LLM-Gateways zur austauschbaren Modellnutzung \nsowie Mechanismen zur Kosten- und Zugriffskontrolle bei tokenbasierten Services. Ein weiterer Schwerpunkt ist der \nZugriff auf Unternehmenswissen über RAG, Vektordatenbanken und Ingestion-Pipelines zur laufenden Aktualisierung von \nDokumenten. Zur Absicherung von Qualität werden Evaluationsansätze vorgestellt, die Modellwechsel und Änderungen \nmessbar machen. Ergänzend geht es um Observability und Datenschutz, einschliesslich Nachvollziehbarkeit von \nVerarbeitungsschritten und PII-Erkennung vor dem Versand an externe Modelle.\n","bbv KI Webinar - Robustes KI-Grundgerüst","Plattform-Ansatz für langfristigen Unternehmenserfolg","\u002Fimages\u002Fpresentations\u002Fwebinar8\u002Fai_infra_1.png","2025-11-20","51 Min.","ca. 30 Teilnehmende",67,"UKnhaiKy1_w",{"type":19,"children":1102,"toc":1299},[1103,1108,1111,1117,1122,1130,1135,1141,1146,1154,1159,1165,1170,1176,1181,1186,1192,1197,1202,1216,1222,1227,1232,1238,1243,1248,1254,1259,1267,1272,1278,1283,1289,1294],{"type":22,"tag":23,"props":1104,"children":1105},{},[1106],{"type":27,"value":1107},"Im Rahmen der BBV-Webinarreihe zur Künstlichen Intelligenz steht diese Folge vom 20. November 2025\nim Zeichen der KI-Infrastruktur als Grundlage moderner Anwendungen. Moderiert wird die Veranstaltung von Emre;\nich ergänze die Diskussion mit Einblicken aus der Praxis, welche Bausteine Unternehmen für einen stabilen und\nskalierbaren KI-Betrieb benötigen. Im Fokus stehen dabei weniger einzelne KI-Use-Cases als vielmehr die\nwiederverwendbaren Plattform-Komponenten, die Modellwechsel, Kostensteuerung, Datenanbindung, Qualitätssicherung\nund Nachvollziehbarkeit ermöglichen. Ziel ist eine nüchterne Einordnung, wie KI-Infrastruktur als organisatorischer\nund technischer Unterbau langfristig tragfähige KI-Lösungen unterstützt.",{"type":22,"tag":30,"props":1109,"children":1110},{":video-id":32},[],{"type":22,"tag":35,"props":1112,"children":1114},{"id":1113},"ki-infrastruktur-als-grundlage-für-skalierbare-anwendungen",[1115],{"type":27,"value":1116},"KI-Infrastruktur als Grundlage für skalierbare Anwendungen",{"type":22,"tag":23,"props":1118,"children":1119},{},[1120],{"type":27,"value":1121},"Wenn in Projekten der Begriff „KI-Infrastruktur“ fällt, denken viele zuerst an GPU-Cluster, Rechenpower und Cloud.\nIn der Praxis liegt der Engpass aber oft woanders: KI wird erst dann nachhaltig nutzbar, wenn es einen\nuse-case-übergreifenden Unterbau gibt, der wiederkehrende Anforderungen zentral löst – unabhängig davon, ob am Ende\nein Chatbot, ein Assistenzsystem oder ein Hintergrund-Agent entsteht.",{"type":22,"tag":47,"props":1123,"children":1124},{},[1125],{"type":22,"tag":23,"props":1126,"children":1127},{},[1128],{"type":27,"value":1129},"„Heute geht’s um die Herdplatte, den Backofen und so Zeug.“",{"type":22,"tag":23,"props":1131,"children":1132},{},[1133],{"type":27,"value":1134},"Infrastruktur meint dabei nicht das Endprodukt, sondern die Basis, auf der mehrere KI-Anwendungen zuverlässig aufsetzen\nkönnen. Im Blueprint liegt unten die KI-Infrastruktur als Fundament, oben entstehen verschiedene Use Cases, die sich\ndiese Basis teilen.",{"type":22,"tag":35,"props":1136,"children":1138},{"id":1137},"modelle-zentral-austauschbar-machen",[1139],{"type":27,"value":1140},"Modelle zentral austauschbar machen",{"type":22,"tag":23,"props":1142,"children":1143},{},[1144],{"type":27,"value":1145},"Eine häufige Anforderung aus Unternehmen: Modelle müssen schnell und zentral austauschbar sein. Gründe sind Vendor\nLock-in, unterschiedliche Modellgrössen (Kosten vs. Qualität), Datenschutzanforderungen (z. B. Standort\u002FJurisdiktion)\nund die schnelle Entwicklung neuer Modellgenerationen.",{"type":22,"tag":47,"props":1147,"children":1148},{},[1149],{"type":22,"tag":23,"props":1150,"children":1151},{},[1152],{"type":27,"value":1153},"„Es kommen ja neue Modelle im Monatsrhythmus … da möchte man natürlich einen raschen Wechsel ermöglichen.“",{"type":22,"tag":23,"props":1155,"children":1156},{},[1157],{"type":27,"value":1158},"Technisch ist der Wechsel innerhalb vergleichbarer Modelltypen oft machbar, aber das Verhalten kann sich ändern.\nDeshalb braucht es eine Infrastruktur, die Modellwechsel als kontrollierbaren Betriebsvorgang ermöglicht.",{"type":22,"tag":35,"props":1160,"children":1162},{"id":1161},"lm-proxies-und-gateways",[1163],{"type":27,"value":1164},"LM Proxies und Gateways",{"type":22,"tag":23,"props":1166,"children":1167},{},[1168],{"type":27,"value":1169},"Hier kommen LLM Proxies \u002F LLM Gateways ins Spiel: Use Cases sprechen nicht direkt konkrete Anbieter-Modelle an,\nsondern stabile interne Endpunkte wie „thinking-large“ oder „embedding-small“. Im Gateway wird gemappt, welches\nModell dahinter hängt. So kann man zentral umschalten, ohne in jedem Use Case Code anzupassen – eine Adapter-Schicht\nzwischen Anwendung und Modell.",{"type":22,"tag":35,"props":1171,"children":1173},{"id":1172},"kosten-planbar-und-überwachbar-halten",[1174],{"type":27,"value":1175},"Kosten planbar und überwachbar halten",{"type":22,"tag":23,"props":1177,"children":1178},{},[1179],{"type":27,"value":1180},"Bei „LLM as a Service“ sind Kosten meist tokenbasiert und damit dynamisch: abhängig von Anfragevolumen, Textlängen,\nTool-Aufrufen und Agenten-Schritten. Unternehmen wollen deshalb Budgets setzen, Kosten pro Team\u002FKey\u002FModell sehen und\nMissbrauch verhindern (z. B. bei extern zugänglichen Bots).",{"type":22,"tag":23,"props":1182,"children":1183},{},[1184],{"type":27,"value":1185},"Weil Anfragen über das Gateway laufen, kann es Tokenverbrauch und Kosten messen, aufschlüsseln und begrenzen (Limits,\nRate Limits, Alerts). Häufig hängt daran auch zentrales Access Management: API-Keys, Rollen, Benutzergruppen und\nPolicies.",{"type":22,"tag":35,"props":1187,"children":1189},{"id":1188},"unternehmenswissen-per-rag-integrieren",[1190],{"type":27,"value":1191},"Unternehmenswissen per RAG integrieren",{"type":22,"tag":23,"props":1193,"children":1194},{},[1195],{"type":27,"value":1196},"Sprachmodelle kennen öffentliches Trainingswissen, aber nicht das aktuelle interne Wissen eines Unternehmens. Um\ndieses Wissen nutzbar zu machen, wird typischerweise Retrieval Augmented Generation (RAG) eingesetzt: Dokumente werden\nin Abschnitte zerlegt, semantisch indexiert und bei einer Anfrage werden relevante Textstellen gesucht und dem Modell\nim Kontext übergeben.",{"type":22,"tag":23,"props":1198,"children":1199},{},[1200],{"type":27,"value":1201},"Dazu braucht es vor allem:",{"type":22,"tag":1203,"props":1204,"children":1205},"ul",{},[1206,1211],{"type":22,"tag":1017,"props":1207,"children":1208},{},[1209],{"type":27,"value":1210},"Embedding-Modelle zur Vektorisierung",{"type":22,"tag":1017,"props":1212,"children":1213},{},[1214],{"type":27,"value":1215},"Vektordatenbanken für die semantische Suche",{"type":22,"tag":35,"props":1217,"children":1219},{"id":1218},"ingestion-daten-aktuell-halten",[1220],{"type":27,"value":1221},"Ingestion: Daten aktuell halten",{"type":22,"tag":23,"props":1223,"children":1224},{},[1225],{"type":27,"value":1226},"RAG funktioniert nur, wenn Daten aktuell und kontrolliert sind. Dokumente ändern sich, müssen gelöscht werden\n(Compliance), oder veraltete Versionen sollen nicht mehr auftauchen. Daher gehört eine Ingestion-Pipeline zur\nInfrastruktur: Sie überwacht Datenquellen (z. B. SharePoint, Confluence, Fileshares), erkennt Änderungen und\naktualisiert die Vektordatenbank.",{"type":22,"tag":23,"props":1228,"children":1229},{},[1230],{"type":27,"value":1231},"Ein praktischer Punkt: schlecht gepflegte Versionierung („v1\u002Fv2\u002Fv3“ parallel) führt zu Duplikaten und verschwendet\nKontext. Besser ist, alte Versionen zu archivieren und nur aktuelle Quellen zu indexieren.",{"type":22,"tag":35,"props":1233,"children":1235},{"id":1234},"qualität-absichern-evaluation-statt-blindflug",[1236],{"type":27,"value":1237},"Qualität absichern: Evaluation statt Blindflug",{"type":22,"tag":23,"props":1239,"children":1240},{},[1241],{"type":27,"value":1242},"Wenn Modelle zentral austauschbar sind und Systeme sich ändern, wird Evaluation zentral: Wie erkennt man, ob ein\nModellwechsel, Prompt-Update oder neue Datenpipeline die Qualität verbessert oder verschlechtert?",{"type":22,"tag":23,"props":1244,"children":1245},{},[1246],{"type":27,"value":1247},"Typisch ist ein Evaluations-Setup mit Testfragen, Referenzantworten (und bei RAG optional erwarteten Quellen) sowie\nMetriken wie Korrektheit, Vollständigkeit und Prägnanz. Zur Skalierung wird häufig LLM-as-a-Judge genutzt, um\nBewertungen automatisiert zu erzeugen. Idealerweise passiert Evaluation vor einem Umschalten (Vergleich alt vs. neu)\nund kontinuierlich im Betrieb.",{"type":22,"tag":35,"props":1249,"children":1251},{"id":1250},"nachvollziehbarkeit-durch-observability",[1252],{"type":27,"value":1253},"Nachvollziehbarkeit durch Observability",{"type":22,"tag":23,"props":1255,"children":1256},{},[1257],{"type":27,"value":1258},"KI-Systeme bestehen aus mehreren Verarbeitungsschritten: Kontextaufbau, Query-Rewriting, Retrieval, Guardrails,\nTool-Aufrufe, Postprocessing. Wenn etwas schief läuft, ist entscheidend, welcher Schritt das Ergebnis beeinflusst hat.",{"type":22,"tag":47,"props":1260,"children":1261},{},[1262],{"type":22,"tag":23,"props":1263,"children":1264},{},[1265],{"type":27,"value":1266},"„Jeder Schritt … sollte nachvollziehbar sein.“",{"type":22,"tag":23,"props":1268,"children":1269},{},[1270],{"type":27,"value":1271},"Dafür nutzt man Logs und Traces (z. B. OpenTelemetry, OpenInference) und passende Observability-Tools, die Requests\nals Ablauf visualisieren. Das ist sowohl für Debugging als auch für Betrieb und Governance relevant.",{"type":22,"tag":35,"props":1273,"children":1275},{"id":1274},"datenschutz-pii-schutz-als-letzte-schranke",[1276],{"type":27,"value":1277},"Datenschutz: PII-Schutz als letzte Schranke",{"type":22,"tag":23,"props":1279,"children":1280},{},[1281],{"type":27,"value":1282},"Bei externen Modell-Services entsteht das Risiko, dass Anfragen beim Anbieter zumindest temporär gespeichert oder\nausserhalb der gewünschten Jurisdiktion verarbeitet werden. Deshalb wird oft eine PII Detection als letzter Schritt\nvor dem Modell eingesetzt: personenbezogene Daten (Name, E-Mail, IBAN etc.) werden ersetzt oder die Anfrage wird\nblockiert. Zentral im Gateway umgesetzt gilt das automatisch für alle Use Cases.",{"type":22,"tag":35,"props":1284,"children":1286},{"id":1285},"plattform-ansatz-statt-einzellösungen",[1287],{"type":27,"value":1288},"Plattform-Ansatz statt Einzellösungen",{"type":22,"tag":23,"props":1290,"children":1291},{},[1292],{"type":27,"value":1293},"Der gemeinsame Nenner: Viele Anforderungen wiederholen sich über alle KI-Anwendungen hinweg. Wenn jede Anwendung sie\nseparat löst, entstehen Inkonsistenzen bei Modellzugriff, Kostensteuerung, Datenanbindung, Qualitätsmessung und\nObservability. Der Plattform-Ansatz bündelt diese Themen als Infrastruktur-Bausteine, damit neue Use Cases schneller\nentstehen und konsistent betrieben werden können.",{"type":22,"tag":23,"props":1295,"children":1296},{},[1297],{"type":27,"value":1298},"In diesem Rahmen ordne ich auch den bbv AI Hub ein: als „opinionated“ Zusammenstellung von Modulen (z. B. Gateway,\nRAG-Stack, Ingestion, Evaluation, Observability, PII-Protection) plus Integrationen, die in Projekten immer wieder\ngebraucht werden – nicht als einzelnes Feature, sondern als stabiler Unterbau für mehrere KI-Lösungen.",{"title":7,"searchDepth":274,"depth":274,"links":1300},[1301,1302,1303,1304,1305,1306,1307,1308,1309,1310],{"id":1113,"depth":277,"text":1116},{"id":1137,"depth":277,"text":1140},{"id":1161,"depth":277,"text":1164},{"id":1172,"depth":277,"text":1175},{"id":1188,"depth":277,"text":1191},{"id":1218,"depth":277,"text":1221},{"id":1234,"depth":277,"text":1237},{"id":1250,"depth":277,"text":1253},{"id":1274,"depth":277,"text":1277},{"id":1285,"depth":277,"text":1288},"content:presentations:webinar_ai_infra.md","presentations\u002Fwebinar_ai_infra.md","presentations\u002Fwebinar_ai_infra",{"_path":1315,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":1316,"description":9,"eventName":1317,"subtitle":1318,"logo":1319,"eventDate":1320,"eventDuration":1321,"audience":1322,"views":1323,"videoId":1324,"body":1325,"_type":286,"_id":1497,"_source":288,"_file":1498,"_stem":1499,"_extension":291},"\u002Fpresentations\u002Fwebinar_ki_als_entwicklungspartner","Webinar: KI als Entwicklungspartner","bbv KI Webinar - KI als Entwicklungspartner","Tools, Techniken und Team-Integration","\u002Fimages\u002Fpresentations\u002Fwebinar7\u002Fai_in_software_1.png","2025-04-23","43 Min.","ca. 50 Teilnehmende",292,"CCc3SREchJE",{"type":19,"children":1326,"toc":1489},[1327,1332,1335,1341,1346,1354,1359,1365,1370,1375,1383,1388,1396,1402,1407,1412,1420,1425,1431,1436,1441,1449,1454,1460,1465,1470,1478,1484],{"type":22,"tag":23,"props":1328,"children":1329},{},[1330],{"type":27,"value":1331},"Am 23. April 2025 veranstaltet die BBV eine weitere Folge ihrer Webinarreihe zur Künstlichen Intelligenz, diesmal mit\nFokus auf Softwareentwicklung. Ich moderiere die Session und führe durch praxisnahe Einblicke aus dem BBV AI Hub.\nGemeinsam mit meinen Kollegen Thomas Mannhart, Michèle Fundneider, Noah Hermann und Joel Barmettler beleuchten wir,\nwie KI entlang des Entwicklungsprozesses eingesetzt wird – von der Anforderungsanalyse über das Coding bis hin zu\nTesting, Reviews und Architekturentscheidungen. Ziel ist ein nüchterner, anwendungsorientierter Blick darauf,\nwelche Methoden und Arbeitsweisen sich im Alltag bewähren und wo bewusstes Kontext- und Qualitätsmanagement\nentscheidend bleibt.",{"type":22,"tag":30,"props":1333,"children":1334},{":video-id":32},[],{"type":22,"tag":35,"props":1336,"children":1338},{"id":1337},"ki-im-entwicklungsprozess-praxisnahe-erfahrungen-aus-dem-bbv-ai-hub",[1339],{"type":27,"value":1340},"KI im Entwicklungsprozess: praxisnahe Erfahrungen aus dem BBV AI Hub",{"type":22,"tag":23,"props":1342,"children":1343},{},[1344],{"type":27,"value":1345},"KI ist im Alltag der Softwareentwicklung angekommen. Im BBV AI Hub zeigt sich besonders deutlich, wie stark sich\nArbeitsweisen verändern, wenn Sprachmodelle nicht nur einzelne Fragen beantworten, sondern beim Strukturieren,\nFormulieren, Prüfen und Verstehen von Entwicklungsartefakten mitarbeiten. Ziel ist dabei kein Tool-Vergleich,\nsondern ein praxisnaher Blick auf Methoden und Strategien, die sich im Entwicklungsprozess bewähren – von der\nAnforderungsanalyse über Codeentwicklung bis hin zu Testing und Review. Die Inhalte richten sich an technisch\nversierte Personen, die Softwareentwicklungsprozesse bereits kennen, unabhängig davon, ob sie mit KI gerade erst\nstarten oder bereits Erfahrung mitbringen.",{"type":22,"tag":47,"props":1347,"children":1348},{},[1349],{"type":22,"tag":23,"props":1350,"children":1351},{},[1352],{"type":27,"value":1353},"“Unser Ziel heute ist es, praxisnahe Einblicke in die Möglichkeiten und Herausforderungen\nder Integration von KI in den Entwicklungsprozess zu geben.”",{"type":22,"tag":23,"props":1355,"children":1356},{},[1357],{"type":27,"value":1358},"Im Webinar kommen mehrere Rollen aus dem Team zu Wort, um unterschiedliche Perspektiven sichtbar zu machen:\nAnforderungen aus Workshops verdichten, KI für Coding produktiv nutzen, schneller in neue Codebases und Konzepte\nfinden und als Architekt den Überblick über Tools, Frameworks und Systementscheidungen behalten. Ein roter Faden zieht\nsich durch alle Beiträge: KI entfaltet den grössten Nutzen dort, wo Kontext sauber geführt wird und Ergebnisse\nüberprüfbar bleiben.",{"type":22,"tag":35,"props":1360,"children":1362},{"id":1361},"von-workshop-ergebnissen-zu-requirements-unstrukturierte-daten-schnell-nutzbar-machen",[1363],{"type":27,"value":1364},"Von Workshop-Ergebnissen zu Requirements: unstrukturierte Daten schnell nutzbar machen",{"type":22,"tag":23,"props":1366,"children":1367},{},[1368],{"type":27,"value":1369},"Workshops erzeugen oft viele Artefakte: Notizen, Skizzen, Post-its, Flipcharts, Mockups. Der Engpass liegt weniger in\nfehlenden Informationen als in deren Aufbereitung: Was wurde entschieden, wie lässt sich das strukturiert an Team und\nKunden zurückspielen, und wie entstehen daraus umsetzbare Anforderungen? Thomas beschreibt einen Workflow, der hier\nstark entlastet.",{"type":22,"tag":23,"props":1371,"children":1372},{},[1373],{"type":27,"value":1374},"Ein wichtiger Schritt ist, Inhalte direkt nach dem Workshop per Speech-to-Text festzuhalten. Statt später mühsam aus\ndem Gedächtnis zu rekonstruieren, entsteht früh eine Rohfassung – bewusst unstrukturiert, aber vollständig. Diese\nRohfassung wird danach durch Assistenten in eine strukturierte Form gebracht, etwa als Epics und Requirements inklusive\nAkzeptanzkriterien. Zusätzlich können Fotos von Post-its oder Plakaten als Kontext dienen: Modelle extrahieren Inhalte\naus Bildern, clustern sie und liefern Zusammenfassungen, die sich wiederum für Requirements, Projektlogs oder\nDokumentation verwenden lassen.",{"type":22,"tag":47,"props":1376,"children":1377},{},[1378],{"type":22,"tag":23,"props":1379,"children":1380},{},[1381],{"type":27,"value":1382},"“Ich diktiere einfach mal alles, was mir über diesen Workshop einfällt – und habe es somit in einer unstrukturierten\nForm schon einmal gespeichert.”",{"type":22,"tag":23,"props":1384,"children":1385},{},[1386],{"type":27,"value":1387},"Zur Zuverlässigkeit gehört ein realistischer Blick: Für kleinere, klar abgegrenzte Features funktioniert die\nautomatische Erstellung besonders gut, bei grösserem Scope steigt der Nachbearbeitungsbedarf. Praktisch ist, dass KI\nnicht nur “generiert”, sondern auch beim Prüfen hilft: Vorschläge für nicht-funktionale Requirements, Hinweise auf\nLücken, Widersprüche oder zu vage Formulierungen.",{"type":22,"tag":47,"props":1389,"children":1390},{},[1391],{"type":22,"tag":23,"props":1392,"children":1393},{},[1394],{"type":27,"value":1395},"“Hey, fällt dir noch etwas auf? Ist etwas widersprüchlich? Ist etwas zu schwammig?”",{"type":22,"tag":35,"props":1397,"children":1399},{"id":1398},"ki-beim-coding-kontext-bewusst-wählen-statt-alles-reinschütten",[1400],{"type":27,"value":1401},"KI beim Coding: Kontext bewusst wählen statt “alles reinschütten”",{"type":22,"tag":23,"props":1403,"children":1404},{},[1405],{"type":27,"value":1406},"Michelle nutzt KI breit im Engineering-Alltag: Code generieren, refactoren, Tests schreiben, Ideen validieren –\nsowohl über IDE-nahe Tools (z.B. Copilot) als auch über Chat-Interfaces. Die grösste Herausforderung ist weniger das\nModell selbst als das Kontextmanagement. Zwei Extreme treten immer wieder auf: zu viel Kontext (unspezifisch, unklar,\nwoher Aussagen stammen) und zu wenig Kontext (generische Vorschläge, die nicht zu Guidelines, Sprache oder\nArchitektur passen).",{"type":22,"tag":23,"props":1408,"children":1409},{},[1410],{"type":27,"value":1411},"Der praktikable Ausweg ist bewusstes, oft manuelles Kontextmanagement: relevante Codeschnitte gezielt auswählen, Ziel\nund Randbedingungen klar formulieren, Beispiele mitgeben – und bei Themenwechsel konsequent neue Chats starten.\nZusätzlich lohnt es sich, wiederkehrende Projektinfos in spezialisierten Assistenten zu bündeln (Guidelines,\nAusgabeformate, typische Constraints), um nicht bei jeder Aufgabe von vorn beginnen zu müssen.",{"type":22,"tag":47,"props":1413,"children":1414},{},[1415],{"type":22,"tag":23,"props":1416,"children":1417},{},[1418],{"type":27,"value":1419},"“Klarheit statt Datenflut – lieber weniger, aber sauber erklärter Kontext.”",{"type":22,"tag":23,"props":1421,"children":1422},{},[1423],{"type":27,"value":1424},"Auch die Websuche in KI-Tools wird eher gezielt eingesetzt: standardmässig deaktiviert, um den Kontext kontrollierbar\nzu halten, und nur dann aktiviert, wenn Aktualität wirklich nötig ist (z.B. Library-Bugs, neue Releases). Das folgt\ndem gleichen Prinzip: Kontext bewusst öffnen, nicht zufällig erweitern.",{"type":22,"tag":35,"props":1426,"children":1428},{"id":1427},"einarbeitung-lernen-und-reviews-ki-als-navigator-und-vorab-check",[1429],{"type":27,"value":1430},"Einarbeitung, Lernen und Reviews: KI als Navigator und Vorab-Check",{"type":22,"tag":23,"props":1432,"children":1433},{},[1434],{"type":27,"value":1435},"Aus Sicht eines Juniors (Noah) ist KI besonders hilfreich beim Einstieg in grosse Codebases. Wenn man noch nicht\nweiss, wo etwas implementiert ist, kann KI helfen, abstrakte Fragen (“Wie machen wir Persistenz?”) auf konkrete\nStellen im Code abzubilden. So entsteht schneller Orientierung, ohne ständig das Team zu blockieren.",{"type":22,"tag":23,"props":1437,"children":1438},{},[1439],{"type":27,"value":1440},"Für neue Konzepte, die nicht direkt in der Codebase stehen, hilft eine zweite Technik: der KI vorzugeben, wie man\nlernen möchte. Noah nutzt dafür die Metapher eines Wissensbaums (Grundlagen → Kernkonzepte → Details) und steuert das\nTempo explizit: erst weitergehen, wenn das aktuelle Konzept wirklich sitzt. Ergebnis ist ein dialogischer Lernprozess\nstatt eines überladenen “Alles-auf-einmal”-Texts.",{"type":22,"tag":47,"props":1442,"children":1443},{},[1444],{"type":22,"tag":23,"props":1445,"children":1446},{},[1447],{"type":27,"value":1448},"“Mach erst mit dem nächsten Konzept weiter, wenn ich wirklich sage, ich habe es verstanden.”",{"type":22,"tag":23,"props":1450,"children":1451},{},[1452],{"type":27,"value":1453},"Zusätzlich wird KI als Vorab-Review genutzt: Pull Requests lassen sich automatisch zusammenfassen und auf\nAuffälligkeiten prüfen (z.B. potenzielle Sicherheitsprobleme). Das ersetzt kein menschliches Review, hilft aber\nbei Triage und Vorbereitung – etwa um früh zu sehen, wie gross ein PR ist und wo die riskanten Stellen liegen.",{"type":22,"tag":35,"props":1455,"children":1457},{"id":1456},"architektur-und-tool-landschaft-vom-big-picture-zur-umsetzung",[1458],{"type":27,"value":1459},"Architektur und Tool-Landschaft: vom Big Picture zur Umsetzung",{"type":22,"tag":23,"props":1461,"children":1462},{},[1463],{"type":27,"value":1464},"Als KI-Architekt arbeitet Joel stark am Anfang von Kundenprojekten: Anforderungen, Infrastruktur, Datenschutz,\nModellwahl und die Frage, welche Probleme überhaupt mit KI gelöst werden sollen. Gleichzeitig muss die\nPlattformperspektive mitdenken, welche Tools und Standards “in sechs Monaten” relevant werden. Um Informationsfluten\nzu bewältigen, helfen Deep-Research-Workflows – entscheidend ist dabei die Quellenkontrolle. Statt breite Webrecherche\nwerden vertrauenswürdige Quellen bevorzugt (Papers, GitHub, ausgewählte Communities), um das Risiko von\nFehlinformationen zu senken.",{"type":22,"tag":23,"props":1466,"children":1467},{},[1468],{"type":27,"value":1469},"Nach der Vorselektion kommt das Eintauchen: neue Open-Source-Projekte sind oft schlecht dokumentiert, daher hilft KI\nbesonders beim Navigieren durch Codebases und beim Auffinden relevanter Implementationsstellen. Für Systemfragen kann\nein sehr grosses Kontextfenster sinnvoll sein (z.B. kondensierte Codebase, um sinnvolle Integrationspunkte zu\nidentifizieren). Für das tatsächliche Coding wird der Kontext anschliessend wieder reduziert, damit präzise Änderungen\nmöglich bleiben. Der Wechsel zwischen “viel Kontext für Überblick” und “wenig Kontext für Umsetzung” ist hier ein\nbewusstes Muster.",{"type":22,"tag":47,"props":1471,"children":1472},{},[1473],{"type":22,"tag":23,"props":1474,"children":1475},{},[1476],{"type":27,"value":1477},"“Auf jeder Stufe verwende ich andere Tools – vom Überblick bis zur spezifischen Implementation.”",{"type":22,"tag":35,"props":1479,"children":1481},{"id":1480},"modelle-benchmarks-und-datenschutz-pragmatische-leitplanken",[1482],{"type":27,"value":1483},"Modelle, Benchmarks und Datenschutz: pragmatische Leitplanken",{"type":22,"tag":23,"props":1485,"children":1486},{},[1487],{"type":27,"value":1488},"Beim Vergleich von Modellen helfen Benchmarks und Leaderboards, aber sie sind nicht unfehlbar: Modelle können auf\nBenchmarks optimiert sein. Blindtests mit Nutzerbewertungen sind robuster, dafür weniger spezifisch. Praktisch bewährt\nsich eine Mischung: grobe Einordnung über Leaderboards, dann Abgleich über Coding- oder Reasoning-Benchmarks, und am\nEnde der eigene Vergleich mit typischen Alltagsaufgaben (gleiche Frage an mehrere Modelle). Datenschutz bleibt dabei\nein Rahmen, der Toolwahl und Hosting-Optionen mitbestimmt – besonders in Kundenprojekten.",{"title":7,"searchDepth":274,"depth":274,"links":1490},[1491,1492,1493,1494,1495,1496],{"id":1337,"depth":277,"text":1340},{"id":1361,"depth":277,"text":1364},{"id":1398,"depth":277,"text":1401},{"id":1427,"depth":277,"text":1430},{"id":1456,"depth":277,"text":1459},{"id":1480,"depth":277,"text":1483},"content:presentations:webinar_ki_als_entwicklungspartner.md","presentations\u002Fwebinar_ki_als_entwicklungspartner.md","presentations\u002Fwebinar_ki_als_entwicklungspartner",{"_path":1501,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":1502,"description":1503,"eventName":1504,"subtitle":1505,"logo":1506,"eventDate":1507,"eventDuration":1508,"audience":1509,"views":1510,"videoId":1511,"body":1512,"_type":286,"_id":1688,"_source":288,"_file":1689,"_stem":1690,"_extension":291},"\u002Fpresentations\u002Fcosmos-db-conference","Orchestrating Intelligent Agents","In diesem Lightning Talk erfahren Sie, wie Azure Cosmos DB als Fundament für skalierbare Multi-Agenten-Systeme \ndient und eine nahtlose Kommunikation und Zusammenarbeit zwischen KI-Agenten ermöglicht. Lernen Sie praxisnahe \nImplementierungen von KI-Agentenprotokollen innerhalb von Azure Cosmos DB kennen.\n","Azure Cosmos DB Conference 2025","5min Lighting Talk","\u002Fimages\u002Fpresentations\u002Fcosmos_conf\u002Fcosmos_conf_1.png","2025-04-15","5 Min.","ca. 2000 live Teilnehmende",112,"D5ytOTx5CBU",{"type":19,"children":1513,"toc":1680},[1514,1519,1523,1529,1534,1542,1547,1553,1558,1566,1571,1577,1582,1590,1595,1601,1606,1614,1619,1625,1630,1638,1643,1649,1654,1662,1667,1675],{"type":22,"tag":23,"props":1515,"children":1516},{},[1517],{"type":27,"value":1518},"Im Rahmen der Azure Cosmos DB Conference 2025, organisiert von Microsoft, hatte ich die Gelegenheit,\nin einem kurzen Lightning Talk einige zentrale Erkenntnisse aus unserer Arbeit mit AI-Agenten vorzustellen.\nIn nur fünf Minuten habe ich gezeigt, wie wir ein System entwickelt haben, das es mehreren spezialisierten\nKI-Agenten erlaubt, effizient zusammenzuarbeiten – mit Hilfe von Azure Cosmos DB.",{"type":22,"tag":30,"props":1520,"children":1522},{":video-id":32,":webp":1521},"true",[],{"type":22,"tag":35,"props":1524,"children":1526},{"id":1525},"die-idee-nicht-ein-grosser-agent-sondern-viele-kleine",[1527],{"type":27,"value":1528},"Die Idee: Nicht ein grosser Agent, sondern viele kleine",{"type":22,"tag":23,"props":1530,"children":1531},{},[1532],{"type":27,"value":1533},"Seit über zwei Jahren entwickeln wir bei bbv Software Services AG in Zürich ein System, das auf der Zusammenarbeit\nmehrerer spezialisierter AI-Agenten basiert. Der zentrale Gedanke dabei: Anstatt einem generalistischen Modell\nsämtliche Aufgaben zu übertragen, teilen wir diese auf spezialisierte Agenten auf, die jeweils für einen spezifischen\nTeilaspekt zuständig sind.",{"type":22,"tag":47,"props":1535,"children":1536},{},[1537],{"type":22,"tag":23,"props":1538,"children":1539},{},[1540],{"type":27,"value":1541},"„Ein Agent mit einem spezifischen Wissen ist einfacher zu steuern, driftet weniger vom Kontext ab und ist dadurch\nwesentlich zuverlässiger.“",{"type":22,"tag":23,"props":1543,"children":1544},{},[1545],{"type":27,"value":1546},"Diese Aufteilung macht das Gesamtsystem nicht nur robuster, sondern erlaubt es auch, komplexe Aufgaben effizienter\nzu bearbeiten. Allerdings bringt die Koordination zwischen mehreren Agenten auch neue Herausforderungen mit sich.",{"type":22,"tag":35,"props":1548,"children":1550},{"id":1549},"kommunikation-unter-agenten-mehr-als-nur-text",[1551],{"type":27,"value":1552},"Kommunikation unter Agenten: Mehr als nur Text",{"type":22,"tag":23,"props":1554,"children":1555},{},[1556],{"type":27,"value":1557},"Zunächst erschien es naheliegend, die Kommunikation zwischen Agenten einfach über Text abzuwickeln – schliesslich\nsind Sprachmodelle darauf trainiert. Doch schnell zeigte sich, dass es dafür deutlich mehr Struktur braucht.",{"type":22,"tag":47,"props":1559,"children":1560},{},[1561],{"type":22,"tag":23,"props":1562,"children":1563},{},[1564],{"type":27,"value":1565},"„Ein Agent muss wissen, was die anderen Agenten leisten können – nur dann kann er sinnvoll interagieren.“",{"type":22,"tag":23,"props":1567,"children":1568},{},[1569],{"type":27,"value":1570},"Um diese Interaktion zu ermöglichen, haben wir uns unter anderem vom Model Context Protocol (MCP) inspirieren lassen,\ndas von Anthropic vorgeschlagen wurde. Dieses Protokoll unterscheidet zwischen Clients (z.B. LLMs) und Servern,\ndie bestimmte Informationen bereitstellen oder Aktionen ausführen. Diese Server stellen sogenannte Tools zur\nVerfügung – klar beschriebene Funktionen mit definierten Eingaben und erwarteten Ausgaben.",{"type":22,"tag":35,"props":1572,"children":1574},{"id":1573},"agenten-als-clients-und-server",[1575],{"type":27,"value":1576},"Agenten als Clients und Server",{"type":22,"tag":23,"props":1578,"children":1579},{},[1580],{"type":27,"value":1581},"Was das mit Agenten zu tun hat? Ganz einfach: Ein Agent kann sowohl in der Rolle des Clients als auch des\nServers agieren. Ein Beispiel aus unserem System: Ein Agent wird beauftragt, eine Wetterauskunft zu geben.\nAnstatt das Wissen selbst zu besitzen, kann er auf einen anderen Agenten zugreifen, der eine „Wetter-API“ anbietet.",{"type":22,"tag":47,"props":1583,"children":1584},{},[1585],{"type":22,"tag":23,"props":1586,"children":1587},{},[1588],{"type":27,"value":1589},"„Durch die Veröffentlichung von Tool-Definitionen werden Agenten gegenseitig zugänglich – sie lernen,\naufeinander zu bauen.“",{"type":22,"tag":23,"props":1591,"children":1592},{},[1593],{"type":27,"value":1594},"Diese Modularisierung erlaubt es, ein Netzwerk von Agenten aufzubauen, das flexibel erweiterbar ist. Doch nicht\njede Aufgabe lässt sich mit einem einzigen API-Aufruf lösen – komplexere Aufgaben erfordern Koordination und\nFortschrittsverfolgung.",{"type":22,"tag":35,"props":1596,"children":1598},{"id":1597},"aufgaben-strukturieren-runs-threads-und-zustände",[1599],{"type":27,"value":1600},"Aufgaben strukturieren: Runs, Threads und Zustände",{"type":22,"tag":23,"props":1602,"children":1603},{},[1604],{"type":27,"value":1605},"Um komplexe Abläufe strukturieren zu können, setzen wir auf Konzepte wie Runs und Threads, wie sie auch in\nLangChain beschrieben sind. Ein Thread bündelt alle Schritte eines grösseren Vorhabens (z.B. eine Urlaubsbuchung),\nwährend ein Run eine einzelne Aktion innerhalb dieses Kontexts darstellt (z.B. Flug buchen).",{"type":22,"tag":47,"props":1607,"children":1608},{},[1609],{"type":22,"tag":23,"props":1610,"children":1611},{},[1612],{"type":27,"value":1613},"„Komplexe Aufgaben erfordern ein internes Zustandsmodell – das war für uns ein zentraler Aspekt bei der\nOrchestrierung der Agenten.“",{"type":22,"tag":23,"props":1615,"children":1616},{},[1617],{"type":27,"value":1618},"Hier kommt Azure Cosmos DB ins Spiel: Wir nutzen die Datenbank, um den Zustand dieser Abläufe zuverlässig zu\nspeichern. Sowohl Runs als auch Threads werden in Cosmos DB abgelegt, ebenso wie die Tool-Definitionen unserer Agenten.",{"type":22,"tag":35,"props":1620,"children":1622},{"id":1621},"warum-cosmos-db",[1623],{"type":27,"value":1624},"Warum Cosmos DB?",{"type":22,"tag":23,"props":1626,"children":1627},{},[1628],{"type":27,"value":1629},"Cosmos DB bietet uns genau die Flexibilität und Geschwindigkeit, die wir für unser System brauchen: ein\nschemaloses Datenmodell, konsistente Latenzzeiten und globale Verfügbarkeit.",{"type":22,"tag":47,"props":1631,"children":1632},{},[1633],{"type":22,"tag":23,"props":1634,"children":1635},{},[1636],{"type":27,"value":1637},"„Die flexible Struktur und Echtzeit-Synchronisation von Cosmos DB ermöglichen es uns, Agentenzustände weltweit\naktuell zu halten.“",{"type":22,"tag":23,"props":1639,"children":1640},{},[1641],{"type":27,"value":1642},"Gerade in der heutigen dynamischen AI-Landschaft ist es entscheidend, schnell auf neue Entwicklungen reagieren\nzu können. Cosmos DB unterstützt uns dabei, neue Protokolle zu testen, Tool-Definitionen zu ändern oder die\ninterne Logik der Agenten zu verbessern – ohne aufwändige Migrationen.",{"type":22,"tag":35,"props":1644,"children":1646},{"id":1645},"agenten-jenseits-des-unternehmensgrenzens",[1647],{"type":27,"value":1648},"Agenten jenseits des Unternehmensgrenzens",{"type":22,"tag":23,"props":1650,"children":1651},{},[1652],{"type":27,"value":1653},"Zum Abschluss meines Talks habe ich den Blick etwas geweitet. Die meisten Unternehmen bauen aktuell Agenten\nnur für den internen Gebrauch. Doch ich bin überzeugt, dass die wahre Stärke in der Kooperation über\nUnternehmensgrenzen hinweg liegt.",{"type":22,"tag":47,"props":1655,"children":1656},{},[1657],{"type":22,"tag":23,"props":1658,"children":1659},{},[1660],{"type":27,"value":1661},"„Ich stelle mir eine Welt vor, in der Agenten vermietet, über APIs eingebunden, Verträge aushandeln und\ngemeinsam Projekte umsetzen.“",{"type":22,"tag":23,"props":1663,"children":1664},{},[1665],{"type":27,"value":1666},"Dafür braucht es gemeinsame Protokolle – und Systeme, die bereit sind, sich mit der Aussenwelt zu vernetzen.\nDeshalb verfolgen wir die Entwicklungen rund um Protokolle wie das Model Context Protocol genau. Mit der\njüngsten Ankündigung von OpenAI, dieses Protokoll künftig zu unterstützen, sehen wir eine klare Richtung.",{"type":22,"tag":47,"props":1668,"children":1669},{},[1670],{"type":22,"tag":23,"props":1671,"children":1672},{},[1673],{"type":27,"value":1674},"„Wir passen unser System laufend an neue Standards an – mit Cosmos DB als zentrale Plattform für Agenten,\nWerkzeuge und Zustände.“",{"type":22,"tag":23,"props":1676,"children":1677},{},[1678],{"type":27,"value":1679},"Dieser Talk war für mich eine Möglichkeit, unsere Erfahrungen zu teilen – und vielleicht auch andere Entwicklerinnen\nund Entwickler zu inspirieren, ihre Agentensysteme stärker in Richtung Modularität und Kollaboration zu denken.",{"title":7,"searchDepth":274,"depth":274,"links":1681},[1682,1683,1684,1685,1686,1687],{"id":1525,"depth":277,"text":1528},{"id":1549,"depth":277,"text":1552},{"id":1573,"depth":277,"text":1576},{"id":1597,"depth":277,"text":1600},{"id":1621,"depth":277,"text":1624},{"id":1645,"depth":277,"text":1648},"content:presentations:cosmos-db-conference.md","presentations\u002Fcosmos-db-conference.md","presentations\u002Fcosmos-db-conference",{"_path":1692,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":1693,"description":1694,"eventName":1695,"subtitle":1696,"logo":1697,"eventDate":1698,"eventDuration":1699,"audience":1700,"carouselItems":1701,"body":1704,"_type":286,"_id":1868,"_source":288,"_file":1869,"_stem":1870,"_extension":291},"\u002Fpresentations\u002Fnlp-expert-group","AI Agent Collaboration","Ein AI Agent wird als Weiterentwicklung reaktiver Assistenten eingeordnet und entlang eines Spektrums zwischen \nvordefinierten Workflows und hoher Autonomie betrachtet. Im Fokus steht, wie Agenten durch klare Leitplanken, \nModularität und beobachtbare Ausführung zuverlässig in Prozesse integriert werden können. Ein Rollenmodell (TACO) \nordnet Agenten nach Funktionen von fokussierten Einzelaufgaben bis zur Orchestrierung komplexer End-to-End-Abläufe \nein. Mehr-Agenten-Systeme rücken Kommunikation als zentrale Herausforderung in den Vordergrund, inklusive des \nSpannungsfelds zwischen Effizienz, Portabilität und Vielseitigkeit. Verschiedene Protokollansätze wie MCP, task- \nund artefaktorientierte Modelle sowie chat-nahe Laufzeitkonzepte werden als Bausteine für strukturierte Zusammenarbeit \nzwischen Agenten und Systemen gegenübergestellt.\n","NLP Expert Group Meeting - AI Agents","A roadmap for successful adoption and scaling in organizations","\u002Fimages\u002Fpresentations\u002Fnlp_expert_meeting\u002Fnlp_experts.png","2025-02-04","ca. 20 Min.","> 60 Teilnehmende",[1702,1703],"\u002Fimages\u002Fpresentations\u002Fnlp_expert_meeting\u002F1.jpeg","\u002Fimages\u002Fpresentations\u002Fnlp_expert_meeting\u002F2.jpg",{"type":19,"children":1705,"toc":1858},[1706,1712,1717,1725,1731,1736,1744,1750,1755,1763,1769,1774,1782,1788,1793,1801,1807,1812,1820,1826,1831,1839,1845,1850],{"type":22,"tag":35,"props":1707,"children":1709},{"id":1708},"vom-assistenten-zum-agenten-wenn-ki-im-prozess-ankommt",[1710],{"type":27,"value":1711},"Vom Assistenten zum Agenten: Wenn KI im Prozess ankommt",{"type":22,"tag":23,"props":1713,"children":1714},{},[1715],{"type":27,"value":1716},"Der Begriff „AI Agent“ ist schnell verwendet, doch oft bleibt unklar, ob wirklich dasselbe gemeint ist. In meinem Webinar setze ich deshalb bei einer präzisen Einordnung an: Ein reaktiver Assistent beantwortet Anfragen und liefert Inhalte „neben dem Prozess“. Ein prozessintegrierter Agent ist so gedacht, dass er im Ablauf arbeitet – er reagiert auf Ereignisse, verfolgt Ziele über mehrere Schritte, nutzt Tools und interagiert mit Systemen. Entscheidend ist dabei nicht maximale Autonomie, sondern verlässliche Ausführung innerhalb klarer Leitplanken, sodass Ergebnisse nachvollziehbar bleiben.",{"type":22,"tag":47,"props":1718,"children":1719},{},[1720],{"type":22,"tag":23,"props":1721,"children":1722},{},[1723],{"type":27,"value":1724},"What are AI Agents? I guess we know, but do we agree?\nReactive Assistants vs. Process Integrated Agents",{"type":22,"tag":35,"props":1726,"children":1728},{"id":1727},"ein-spektrum-statt-schwarz-weiss-control-vs-freedom",[1729],{"type":27,"value":1730},"Ein Spektrum statt Schwarz-Weiss: Control vs. Freedom",{"type":22,"tag":23,"props":1732,"children":1733},{},[1734],{"type":27,"value":1735},"Agenten sind selten ein Entweder-Oder. Ich beschreibe sie als Spektrum zwischen vordefinierten Workflows und vollständig autonomen Systemen. In der Praxis liegt der produktive Bereich häufig dazwischen: Je nach Risiko und Komplexität ist „mehr Freiheit“ nicht automatisch besser. Ein Agent ist dann nützlich, wenn er genug Handlungsspielraum hat, um Arbeit zu erledigen, aber genug Kontrolle, um stabil zu bleiben – technisch wie organisatorisch.",{"type":22,"tag":47,"props":1737,"children":1738},{},[1739],{"type":22,"tag":23,"props":1740,"children":1741},{},[1742],{"type":27,"value":1743},"The Spectrum of Agents — Control vs. Freedom",{"type":22,"tag":35,"props":1745,"children":1747},{"id":1746},"modularität-als-prinzip-bausteine-statt-monolith",[1748],{"type":27,"value":1749},"Modularität als Prinzip: Bausteine statt Monolith",{"type":22,"tag":23,"props":1751,"children":1752},{},[1753],{"type":27,"value":1754},"Ein weiterer Schwerpunkt ist Modularität. Wenn Agenten als monolithische Alleskönner gebaut werden, werden sie schnell schwer testbar und schwer steuerbar. Deshalb denke ich in „Building Blocks“: klar abgegrenzte Komponenten, die sich kombinieren lassen, ohne dass jede Erweiterung das Gesamtsystem destabilisiert. Das ist Architektur- und Teamprinzip zugleich: Fähigkeiten bleiben austauschbar, Verantwortlichkeiten klar, und Weiterentwicklung wird planbarer.",{"type":22,"tag":47,"props":1756,"children":1757},{},[1758],{"type":22,"tag":23,"props":1759,"children":1760},{},[1761],{"type":27,"value":1762},"Building Blocks — The Power of Modular Agents",{"type":22,"tag":35,"props":1764,"children":1766},{"id":1765},"rollenmodell-taco-wie-agenten-in-zusammenarbeit-wirken",[1767],{"type":27,"value":1768},"Rollenmodell TACO: Wie Agenten in Zusammenarbeit wirken",{"type":22,"tag":23,"props":1770,"children":1771},{},[1772],{"type":27,"value":1773},"Um die Funktionen in agentischen Systemen greifbar zu machen, nutze ich ein Rollenmodell (TACO). Es hilft, Agenten nach ihrer Aufgabe in der Wertschöpfung zu unterscheiden: von fokussierten „Askers“ für einzelne Ziele, über „Automators“ für wiederkehrende Tätigkeiten, hin zu „Collaborators“ für Mensch-Agent-Teamwork und „Orchestrators“, die komplexe End-to-End-Prozesse über mehrere Systeme hinweg koordinieren. Mit wachsender Orchestrierung steigt typischerweise die Integrations- und Betriebsanforderung – und damit die Notwendigkeit, Kommunikation und Kontrolle sauber zu gestalten.",{"type":22,"tag":47,"props":1775,"children":1776},{},[1777],{"type":22,"tag":23,"props":1778,"children":1779},{},[1780],{"type":27,"value":1781},"Focus on single goals, broken into simple steps. Are the easiest to manage.\nAre for human-agent teamwork, acting like teammates, not just tools\nManage complex, end-to-end processes across systems",{"type":22,"tag":35,"props":1783,"children":1785},{"id":1784},"mehrere-agenten-ein-kernproblem-kommunikation",[1786],{"type":27,"value":1787},"Mehrere Agenten, ein Kernproblem: Kommunikation",{"type":22,"tag":23,"props":1789,"children":1790},{},[1791],{"type":27,"value":1792},"Sobald mehrere Agenten zusammenarbeiten, wird Kommunikation zur zentralen Systemfrage. Ich greife dafür das „Agent Communication Trilemma“ auf: Effizienz, Portabilität und Vielseitigkeit stehen in Spannung zueinander. Ein Ansatz, der sehr effizient für eine bestimmte Umgebung ist, verliert oft an Portabilität. Ein stark portabler Ansatz ist häufig weniger optimiert. Und maximale Vielseitigkeit kann Standardisierung und Betrieb verteuern. Daraus folgt eine praktische Konsequenz: Agenten brauchen eine explizite Sprache für Aufgaben, Zustände und Ergebnisse – passend zur Systemlandschaft und zum Betriebsmodell.",{"type":22,"tag":47,"props":1794,"children":1795},{},[1796],{"type":22,"tag":23,"props":1797,"children":1798},{},[1799],{"type":27,"value":1800},"The Agent Communication Trilemma\nEFFICIENCY — PORTABILITY — VERSATILITY",{"type":22,"tag":35,"props":1802,"children":1804},{"id":1803},"protokolle-als-brücke-mcp-agent-protocol-und-chat-nahe-ansätze",[1805],{"type":27,"value":1806},"Protokolle als Brücke: MCP, Agent Protocol und chat-nahe Ansätze",{"type":22,"tag":23,"props":1808,"children":1809},{},[1810],{"type":27,"value":1811},"Ich ordne mehrere Protokollrichtungen ein, die genau diese Lücke zwischen Modell und „Aussenwelt“ adressieren. Das Model Context Protocol (MCP) steht dabei als Ansatz, Tool- und Kontextanbindung zu standardisieren. Agentprotocol.ai beschreibt Arbeit stärker über Tasks, Steps und Artifacts, also in klaren, prozessnahen Einheiten. Und chat-inspirierte Protokolle wie das LangChain Agent Protocol orientieren sich stärker an Konversations- und Laufzeitkonzepten, wie sie viele Agentensysteme ohnehin nutzen.",{"type":22,"tag":47,"props":1813,"children":1814},{},[1815],{"type":22,"tag":23,"props":1816,"children":1817},{},[1818],{"type":27,"value":1819},"Model Context Protocol (MCP) — Anthropic’s approach\nJust Tasks, Steps and Artifacts?\nLangchain Agent Protocol — A chat-inspired approach",{"type":22,"tag":35,"props":1821,"children":1823},{"id":1822},"agora-protokolle-nach-bedarf-natürliche-sprache-nur-wenn-nötig",[1824],{"type":27,"value":1825},"AGORA: Protokolle nach Bedarf, natürliche Sprache nur wenn nötig",{"type":22,"tag":23,"props":1827,"children":1828},{},[1829],{"type":27,"value":1830},"Als konzeptionelle Ergänzung stelle ich AGORA vor: ein Ansatz, der unterschiedliche Protokollformen zulässt und je nach Situation passende Strukturen nutzt – bis hin zu „Protocol Documents“, die referenzierbar sind. Der Leitgedanke ist pragmatisch: Natürliche Sprache ist flexibel, aber schwer zu validieren und zu versionieren. Darum wird sie als letzte Option verstanden, nicht als Default-Transportformat für präzise Zustände.",{"type":22,"tag":47,"props":1832,"children":1833},{},[1834],{"type":22,"tag":23,"props":1835,"children":1836},{},[1837],{"type":27,"value":1838},"Natural language as a last resort\nAgents negotiate which protocol to use",{"type":22,"tag":35,"props":1840,"children":1842},{"id":1841},"ein-eigener-zielrahmen-geschlossen-event-basiert-beobachtbar",[1843],{"type":27,"value":1844},"Ein eigener Zielrahmen: geschlossen, event-basiert, beobachtbar",{"type":22,"tag":23,"props":1846,"children":1847},{},[1848],{"type":27,"value":1849},"Zum Schluss verdichte ich die Inhalte in einem praxisorientierten Zielbild: ein geschlossenes, event-basiertes System, das Proaktivität ermöglicht, aber Human-in-the-Loop konsequent mitdenkt. Transparenz ist dabei Grundvoraussetzung: Aktionen und Events sollen beobachtbar sein, damit Debugging, Auditierbarkeit und Betriebssicherheit möglich werden. Workflows sind überwiegend vordefiniert, während KI vor allem beim Routing und bei der flexiblen Ausführung innerhalb der Leitplanken wirkt; als Laufzeitstruktur dienen Konzepte wie Threads und Runs als Orientierung.",{"type":22,"tag":47,"props":1851,"children":1852},{},[1853],{"type":22,"tag":23,"props":1854,"children":1855},{},[1856],{"type":27,"value":1857},"Transparency — Every action and event can be observed\nPredominantly predefined workflows with AI routing\nEvent-based system allowing for proactivity — Human in the Loop",{"title":7,"searchDepth":274,"depth":274,"links":1859},[1860,1861,1862,1863,1864,1865,1866,1867],{"id":1708,"depth":277,"text":1711},{"id":1727,"depth":277,"text":1730},{"id":1746,"depth":277,"text":1749},{"id":1765,"depth":277,"text":1768},{"id":1784,"depth":277,"text":1787},{"id":1803,"depth":277,"text":1806},{"id":1822,"depth":277,"text":1825},{"id":1841,"depth":277,"text":1844},"content:presentations:nlp-expert-group.md","presentations\u002Fnlp-expert-group.md","presentations\u002Fnlp-expert-group",{"_path":1872,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":1873,"description":1874,"eventName":1875,"subtitle":1876,"logo":1877,"eventDate":1878,"eventDuration":1879,"audience":1880,"views":1881,"videoId":1882,"body":1883,"_type":286,"_id":2197,"_source":288,"_file":2198,"_stem":2199,"_extension":291},"\u002Fpresentations\u002Fwebinar_ai_in_2025","Webinar: Generative KI und Autonome Agenten","Das Webinar ordnet die wichtigsten Entwicklungen im KI-Jahr 2024 ein und zeigt, weshalb Sprachmodelle den Markt und \nden öffentlichen Diskurs prägen. Ein Schwerpunkt liegt auf OpenAI als dominierendem Taktgeber sowie auf dem Trend zu \nAssistenten und Copilots in Unternehmen, inklusive typischer Einführungs- und Abgrenzungsfragen. Zudem wird \neingeordnet, wie stark die Nutzungskosten für KI sinken und warum die wahrgenommenen Intelligenzsprünge bei \nführenden Modellen gleichzeitig kleiner ausfallen. Ein weiterer Teil beleuchtet den Aufstieg leistungsfähiger \nOpen-Source-Modelle und deren Relevanz für Kosten, Kontrolle und Abhängigkeiten. Der Ausblick auf 2025 fokussiert \nauf Computer-gestützte Bedienung, Reasoning-Modelle mit neuen Kostenprofilen, agentische Workflows sowie die \nwachsende Rolle chinesischer Modelle und die lauter werdende AGI-Debatte.\n","bbv KI Webinar - Rückblick\u002F Ausblick 2024\u002F2025","Die wichtigsten Entwicklungen 2024 und was 2025 bringen könnte","\u002Fimages\u002Fpresentations\u002Fwebinar6\u002Fai_in_2025_1_1200x1200.png","2025-01-22","88 Min.","ca. 120 Teilnehmende",484,"sfOCY-lSGRg",{"type":19,"children":1884,"toc":2177},[1885,1891,1896,1899,1905,1910,1915,1921,1926,1934,1939,1944,1950,1955,1963,1968,1973,1979,1984,1989,1995,2000,2008,2013,2019,2024,2029,2035,2040,2048,2053,2059,2065,2070,2078,2083,2089,2094,2102,2107,2113,2118,2123,2129,2134,2140,2145,2151,2156,2161,2167,2172],{"type":22,"tag":819,"props":1886,"children":1888},{"id":1887},"rückblick-und-ausblick-ki-2024-einordnen-2025-antizipieren",[1889],{"type":27,"value":1890},"Rückblick und Ausblick: KI 2024 einordnen, 2025 antizipieren",{"type":22,"tag":23,"props":1892,"children":1893},{},[1894],{"type":27,"value":1895},"KI wird im öffentlichen Diskurs oft so behandelt, als bestünde sie aus ChatGPT und ein paar Bildgeneratoren.\nDas greift zu kurz – und dennoch sagt die Beobachtung viel über die Dynamik von 2024 aus: Sprachmodelle werden\nzum Sinnbild für „KI“ und dominieren damit sowohl Wahrnehmung als auch Investitionsentscheidungen. Genau hier setzt\nder Rückblick an. Wer eine KI-Strategie für ein Unternehmen entwickeln will, muss weniger jede einzelne Schlagzeile\nkennen, sondern die grossen Bewegungen verstehen: Welche Modellkategorie setzt sich durch? Wer prägt den Markt?\nWelche Muster etablieren sich in der Nutzung – und welche Annahmen über Fortschritt und Kosten sind realistisch?",{"type":22,"tag":30,"props":1897,"children":1898},{":video-id":32},[],{"type":22,"tag":35,"props":1900,"children":1902},{"id":1901},"_2024-als-jahr-der-sprachmodelle-und-warum-das-für-unternehmen-zählt",[1903],{"type":27,"value":1904},"2024 als Jahr der Sprachmodelle – und warum das für Unternehmen zählt",{"type":22,"tag":23,"props":1906,"children":1907},{},[1908],{"type":27,"value":1909},"2024 steht erneut im Zeichen der Large Language Models (LLMs). Das ist nicht nur eine Fortsetzung von 2023,\nsondern eine Verschiebung in der Breite: Sprachmodelle werden nicht mehr nur als „Chat“ verstanden, sondern als\ngenerische Fähigkeitsschicht. Unternehmen sehen, dass sich aus denselben Grundfähigkeiten (Verstehen, Strukturieren,\nGenerieren) eine erstaunliche Vielfalt an Business-Anwendungen herausziehen lässt – von Textarbeit über Recherche\nbis hin zu Assistenz in Fachprozessen.",{"type":22,"tag":23,"props":1911,"children":1912},{},[1913],{"type":27,"value":1914},"Gleichzeitig verschwimmt die Grenze zwischen „reinem Sprachmodell“ und multimodaler KI. Bild- und Audiofähigkeiten\nwerden zunehmend in die grossen Modelle integriert. Dadurch wirkt es so, als sei alles „ein Modell“, obwohl\nunterschiedliche Modalitäten und Produktfähigkeiten dahinterliegen. Für die Strategie bedeutet das: Nicht jedes\nKI-Thema muss parallel verfolgt werden. Wer LLMs und ihre Produktisierung konsequent beobachtet, versteht bereits\neinen grossen Teil dessen, was den Markt bewegt. Andere KI-Durchbrüche – etwa in spezialisierten Domänen wie\nProteinfaltung – bleiben relevant, sind aber häufig weniger direkt in allgemeine Unternehmensprozesse zu übersetzen.",{"type":22,"tag":35,"props":1916,"children":1918},{"id":1917},"openai-als-diskurs-motor-auch-wenn-beste-modelle-nicht-die-ganze-wahrheit-sind",[1919],{"type":27,"value":1920},"OpenAI als Diskurs-Motor – auch wenn „beste Modelle“ nicht die ganze Wahrheit sind",{"type":22,"tag":23,"props":1922,"children":1923},{},[1924],{"type":27,"value":1925},"Ein zweites dominantes Muster 2024 ist die starke Zentralisierung der Aufmerksamkeit: OpenAI prägt die Erzählung rund\num generative KI. Das zeigt sich weniger daran, dass OpenAI in jeder Kategorie unangefochten „die Nummer 1“ ist,\nsondern daran, dass Produktankündigungen, Releases und Begriffe so stark wirken, dass andere Entwicklungen in der\nWahrnehmung überlagert werden. Selbst dort, wo Wettbewerber technisch gleichziehen oder in Teilbereichen vorbeiziehen,\nbleibt die öffentliche Aufmerksamkeit oft bei OpenAI.",{"type":22,"tag":47,"props":1927,"children":1928},{},[1929],{"type":22,"tag":23,"props":1930,"children":1931},{},[1932],{"type":27,"value":1933},"„Man kann wirklich einfach schauen, was OpenAI macht – und kommt eigentlich ganz\ngut mit, was generell auf dem generativen KI-Markt passiert.“",{"type":22,"tag":23,"props":1935,"children":1936},{},[1937],{"type":27,"value":1938},"Multimodalität ist dabei ein zentrales Leitmotiv: Modelle, die Bildinput verstehen, Sprache als Input und Output\nbeherrschen und perspektivisch Video als Fähigkeitsschicht ergänzen. Die strategische Frage im Unternehmen ist\nweniger „Welche Demo ist beeindruckend?“, sondern: Welche Fähigkeiten werden gerade so stabil und günstig, dass\nsie als Bausteine in Produkte und Prozesse wandern können?",{"type":22,"tag":23,"props":1940,"children":1941},{},[1942],{"type":27,"value":1943},"Im Videobereich zeigt sich 2024 zudem ein interessantes Paradox: OpenAI bestimmt die Schlagzeilen mit „Sora“, aber die\ntatsächliche Innovationsfront ist breiter. Es gibt bereits zuvor Videomodelle, und es gibt Modelle, die in einzelnen\nQualitäten (z. B. Fotorealismus) stark sind. Für die Praxis heisst das: Marktbeobachtung darf nicht nur über Marken\nfunktionieren, sondern muss Fähigkeiten, Qualitätskriterien und Integrationsmöglichkeiten vergleichen.",{"type":22,"tag":35,"props":1945,"children":1947},{"id":1946},"assistenten-copilots-und-das-muster-mensch-bleibt-im-driver-seat",[1948],{"type":27,"value":1949},"Assistenten, Copilots und das Muster „Mensch bleibt im Driver Seat“",{"type":22,"tag":23,"props":1951,"children":1952},{},[1953],{"type":27,"value":1954},"Auf Anwendungsebene etabliert 2024 das „Assistenten-Denken“. Unternehmen führen generative KI häufig so ein, dass\nMitarbeitende ein Tool bekommen, das sie punktuell konsultieren: Mail formulieren, Text zusammenfassen, Ideen\nstrukturieren, kleine Teilaufgaben beschleunigen. Das gilt sowohl für allgemeine Tools (ChatGPT, etc.) als auch\nfür produktgebundene Copilots (z. B. in Office- oder Coding-Umgebungen).",{"type":22,"tag":47,"props":1956,"children":1957},{},[1958],{"type":22,"tag":23,"props":1959,"children":1960},{},[1961],{"type":27,"value":1962},"„Der gemeinsame Nenner: Der Mensch sitzt im Driver Seat – der Assistent wartet, bis er gefragt wird.“",{"type":22,"tag":23,"props":1964,"children":1965},{},[1966],{"type":27,"value":1967},"Dieses Muster ist pragmatisch, schnell einführbar und oft der erste Schritt. Gleichzeitig hat es Nebenwirkungen:\nEs delegiert die eigentliche Nutzungsstrategie an jede einzelne Person. Mitarbeitende müssen selbst herausfinden,\nwann sich der Einsatz lohnt, wie man sauber promptet, welche Daten man geben darf, wie man Ergebnisse überprüft,\nwie man Plagiate vermeidet – und wo die Grenzen liegen. Ohne begleitende Enablement-Struktur entsteht ein\nFlickenteppich: einige nutzen es effektiv, andere gar nicht oder falsch, und viele bleiben bei den immer\ngleichen „Low-Hanging Fruits“.",{"type":22,"tag":23,"props":1969,"children":1970},{},[1971],{"type":27,"value":1972},"Ein weiteres Praxisproblem betrifft die Abgrenzung: Aus Sicht der Nutzerinnen und Nutzer ist ein Chatfenster\nein Chatfenster. Ob dahinter Unternehmenswissen, RAG, zusätzliche Tools oder Policies stecken, ist nicht\nautomatisch sichtbar. Das führt zu falschen Erwartungen („Warum kann der Assistent das nicht so gut wie ChatGPT?“)\noder umgekehrt zu riskantem Verhalten („Ist das jetzt intern sicher – oder public?“). Wer Assistenten ernsthaft in\nUnternehmen verankern will, braucht deshalb nicht nur Technik, sondern Produktdenken: klare Positionierung, klare\nGrenzen, und klare Kommunikation.",{"type":22,"tag":35,"props":1974,"children":1976},{"id":1975},"rag-wird-state-of-the-art-und-gleichzeitig-weniger-dramatisch-als-früher",[1977],{"type":27,"value":1978},"RAG wird „State of the Art“ – und gleichzeitig weniger dramatisch als früher",{"type":22,"tag":23,"props":1980,"children":1981},{},[1982],{"type":27,"value":1983},"Retrieval Augmented Generation (RAG) stabilisiert sich 2024 als Standardmuster. Für viele unternehmensnahe Assistenten\nist es der Schlüssel: Nicht darauf hoffen, dass das Modell das Fachwissen „schon irgendwo“ gelernt hat, sondern gezielt\nrelevante Dokumente, Richtlinien, Wissensartikel oder Prozessbeschreibungen bereitstellen – und daraus Antworten\ngenerieren lassen. Damit lässt sich Aktualität, Nachvollziehbarkeit und Kontexttreue deutlich besser steuern.",{"type":22,"tag":23,"props":1985,"children":1986},{},[1987],{"type":27,"value":1988},"Gleichzeitig verschiebt sich das RAG-Design durch wachsende Kontextfenster: Wenn Modelle sehr grosse Kontexte verarbeiten\nkönnen, wird „die perfekte Auswahl der drei besten Snippets“ weniger zentral. Stattdessen geht es stärker um robuste\nRetrieval-Strategien, Datenqualität, Berechtigungen und eine saubere Übergabe in den Kontext – und um die Frage, wie\nviel Information sinnvoll ist, ohne die Antwort zu verwässern.",{"type":22,"tag":35,"props":1990,"children":1992},{"id":1991},"ki-wird-drastisch-günstiger-ein-strategiefaktor-kein-nebendetail",[1993],{"type":27,"value":1994},"KI wird drastisch günstiger – ein Strategiefaktor, kein Nebendetail",{"type":22,"tag":23,"props":1996,"children":1997},{},[1998],{"type":27,"value":1999},"Ein Kernbefund 2024 ist der Preisverfall: Für vergleichbare Benchmark-Leistung sinken die Kosten über wenige Jahre um\nGrössenordnungen. Das verändert die Wirtschaftlichkeit vieler Use Cases fundamental. Dinge, die „heute zu teuer“ wirken,\nkönnen in kurzer Zeit in den Bereich „laufende Betriebskosten sind vernachlässigbar“ rutschen. Dadurch entstehen neue\nKategorien von Anwendungen: mehr Volumen, mehr Automatisierung, mehr kontinuierliche Analysen, mehr „always-on“-Prüfungen.",{"type":22,"tag":47,"props":2001,"children":2002},{},[2003],{"type":22,"tag":23,"props":2004,"children":2005},{},[2006],{"type":27,"value":2007},"„Intelligenz wird günstiger – das öffnet Use Cases, die heute noch an der Grenze sind.“",{"type":22,"tag":23,"props":2009,"children":2010},{},[2011],{"type":27,"value":2012},"Wichtig dabei: Nicht jede Aufgabe braucht das „stärkste“ Modell. 2024 macht deutlicher, dass Modellwahl eine\nArchitekturentscheidung ist. Es gibt Aufgaben, bei denen ein kleineres oder günstigeres Modell völlig ausreicht,\nwährend komplexe Aufgaben gezielt mit stärkeren Modellen gelöst werden. Diese Differenzierung ist in Unternehmen\noft ein schneller Hebel, um Kosten zu senken und gleichzeitig mehr Anwendungen zu ermöglichen.",{"type":22,"tag":35,"props":2014,"children":2016},{"id":2015},"gleichzeitig-stagniert-das-gefühl-von-quantensprüngen",[2017],{"type":27,"value":2018},"Gleichzeitig stagniert das Gefühl von „Quantensprüngen“",{"type":22,"tag":23,"props":2020,"children":2021},{},[2022],{"type":27,"value":2023},"Parallel zum Preisverfall entsteht 2024 ein anderes Bild bei der reinen „Intelligenzkurve“ der\nClosed-Source-Spitzenmodelle: Die dramatischen Sprünge, wie sie beim Übergang von früheren Modellgenerationen\nwahrgenommen werden, flachen ab. Rankings verändern sich, einzelne Anbieter überholen sich punktuell, aber die\nSchritte wirken inkrementell. Das führt zu einer strategischen Korrektur: Fortschritt ist nicht automatisch linear\nextrapolierbar.",{"type":22,"tag":23,"props":2025,"children":2026},{},[2027],{"type":27,"value":2028},"Dahinter stehen mehrere mögliche Bremsfaktoren: hochwertige Trainingsdaten sind nicht unendlich verfügbar, Skalierung\nstösst auf technische und ökonomische Grenzen, und grosse Durchbrüche brauchen oft neue Forschungsansätze (Architektur,\nTraining, Daten, Optimierung). In der Praxis heisst das: Unternehmen sollten nicht darauf warten, dass „in sechs Monaten\nalles magisch doppelt so gut“ ist. Der bessere Ansatz ist, die Fähigkeiten der aktuellen Generation zu amortisieren –\nund parallel die nächste Welle zu beobachten.",{"type":22,"tag":35,"props":2030,"children":2032},{"id":2031},"open-source-wird-erwachsen-privacy-vs-performance-ist-keine-harte-entscheidung-mehr",[2033],{"type":27,"value":2034},"Open Source wird erwachsen – „Privacy vs. Performance“ ist keine harte Entscheidung mehr",{"type":22,"tag":23,"props":2036,"children":2037},{},[2038],{"type":27,"value":2039},"2024 ist zugleich ein starkes Jahr für Open-Source-Modelle. Die zentrale Veränderung: Open Source erreicht in vielen\nBenchmarks eine Nähe zu Top-Modellen, die zuvor nicht realistisch war. Damit verschiebt sich die klassische Dichotomie\n(„Closed Source = gut, Open Source = schwach aber privat“). Open-Source-Modelle bieten zunehmend eine Kombination aus\nsolider Performance, niedrigen Kosten und hoher Kontrolle.",{"type":22,"tag":47,"props":2041,"children":2042},{},[2043],{"type":22,"tag":23,"props":2044,"children":2045},{},[2046],{"type":27,"value":2047},"„Die Switching Costs sind fast null: anderer Endpoint – und plötzlich massiv geringere Kosten.“",{"type":22,"tag":23,"props":2049,"children":2050},{},[2051],{"type":27,"value":2052},"Für Unternehmen ist das strategisch relevant aus zwei Gründen: Erstens als Kostenhebel (je nach Setup und Hosting),\nzweitens als Abhängigkeitsthema. Wenn Alternativen realistisch werden, sinkt das Risiko, von einzelnen Anbietern oder\nPreismodellen vollständig abhängig zu sein. Gleichzeitig bleibt es wichtig, die Governance-Frage mitzudenken: Woher\nkommen die Modelle, welche Biases tragen sie, welche Lizenzen gelten – und wie wird das in einer Unternehmensrealität\nverantwortbar eingesetzt?",{"type":22,"tag":819,"props":2054,"children":2056},{"id":2055},"blick-in-die-kristallkugel-was-2025-prägen-kann",[2057],{"type":27,"value":2058},"Blick in die Kristallkugel: Was 2025 prägen kann",{"type":22,"tag":35,"props":2060,"children":2062},{"id":2061},"computer-usage-als-brücke-modelle-bedienen-oberflächen-wie-ein-mensch",[2063],{"type":27,"value":2064},"„Computer Usage“ als Brücke: Modelle bedienen Oberflächen wie ein Mensch",{"type":22,"tag":23,"props":2066,"children":2067},{},[2068],{"type":27,"value":2069},"Ein naheliegender Trend ist, dass Modelle nicht nur Text generieren, sondern den Computer „sehen“ und über UI-Aktionen\nbedienen: Maus bewegen, Buttons klicken, Felder ausfüllen, Texte eintippen. Das wirkt wie eine Übergangslösung, aber\neine sehr praktische: Statt überall saubere Integrationen und APIs zu bauen, nutzt man das Interface, das bereits\nexistiert. Gerade bei Software, die nicht KI-ready ist, kann das schnelle Automatisierung ermöglichen.",{"type":22,"tag":47,"props":2071,"children":2072},{},[2073],{"type":22,"tag":23,"props":2074,"children":2075},{},[2076],{"type":27,"value":2077},"„Es ist wie mit Kanonen auf Spatzen – aber eine coole Übergangsphase.“",{"type":22,"tag":23,"props":2079,"children":2080},{},[2081],{"type":27,"value":2082},"Langfristig bleibt UI-Automation weniger elegant als direkte Schnittstellen. Kurzfristig kann sie jedoch eine Lücke\nschliessen: Prozesse überbrücken, Tools anbinden, Legacy-Systeme nutzbar machen. Strategisch ist das weniger ein\n„Endzustand“ als ein Beschleuniger, um überhaupt agentische Workflows in reale Unternehmensumgebungen zu bringen.",{"type":22,"tag":35,"props":2084,"children":2086},{"id":2085},"reasoning-modelle-als-neue-ära-mit-neuem-preis-zeit-profil",[2087],{"type":27,"value":2088},"Reasoning-Modelle als neue Ära – mit neuem Preis-\u002FZeit-Profil",{"type":22,"tag":23,"props":2090,"children":2091},{},[2092],{"type":27,"value":2093},"Der vermutlich stärkste Wechsel 2025 ist die „Reasoning-Ära“: Modelle, die nicht sofort antworten, sondern intern\nlänger nachdenken, Zwischenwege prüfen und Schrittfolgen erzeugen, bevor sie sich festlegen. Der Effekt: Auf harten\nAufgaben steigt die Trefferquote deutlich – aber der Preis ist nicht nur monetär, sondern auch in Latenz und Planbarkeit.",{"type":22,"tag":47,"props":2095,"children":2096},{},[2097],{"type":22,"tag":23,"props":2098,"children":2099},{},[2100],{"type":27,"value":2101},"„Je länger das Modell nachdenkt, desto besser wird die Performance – aber unter anderen Bedingungen.“",{"type":22,"tag":23,"props":2103,"children":2104},{},[2105],{"type":27,"value":2106},"Ein entscheidender Punkt: Mehr Leistung kostet überproportional mehr. Die letzten Prozentpunkte Genauigkeit können\nexponentiell teurer werden. Das verändert die Entscheidungsmatrix in Unternehmen. Die Frage lautet nicht mehr nur\n„Welches Modell ist am besten?“, sondern: Wie viel Genauigkeit ist für diesen Use Case notwendig? Was kostet mich\neine zusätzliche Qualitätsstufe – und ist sie überhaupt wirtschaftlich? In vielen Fällen liegt das pragmatische Optimum\nnicht bei maximalem Reasoning, sondern bei einem gut balancierten Setup aus günstigeren Basismodellen, gezieltem\nKontext (RAG) und Reasoning nur dort, wo es wirklich zählt.",{"type":22,"tag":35,"props":2108,"children":2110},{"id":2109},"von-assistenten-zu-agenten-virtuelle-mitarbeitende-statt-passiver-helfer",[2111],{"type":27,"value":2112},"Von Assistenten zu Agenten: virtuelle Mitarbeitende statt passiver Helfer",{"type":22,"tag":23,"props":2114,"children":2115},{},[2116],{"type":27,"value":2117},"Wenn 2024 der Mensch im Driver Seat bleibt, verschiebt sich 2025 der Fokus Richtung Agenten: Systeme, die Ziele\nverfolgen, Aufgabenketten planen, Zwischenschritte selbstständig ausführen und den Menschen nur dort einbinden, wo es\nFreigaben, Entscheidungen oder Kontext braucht. Das ist ein Rollenwechsel: Der Mensch assistiert dem Agenten punktuell,\nstatt umgekehrt.",{"type":22,"tag":23,"props":2119,"children":2120},{},[2121],{"type":27,"value":2122},"Gleichzeitig zeigt 2024, warum Agenten nicht „einfach so“ funktionieren: Ein offener Task, Tools, Datenzugriff – und\ndann „mach mal“ ist oft unzuverlässig. Agenten verlieren Fokus, laufen in Sackgassen oder verbrennen Budget ohne\nErgebnis. 2025 zeichnet sich deshalb ein methodischer Shift ab: workflow-basierte Agentik. Erst eng führen, dann\nschrittweise Freiheiten geben. Dadurch entsteht nicht nur mehr Zuverlässigkeit, sondern auch besseres Engineering:\nAgenten werden zu steuerbaren Prozesskomponenten statt zu unberechenbaren Demos.",{"type":22,"tag":35,"props":2124,"children":2126},{"id":2125},"agentic-process-automation-prozesse-integrieren-und-dann-neu-denken",[2127],{"type":27,"value":2128},"Agentic Process Automation: Prozesse integrieren – und dann neu denken",{"type":22,"tag":23,"props":2130,"children":2131},{},[2132],{"type":27,"value":2133},"Der nächste Schritt nach „Agent in bestehendem Prozess“ ist, Prozesse selbst neu zu entwerfen. Agenten sind anders als\nMenschen: weniger tief spezialisiert, dafür breit einsetzbar, schnell kontextwechselnd, stark in Text\u002FAnalyse\u002FStruktur\n– und mit Zugriff auf Tools. Das kann quer über Silos wirken. Prozesse, die früher streng über Abteilungen verteilt\nsind, lassen sich perspektivisch anders schneiden: stärker end-to-end, stärker datengetrieben, stärker über\nFähigkeitsbündel statt Rollenprofile. 2025 ist hier eher das Jahr der Experimente und Diskussionen als der\nflächendeckenden Umsetzung – aber genau diese Diskussionen sind oft der Beginn echter Produktivitätsgewinne.",{"type":22,"tag":35,"props":2135,"children":2137},{"id":2136},"china-als-beschleuniger-open-source-als-geopolitische-variable",[2138],{"type":27,"value":2139},"China als Beschleuniger – Open Source als geopolitische Variable",{"type":22,"tag":23,"props":2141,"children":2142},{},[2143],{"type":27,"value":2144},"Ein weiterer Trend ist die wachsende Rolle chinesischer Modelle, insbesondere in der Open-Source-Welt. Wenn\nleistungsfähige Modelle aus China den Open-Source-Standard prägen, wird das neben technischen Fragen auch Governance-\nund Wertefragen verstärken: kulturelle Biases, inhaltliche Leitplanken, Trainingsdaten, politische Rahmenbedingungen.\nGleichzeitig gilt: Auch bei US-Modellen existieren Biases und Interessenlagen. Die Verschiebung macht das Thema\nsichtbarer – und zwingt Unternehmen, bewusster zu entscheiden, welche Abhängigkeiten sie eingehen.",{"type":22,"tag":35,"props":2146,"children":2148},{"id":2147},"die-agi-debatte-wird-lauter-und-bleibt-dennoch-schwer-greifbar",[2149],{"type":27,"value":2150},"Die AGI-Debatte wird lauter – und bleibt dennoch schwer greifbar",{"type":22,"tag":23,"props":2152,"children":2153},{},[2154],{"type":27,"value":2155},"2025 dürfte auch deshalb „AGI-lastig“ werden, weil der Begriff als Marker für Fortschritt und Marktführerschaft dient.\nGleichzeitig bleibt AGI unscharf definiert. Selbst wenn ein Modell viele Benchmarks auf „menschlichem Niveau“ erreicht,\nheisst das nicht automatisch, dass es in der Praxis sofort massiven Business Value liefert. Reasoning kann teuer,\nlangsam und nur in bestimmten Aufgabentypen wirklich überlegen sein.",{"type":22,"tag":23,"props":2157,"children":2158},{},[2159],{"type":27,"value":2160},"Relevant ist zudem, dass wirtschaftliche und strategische Interessen in die Kommunikation hineinspielen können –\netwa über vertragliche Konstrukte, bei denen das Ausrufen von „AGI“ bestimmte Partnerschaften oder Bedingungen\nbeeinflussen könnte. Für Unternehmen folgt daraus eine nüchterne Haltung: AGI als Debatte beobachten, aber Use Cases,\nKostenprofile, Integrationsfähigkeit und Risikoabschätzung höher gewichten als Labels.",{"type":22,"tag":819,"props":2162,"children":2164},{"id":2163},"einordnende-schlusslinie-für-die-strategie",[2165],{"type":27,"value":2166},"Einordnende Schlusslinie für die Strategie",{"type":22,"tag":23,"props":2168,"children":2169},{},[2170],{"type":27,"value":2171},"2024 zeigt eine operative Realität: Sprachmodelle sind die dominierende Fähigkeitsschicht, OpenAI prägt den Diskurs,\nAssistenten sind der verbreitetste Einstieg, RAG wird Standard, und die Kosten fallen dramatisch. Gleichzeitig flacht\nder Eindruck von „Intelligenz-Quantensprüngen“ bei klassischen Modellen ab, während Open Source erwachsen wird und\nechte Alternativen schafft.",{"type":22,"tag":23,"props":2173,"children":2174},{},[2175],{"type":27,"value":2176},"2025 wirkt wie ein Übergang in eine neue Ära: mehr Agentik, mehr Prozessintegration, mehr Reasoning – aber unter neuen\nBedingungen: höhere Kosten für Spitzenleistung, mehr Latenz, mehr Engineering-Disziplin, mehr Governance-Fragen. Die\npragmatische Konsequenz ist zweigleisig: die Fähigkeiten der aktuellen Generation konsequent produktiv machen und\namortisieren – und die nächste Welle so beobachten, dass man vorbereitet ist, wenn Preis und Reifegrad kippen.",{"title":7,"searchDepth":274,"depth":274,"links":2178},[2179,2188,2196],{"id":1887,"depth":274,"text":1890,"children":2180},[2181,2182,2183,2184,2185,2186,2187],{"id":1901,"depth":277,"text":1904},{"id":1917,"depth":277,"text":1920},{"id":1946,"depth":277,"text":1949},{"id":1975,"depth":277,"text":1978},{"id":1991,"depth":277,"text":1994},{"id":2015,"depth":277,"text":2018},{"id":2031,"depth":277,"text":2034},{"id":2055,"depth":274,"text":2058,"children":2189},[2190,2191,2192,2193,2194,2195],{"id":2061,"depth":277,"text":2064},{"id":2085,"depth":277,"text":2088},{"id":2109,"depth":277,"text":2112},{"id":2125,"depth":277,"text":2128},{"id":2136,"depth":277,"text":2139},{"id":2147,"depth":277,"text":2150},{"id":2163,"depth":274,"text":2166},"content:presentations:webinar_ai_in_2025.md","presentations\u002Fwebinar_ai_in_2025.md","presentations\u002Fwebinar_ai_in_2025",{"_path":2201,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":2202,"description":2203,"eventName":2204,"subtitle":2205,"logo":2206,"eventDate":2207,"eventDuration":1699,"audience":2208,"carouselItems":2209,"body":2213,"_type":286,"_id":2353,"_source":288,"_file":2354,"_stem":2355,"_extension":291},"\u002Fpresentations\u002Fhtcs","Ein inspirierender Auftakt in die Zukunft der Medtech-Branche","Beim Neujahresapéro des Health Tech Cluster Switzerland präsentierte ich praxisnahe Anwendungsfälle von \nKünstlicher Intelligenz in der Medtech-Branche, von der Unterstützung bei Gesundheitsgeräten bis hin zu \nDokumentationshilfen für Pflegepersonal und Compliance-Tools für Medizingerätehersteller. Live-Demos \nermöglichten den Teilnehmenden, die innovativen KI-Lösungen direkt auszuprobieren und sich in einer \nentspannten Atmosphäre auszutauschen. Der inspirierende Abend legte den Grundstein für zukünftige \nEntwicklungen und unterstrich, wie wertvoll praxisnahe Einblicke und persönliches Netzwerken für die Branche sind.\n","Health Tech Cluster Switzerland - Neujahresapéro","KI Use-Cases in der Medizin: Von der Diagnose bis zur Therapie","\u002Fimages\u002Fpresentations\u002Fhtcs\u002Fhtcs_3.png","2025-01-16","ca 40 Teilnehmende",[2210,2211,2212],"\u002Fimages\u002Fpresentations\u002Fhtcs\u002F1.jpg","\u002Fimages\u002Fpresentations\u002Fhtcs\u002F2.jpg","\u002Fimages\u002Fpresentations\u002Fhtcs\u002F3.jpg",{"type":19,"children":2214,"toc":2347},[2215,2220,2226,2231,2274,2279,2286,2292,2297,2302,2308,2313,2319],{"type":22,"tag":23,"props":2216,"children":2217},{},[2218],{"type":27,"value":2219},"Am vergangenen Neujahresapéro des Health Tech Cluster Switzerland durfte ich,\neinen spannenden Vortrag über den Einsatz von Künstlicher Intelligenz (KI) in der Healthtech-Branche halten.\nIn einer entspannten, fast familiären Atmosphäre, gemeinsam mit inspirierenden Persönlichkeiten und\nengagierten Expertinnen und Experten, starteten wir optimistisch in das neue Jahr.",{"type":22,"tag":35,"props":2221,"children":2223},{"id":2222},"praxisnahe-einblicke-und-innovative-ki-anwendungen",[2224],{"type":27,"value":2225},"Praxisnahe Einblicke und innovative KI-Anwendungen",{"type":22,"tag":23,"props":2227,"children":2228},{},[2229],{"type":27,"value":2230},"Der Nachmittag war geprägt von einem intensiven Austausch zwischen Fachleuten und Interessierten.\nMein Vortrag fokussierte sich darauf, wie KI in verschiedenen Bereichen der Gesundheitsbranche echte\nMehrwerte schaffen kann. Ich stellte dabei verschiedene Szenarien vor, die zeigen, wie sich moderne\nTechnologien in der Praxis einsetzen lassen:",{"type":22,"tag":1203,"props":2232,"children":2233},{},[2234,2244,2254,2264],{"type":22,"tag":1017,"props":2235,"children":2236},{},[2237,2242],{"type":22,"tag":1021,"props":2238,"children":2239},{},[2240],{"type":27,"value":2241},"Support für Gesundheitsgeräte",{"type":27,"value":2243}," – KI kann die Bedienung und Fehlerdiagnose von medizinischen Geräten\nunterstützen, sodass Anwender schneller und sicherer arbeiten können.",{"type":22,"tag":1017,"props":2245,"children":2246},{},[2247,2252],{"type":22,"tag":1021,"props":2248,"children":2249},{},[2250],{"type":27,"value":2251},"Dokumentationshilfen für das Pflegepersonal",{"type":27,"value":2253}," – Durch automatisierte Prozesse wird die zeitaufwändige\nDokumentation erleichtert, was dem Pflegepersonal mehr Raum für die direkte Patientenbetreuung eröffnet.",{"type":22,"tag":1017,"props":2255,"children":2256},{},[2257,2262],{"type":22,"tag":1021,"props":2258,"children":2259},{},[2260],{"type":27,"value":2261},"Informationsunterstützung für Patienten",{"type":27,"value":2263}," – Intelligente Systeme liefern passgenaue\nInformationen, die Patienten dabei helfen, ihre Gesundheitsfragen schneller zu klären.",{"type":22,"tag":1017,"props":2265,"children":2266},{},[2267,2272],{"type":22,"tag":1021,"props":2268,"children":2269},{},[2270],{"type":27,"value":2271},"Compliance-Unterstützung für Medizingerätehersteller",{"type":27,"value":2273}," – Angesichts ständig wechselnder Normen und Standards\nkönnen KI-Lösungen dabei helfen, Prozesse konform zu gestalten und rechtliche Anforderungen effizient zu erfüllen.",{"type":22,"tag":23,"props":2275,"children":2276},{},[2277],{"type":27,"value":2278},"Ziel der Veranstaltung war es, Brücken zwischen Theorie und Praxis zu schlagen und aufzuzeigen, wie KI in\nunterschiedlichen Unternehmensbereichen Mehrwerte schafft.",{"type":22,"tag":2280,"props":2281,"children":2285},"image-carousel",{":height":2282,":items":2283,":width":2284},"400","carouselItems","600",[],{"type":22,"tag":35,"props":2287,"children":2289},{"id":2288},"live-demos-und-der-direkte-austausch",[2290],{"type":27,"value":2291},"Live-Demos und der direkte Austausch",{"type":22,"tag":23,"props":2293,"children":2294},{},[2295],{"type":27,"value":2296},"Ein weiteres Highlight des Events waren die praxisnahen Live-Demos an unseren Teststationen.\nHier hatten die Teilnehmenden die Gelegenheit, die vorgestellten KI-Anwendungen hautnah zu erleben und\nauszuprobieren. Dabei wurde schnell deutlich: Innovation gelingt am besten im direkten Dialog und\ndurch gegenseitiges Lernen.",{"type":22,"tag":23,"props":2298,"children":2299},{},[2300],{"type":27,"value":2301},"Martin Egloff ergänzte den Nachmittag mit wertvollen Einblicken in unser Unternehmen und unsere\nArbeitsweise, was die Veranstaltung zusätzlich bereicherte. Das persönliche Netzwerken und der offene\nAustausch trugen massgeblich dazu bei, dass der Apéro nicht nur informativ, sondern auch inspirierend war.",{"type":22,"tag":35,"props":2303,"children":2305},{"id":2304},"ausblick",[2306],{"type":27,"value":2307},"Ausblick",{"type":22,"tag":23,"props":2309,"children":2310},{},[2311],{"type":27,"value":2312},"Der Abend hat einmal mehr gezeigt: Mit praxisnahen Ansätzen und innovativen KI-Lösungen lässt sich die\nZukunft der Medtech-Branche aktiv gestalten. Ich habe mich gefreut, diesen Weg aufzuzeichnen und neue Impulse\nin die Branche einzubringen.",{"type":22,"tag":35,"props":2314,"children":2316},{"id":2315},"links",[2317],{"type":27,"value":2318},"Links",{"type":22,"tag":1203,"props":2320,"children":2321},{},[2322,2336],{"type":22,"tag":1017,"props":2323,"children":2324},{},[2325,2334],{"type":22,"tag":2326,"props":2327,"children":2331},"a",{"href":2328,"rel":2329},"https:\u002F\u002Fwww.linkedin.com\u002Fposts\u002Fhealth-tech-cluster-switzerland_healthtech-activity-7285989756029521920-z2DR\u002F?utm_source=share&utm_medium=member_android",[2330],"nofollow",[2332],{"type":27,"value":2333},"Rückblick auf unseren Neujahrsapéro (HTCS)",{"type":27,"value":2335},", LinkedIn.",{"type":22,"tag":1017,"props":2337,"children":2338},{},[2339,2346],{"type":22,"tag":2326,"props":2340,"children":2343},{"href":2341,"rel":2342},"https:\u002F\u002Fwww.linkedin.com\u002Fposts\u002Fbbv-software-services_inspirationausderpraxis-netzwerken-medtech-activity-7286030193339625475-51wL\u002F?utm_source=share&utm_medium=member_android",[2330],[2344],{"type":27,"value":2345},"Inspiration aus der Praxis und familiäres Netzwerken (bbv)",{"type":27,"value":2335},{"title":7,"searchDepth":274,"depth":274,"links":2348},[2349,2350,2351,2352],{"id":2222,"depth":277,"text":2225},{"id":2288,"depth":277,"text":2291},{"id":2304,"depth":277,"text":2307},{"id":2315,"depth":277,"text":2318},"content:presentations:htcs.md","presentations\u002Fhtcs.md","presentations\u002Fhtcs",{"_path":2357,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":2358,"description":2359,"eventName":2360,"subtitle":2361,"logo":2362,"eventDate":2363,"eventDuration":2364,"audience":2365,"views":2366,"videoId":2367,"body":2368,"_type":286,"_id":2601,"_source":288,"_file":2602,"_stem":2603,"_extension":291},"\u002Fpresentations\u002Fwebinar_ki_agenten_in_der_praxis","Webinar: KI Agenten in der Praxis","Generative KI und KI-Agenten stehen im Zentrum einer agentischen Arbeitsweise, bei der virtuelle Systeme \nUnternehmensprozesse eigenständig unterstützen. Die Technologieplattform BBV AI Hub zeigt, \nwie sich Datenquellen, Sprachmodelle und Sicherheitskonzepte intelligent miteinander verbinden lassen. \nBeispiele aus dem LogistiKI- und Personalwesen verdeutlichen, wie umfassend und zugleich transparent \nKI-Agenten in der Praxis eingesetzt werden können.\n","bbv KI Webinar - KI Agenten in der Praxis","Mit dem AI Hub zu Transparenz, Performance und Innovation","\u002Fimages\u002Fpresentations\u002Fwebinar5\u002Fki_agenten_praxis.png","2024-09-25","52 Min.","ca. 20 Teilnehmende",137,"1ME9gtgb-f4",{"type":19,"children":2369,"toc":2591},[2370,2375,2383,2388,2391,2397,2402,2410,2415,2420,2428,2433,2439,2444,2449,2455,2460,2465,2473,2478,2483,2488,2493,2499,2504,2509,2515,2520,2525,2531,2536,2541,2547,2552,2557,2565,2570,2575,2581,2586],{"type":22,"tag":23,"props":2371,"children":2372},{},[2373],{"type":27,"value":2374},"Ich habe im Rahmen eines Webinars gemeinsam mit meinem Kollegen Stefan Heberling über ein Thema gesprochen,\ndas mich schon lange fasziniert: generative KI und die sogenannte agentische Arbeitsweise. Unser Ziel war es,\nden Teilnehmenden zu zeigen, wie sich diese Technologien konkret in Unternehmen einsetzen lassen und wo die\nVorteile gegenüber rein passiven Chatbots wie ChatGPT liegen. Stefan, Leiter des KI-Teams bei der BBV, hat\nzu Beginn unseres Treffens hervorgehoben, dass wir den Fokus auf das Zusammenspiel von KI-Agenten mit betrieblichen\nProzessen legen wollten. Er hat mich als Gesprächspartner eingeladen, weil ich selbst in mehreren KI-Projekten\neng an solchen Anwendungsfällen arbeite.",{"type":22,"tag":47,"props":2376,"children":2377},{},[2378],{"type":22,"tag":23,"props":2379,"children":2380},{},[2381],{"type":27,"value":2382},"„Wir gewähren Ihnen heute einen exklusiven Einblick in unseren BBV AI Hub, ausgehend von den Herausforderungen,\ndie wir täglich bei unseren Kunden antreffen.“",{"type":22,"tag":23,"props":2384,"children":2385},{},[2386],{"type":27,"value":2387},"Dieses Zitat von Stefan umreisst den Kern unserer Veranstaltung. Uns ging es darum, zu zeigen, was generative KI\nim Unternehmensumfeld praktisch leisten kann. Die Teilnehmenden wollten wissen, wie man agentische Systeme so\neinführt, dass sie nicht nur nettes Beiwerk sind, sondern zu echten Entlastungen im operativen Alltag werden.",{"type":22,"tag":30,"props":2389,"children":2390},{":video-id":32},[],{"type":22,"tag":35,"props":2392,"children":2394},{"id":2393},"ki-agenten-als-autonome-problemlöser",[2395],{"type":27,"value":2396},"KI-Agenten als autonome Problemlöser",{"type":22,"tag":23,"props":2398,"children":2399},{},[2400],{"type":27,"value":2401},"Ich habe im Webinar zunächst den Begriff KI-Agenten erläutert. Dieser bezeichnet virtuelle Einheiten, die in der\nLage sind, ihre Aufgaben ähnlich wie menschliche Mitarbeitende selbstständig zu bearbeiten. Das bedeutet, dass\nsie nicht nur eine Frage beantworten, sondern ein Ziel definiert bekommen und eigenständig überlegen, wie sie dieses\nZiel am besten erreichen. Stefan formulierte es im Gespräch so:",{"type":22,"tag":47,"props":2403,"children":2404},{},[2405],{"type":22,"tag":23,"props":2406,"children":2407},{},[2408],{"type":27,"value":2409},"„Autonom auf Eingaben reagieren, einem bestimmten Workflow folgen und anhand dieses Workflows die gewünschten\nResultate liefern.“",{"type":22,"tag":23,"props":2411,"children":2412},{},[2413],{"type":27,"value":2414},"Dahinter steht eine Abfolge von Schritten, die beim menschlichen Problemlösungsprozess ähnlich auftreten.\nDer Agent erkennt eine Situation, interpretiert sie und legt im nächsten Schritt fest, welche Handlungen sinnvoll sind.\nAnschliessend führt er diese Handlungen aus und prüft, ob sie zum gewünschten Ergebnis führen. Sollten sich Lücken oder\nFehler zeigen, passt er sein Vorgehen an. Ich habe betont, dass das weit über simple Chatbot-Logik hinausgeht.\nKI-Agenten arbeiten nach einem agentischen Workflow, dessen Kernelemente Wahrnehmung, Planung, Handlung und\nFeedbackschleifen sind.",{"type":22,"tag":23,"props":2416,"children":2417},{},[2418],{"type":27,"value":2419},"Um das greifbarer zu machen, habe ich ein Beispiel zum Bestandsmanagement in einem Logistikunternehmen beschrieben.\nEin KI-Agent prüft ständig, wie viel Material noch verfügbar ist, prognostiziert den Bedarf anhand von historischen\nDaten und stösst, falls notwendig, eigenständig die Neubestellung an. Er entscheidet sogar, wann welche Mengen sinnvoll\nsind und informiert automatisch die zuständige Fachabteilung.",{"type":22,"tag":47,"props":2421,"children":2422},{},[2423],{"type":22,"tag":23,"props":2424,"children":2425},{},[2426],{"type":27,"value":2427},"„Ein KI-Agent könnte hier den Lagerbestand in Echtzeit überwachen, bei niedrigen Mengen automatisch Aktionen\nauslösen und so langfristig Zeit und Ressourcen sparen.“",{"type":22,"tag":23,"props":2429,"children":2430},{},[2431],{"type":27,"value":2432},"Damit möchte ich illustrieren, dass diese Programme einiges mehr können als reine Chat-Funktionen.",{"type":22,"tag":35,"props":2434,"children":2436},{"id":2435},"der-bbv-ai-hub-technologieplattform-und-chancen",[2437],{"type":27,"value":2438},"Der BBV AI Hub: Technologieplattform und Chancen",{"type":22,"tag":23,"props":2440,"children":2441},{},[2442],{"type":27,"value":2443},"In einem zweiten Schritt habe ich den BBV AI Hub vorgestellt. Dabei handelt es sich um eine Technologieplattform,\ndie wir entwickelt haben, um möglichst schnell neue KI-Agenten zu programmieren und diese in bestehende IT-Landschaften\neinzubetten. Wer sich fragt, warum man so etwas braucht, dem habe ich erklärt, dass klassische Softwarearchitekturen\nnicht immer auf die Geschwindigkeit, mit der sich KI-Anwendungen weiterentwickeln, ausgelegt sind.",{"type":22,"tag":23,"props":2445,"children":2446},{},[2447],{"type":27,"value":2448},"Der AI Hub schafft Klarheit bei der Verwaltung von Daten und Verbindungen zu verschiedenen Sprachmodellen.\nDas bedeutet, dass man wahlweise auf kommerzielle Dienste wie OpenAI oder Google Cloud zurückgreifen kann oder\nauch Open-Source-Modelle im eigenen Rechenzentrum betreibt. Für manche Unternehmen ist Letzteres unverzichtbar,\nweil sensible Daten nicht das Firmennetzwerk verlassen dürfen. Ein weiterer Vorteil besteht in der Skalierbarkeit.\nWenn ein Agent sehr häufig Anfragen verarbeiten muss, können wir rasch feststellen, ob eine leistungsstärkere\nUmgebung oder ein anderes Modell sinnvoller ist.",{"type":22,"tag":35,"props":2450,"children":2452},{"id":2451},"herausforderungen-in-kundenprojekten",[2453],{"type":27,"value":2454},"Herausforderungen in Kundenprojekten",{"type":22,"tag":23,"props":2456,"children":2457},{},[2458],{"type":27,"value":2459},"Ich werde oft gefragt, wo im Praxisalltag die grössten Hürden bei der Entwicklung dieser KI-Lösungen liegen.\nMeine Antwort ist stets, dass wir als KI-Team das rein Technische gut im Griff haben, aber die fachliche Richtigkeit\nder Ergebnisse mit Unterstützung unserer Kunden prüfen müssen. Beim Bestandsmanagement-Beispiel ist klar: Wir kennen\nuns nicht in jedem Detail jeder Branche aus. Das bedeutet, dass ein KI-Agent zwar formal korrekt arbeiten kann, aber\nes kann immer sein, dass eine bereichsspezifische Regel übersehen wird.",{"type":22,"tag":23,"props":2461,"children":2462},{},[2463],{"type":27,"value":2464},"Wir haben im Webinar gezeigt, wie wir dieses Problem angehen. Wir protokollieren die einzelnen Schritte unserer Agenten.\nSobald eine fehlerhafte Antwort auftaucht, kann man in einem sogenannten Agenten-Logbuch nachverfolgen, welche Texte\noder Datenquellen ausgewertet wurden und ob das System vielleicht eine veraltete Information herangezogen hat.\nDas Schöne daran ist, dass man aus diesen Analysen viel lernt und die Agenten auf Basis des Kundenfeedbacks beständig\nverbessert.",{"type":22,"tag":47,"props":2466,"children":2467},{},[2468],{"type":22,"tag":23,"props":2469,"children":2470},{},[2471],{"type":27,"value":2472},"„Gerade bei kritischen Entscheidungen wollen wir sicherstellen, dass der KI-Agent uns sagt, auf welches Dokument er\nsich stützt.“",{"type":22,"tag":23,"props":2474,"children":2475},{},[2476],{"type":27,"value":2477},"So habe ich es im Webinar erklärt. Wenn eine automatisierte Handlung weitreichende Konsequenzen hat, ist\nTransparenz essenziell.",{"type":22,"tag":23,"props":2479,"children":2480},{},[2481],{"type":27,"value":2482},"Zusammenarbeit zwischen Agenten\nEin Thema, das die Teilnehmenden im Anschluss sehr interessierte, war die Frage, ob mehrere KI-Agenten untereinander\nkommunizieren können. Ich habe bestätigt, dass wir hierfür bereits Lösungen entwickelt haben.",{"type":22,"tag":23,"props":2484,"children":2485},{},[2486],{"type":27,"value":2487},"Es ist möglich, dass ein übergeordneter Koordinator-Agent erkennt, dass eine Aufgabe mehrere Spezialagenten erfordert.\nEr leitet die Anfragen dann an die relevanten Agenten weiter und sammelt deren Teilergebnisse, bis eine Gesamtlösung\nvorliegt. Dieses Prinzip folgt der gleichen Logik wie in echten Teams, wo verschiedene Experten zusammenarbeiten.",{"type":22,"tag":23,"props":2489,"children":2490},{},[2491],{"type":27,"value":2492},"Im Webinar habe ich zum Beispiel gezeigt, wie ein Agent, der für die Überwachung von Lagerbeständen zuständig ist,\nmit einem anderen Agenten kooperieren kann, der Bestellungen oder Ausschreibungen initiiert. So entsteht ein\nKI-Agenten-Team, das am Ende eigenständige Entscheidungen fällen kann, ohne dass ein Mensch jeden Zwischenschritt\nkontrollieren muss.",{"type":22,"tag":35,"props":2494,"children":2496},{"id":2495},"rollen-rechte-und-datenzugriffe",[2497],{"type":27,"value":2498},"Rollen, Rechte und Datenzugriffe",{"type":22,"tag":23,"props":2500,"children":2501},{},[2502],{"type":27,"value":2503},"In vielen Kundengesprächen kommt rasch die Frage nach Zugriffskontrollen auf. Mitarbeiter sollen nur die\nInformationen sehen, auf die sie auch laut ihrer Rolle zugreifen dürfen. In solchen Fällen betone ich, dass\nwir Agenten immer recht klar definieren. Ein Agent bekommt genau die Datenquellen, die er für seine Aufgabe\nbenötigt, nicht mehr und nicht weniger.",{"type":22,"tag":23,"props":2505,"children":2506},{},[2507],{"type":27,"value":2508},"Der AI Hub bietet zudem Anbindungen an bestehende Zugriffs- und Rechtesysteme. Wer den Agenten nicht nutzen darf,\nsieht ihn auch nicht und kann somit keine kritischen Daten lesen. Ich habe darauf hingewiesen, dass dies ein\nSchlüsselpunkt ist, damit sich KI-Systeme langfristig sicher in den betrieblichen Alltag integrieren.",{"type":22,"tag":35,"props":2510,"children":2512},{"id":2511},"wissen-finden-statt-suchen",[2513],{"type":27,"value":2514},"Wissen finden statt suchen",{"type":22,"tag":23,"props":2516,"children":2517},{},[2518],{"type":27,"value":2519},"Viele Unternehmen haben umfangreiche Dokumenten- oder Wissensablagen. Mitarbeiter verschwenden laut Studien\ntäglich wertvolle Zeit, weil sie nicht genau wissen, wo eine Information abgelegt ist. Im Webinar hat Stefan\neine Statistik erwähnt, wonach Mitarbeitende mitunter 30 Minuten am Tag nur mit der Suche nach Dokumenten verbringen.\nIch habe erklärt, wie KI-Agenten in Verbindung mit den sogenannten vektorbasierenden Datenbanken Abhilfe schaffen können.",{"type":22,"tag":23,"props":2521,"children":2522},{},[2523],{"type":27,"value":2524},"Wenn man eine Frage stellt, durchsucht der Agent die relevanten Quellen und findet sehr schnell jene Textstellen,\ndie zur Beantwortung passen. Das sind weit komplexere Suchstrategien als eine einfache Volltextsuche. Indem wir den\nKontext, also die inhaltliche Nähe zwischen Begriffen, auswerten, findet der Agent auch bei Synonymen oder\nThemenverwandtschaft die richtigen Passagen. Entscheidend ist, dass wir dieses System kontinuierlich verbessern und\nregelmässig prüfen, ob der Agent korrekte Fundstellen liefert.",{"type":22,"tag":35,"props":2526,"children":2528},{"id":2527},"live-demo-transparenz-und-nachvollziehbarkeit",[2529],{"type":27,"value":2530},"Live-Demo: Transparenz und Nachvollziehbarkeit",{"type":22,"tag":23,"props":2532,"children":2533},{},[2534],{"type":27,"value":2535},"Während des Webinars habe ich in einer Live-Demo gezeigt, wie ein KI-Agent in einem Frage-Antwort-Szenario funktioniert.\nDie Teilnehmenden konnten sehen, dass der Agent bei jeder Frage mehrere Zwischenschritte durchläuft. Er prüft, ob er\nfür die jeweilige Frage zuständig ist, sucht relevante Textabschnitte, filtert sie und generiert erst am Ende eine\nAntwort.",{"type":22,"tag":23,"props":2537,"children":2538},{},[2539],{"type":27,"value":2540},"Wir haben ausserdem demonstriert, dass man im Agenten-Logbuch alle Teilschritte einsehen kann, beispielsweise welche\nDokumente oder Passagen der Agent als Quelle für seine Antwort genutzt hat. Diese Transparenz gibt den Anwenderinnen\nund Anwendern Sicherheit, weil sie bei Bedarf nachvollziehen können, warum eine Antwort in bestimmter Weise formuliert\nwurde.",{"type":22,"tag":35,"props":2542,"children":2544},{"id":2543},"ausblick-und-eigene-einsatzszenarien",[2545],{"type":27,"value":2546},"Ausblick und eigene Einsatzszenarien",{"type":22,"tag":23,"props":2548,"children":2549},{},[2550],{"type":27,"value":2551},"Am Ende des Webinars fragte Stefan mich, welche KI-Agenten wir selbst intern nutzen. Ich habe erzählt, dass wir\neinen sogenannten Wiki-Agenten entwickelt haben, der auf unsere firmeneigenen Richtlinien und unser Intranet\nzugreifen kann. Mitarbeitende, die nach bestimmten HR-Regelungen oder IT-Policies suchen, müssen somit nicht\nmehr manuell mehrere Plattformen durchforsten.",{"type":22,"tag":23,"props":2553,"children":2554},{},[2555],{"type":27,"value":2556},"Darüber hinaus unterstützen wir Teams bei der Erstellung von Projektbeschreibungen, indem ein Agent automatisch\ndie relevanten Kerndaten zusammenträgt und sinnvoll in ein Dokument einfügt. Zusätzlich verfügen wir über einen\nAgenten, der internes KI-Wissen bündelt. Er beantwortet Kollegenfragen, bevor diese an uns KI-Entwickler\nherangetragen werden.",{"type":22,"tag":47,"props":2558,"children":2559},{},[2560],{"type":22,"tag":23,"props":2561,"children":2562},{},[2563],{"type":27,"value":2564},"„Wir sehen in der Praxis, dass sich viele Fragen auf einen kleinen Kern an Unternehmenswissen konzentrieren.\nDa lohnt es sich besonders, mit KI-Agenten eine abteilungsübergreifende, zentrale Anlaufstelle zu schaffen.“",{"type":22,"tag":23,"props":2566,"children":2567},{},[2568],{"type":27,"value":2569},"Ich habe versichert, dass wir dieses Prinzip in Zukunft noch weiter ausbauen werden, etwa mit Agenten, die\nBestellprozesse automatisieren oder Dokumentationseinträge in komplexen Projekten erleichtern.",{"type":22,"tag":23,"props":2571,"children":2572},{},[2573],{"type":27,"value":2574},"Stefan hat abschliessend auf den Swiss AI Impact Report hingewiesen, der in Kürze von uns veröffentlicht wird.\nDarin werten wir eine Studie aus, die wir zu KI-Einsatzmöglichkeiten in Schweizer Unternehmen durchgeführt haben.\nUnsere Erkenntnisse wollen wir in einem nächsten Webinar teilen und dabei zeigen, welche Erfahrungen hiesige\nBetriebe bereits mit generativer KI gemacht haben.",{"type":22,"tag":35,"props":2576,"children":2578},{"id":2577},"fazit",[2579],{"type":27,"value":2580},"Fazit",{"type":22,"tag":23,"props":2582,"children":2583},{},[2584],{"type":27,"value":2585},"Ich habe den Eindruck, dass der Abend für viele Teilnehmende ein Aha-Erlebnis war. Wir konnten anschaulich\nverdeutlichen, dass generative KI-Systeme längst mehr sind als einfache Chatbots. Mit KI-Agenten lassen sich\nkonkrete betriebliche Herausforderungen angehen, die weit ins operative Geschäft hineinwirken. Vor allem aber\nbetonte ich den Stellenwert der Transparenz. Nur wenn klar ist, wie ein Agent zu seinen Handlungsempfehlungen\nkommt, trauen sich Unternehmen, Verantwortung an solche autonomen Systeme zu übergeben.",{"type":22,"tag":23,"props":2587,"children":2588},{},[2589],{"type":27,"value":2590},"Für mich persönlich bleibt festzuhalten, dass KI-Agenten immer nur so schlau sind wie das Wissen, das man ihnen\nzugänglich macht. In der Zusammenarbeit mit Kunden erleben wir jedoch, wie rasch sich das volle Potenzial entfalten\nlässt, wenn man die richtigen Informationen bereitstellt und die richtigen Rollen- und Sicherheitskonzepte definiert.\nGenau diese Mischung aus technischer Innovation und durchdachter Integration in bestehende Betriebsprozesse fasziniert\nmich.",{"title":7,"searchDepth":274,"depth":274,"links":2592},[2593,2594,2595,2596,2597,2598,2599,2600],{"id":2393,"depth":277,"text":2396},{"id":2435,"depth":277,"text":2438},{"id":2451,"depth":277,"text":2454},{"id":2495,"depth":277,"text":2498},{"id":2511,"depth":277,"text":2514},{"id":2527,"depth":277,"text":2530},{"id":2543,"depth":277,"text":2546},{"id":2577,"depth":277,"text":2580},"content:presentations:webinar_ki_agenten_in_der_praxis.md","presentations\u002Fwebinar_ki_agenten_in_der_praxis.md","presentations\u002Fwebinar_ki_agenten_in_der_praxis",{"_path":2605,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":2606,"description":2607,"eventName":2608,"subtitle":2609,"logo":2610,"eventDate":2611,"eventDuration":2612,"audience":2613,"links":2614,"body":2615,"_type":286,"_id":2672,"_source":288,"_file":2673,"_stem":2674,"_extension":291},"\u002Fpresentations\u002Fbbv_ai_impact","KI in Aktion bei der FMH","Der Übergang von Tarmed zu Tardoc und die damit verbundenen Herausforderungen für die Schweizer \nÄrzteschaft stehen im Fokus. Beleuchtet wird, wie die FMH mithilfe von KI-Technologien, unter anderem Chat-Bots und \nGPT-Lösungen, die Informations- und Beratungsarbeit unterstützen kann. Zugleich geht es um organisatorische und \ntechnische Aspekte sowie eine mögliche Zukunftsperspektive für einen sicheren und fortschrittlichen KI-Einsatz.\n","bbv - AI Impact Forum","Erfolgreiche Terifstrucktur-Umstellung von TARMED zu TARDOC","\u002Fimages\u002Fpresentations\u002Fai_impact\u002Fai_impact_2.png","2024-08-28","ca 20 Min.","100-150 Teilnehmende","https:\u002F\u002Fbbv.ch\u002Fimpressionen-swiss-ai-impact-forum-2024\u002F",{"type":19,"children":2616,"toc":2666},[2617,2622,2628,2633,2639,2644,2650,2655,2661],{"type":22,"tag":23,"props":2618,"children":2619},{},[2620],{"type":27,"value":2621},"Am 28. August 2024 habe ich gemeinsam mit Frau Stephanie Wyler-Marti von der FMH eine Präsentation als\nDiskussionsrunde mit dem Titel „KI in Aktion bei der FMH: KI als Schlüssel für die erfolgreiche Tarifstruktur-Umstellung\nvon Tarmed zu Tardoc“ gehalten. Die FMH, also die Foederatio Medicorum Helveticorum, ist der Dachverband der Schweizer\nÄrztinnen und Ärzte und vereint mehr als 70 Ärzteorganisationen mit über 45’000 Einzelmitgliedern. In dieser Funktion\nübernimmt sie zentrale Aufgaben wie Tarifentwicklung, Qualitätssicherung sowie die ärztliche Weiter- und Fortbildung.\nDie Umstellung von Tarmed auf Tardoc bedeutet für sämtliche ambulanten Leistungen eine neue Nomenklatur, neue Regeln\nund die Einführung zusätzlicher Kapitel und Tarife. Für Arztpraxen und die FMH entsteht dadurch ein enormer Informations-\nund Schulungsbedarf. Die gemeinsame Diskussion zielte darauf ab, zu beleuchten, wie moderne KI-Technologien in diesem\nKontext helfen können, den neuen Herausforderungen effizient zu begegnen.",{"type":22,"tag":35,"props":2623,"children":2625},{"id":2624},"der-sprung-von-tarmed-zu-tardoc",[2626],{"type":27,"value":2627},"Der Sprung von TARMED zu TARDOC",{"type":22,"tag":23,"props":2629,"children":2630},{},[2631],{"type":27,"value":2632},"Der Wechsel von Tarmed zu Tardoc stellt einen grossen Schritt für das gesamte Schweizer Gesundheitswesen dar. Zahlreiche\nneue Leistungen, gesplittete Abrechnungen und eine komplexere Struktur erhöhen den Aufwand für alle Beteiligten.\nPraxisinhaberinnen und Praxisinhaber müssen ihre Abrechnungssysteme anpassen, Mitarbeitende schulen und sicherstellen,\ndass alle neuen Vorgaben korrekt umgesetzt werden. Gleichzeitig steht auch die FMH vor der Aufgabe, kompetent über den\nTarifwechsel zu informieren, individuelle Fragen zu beantworten und Tariflücken schnell zu identifizieren.\nDie Umstellung betrifft schliesslich jeden ambulant tätigen Arzt und jede ambulant tätige Ärztin in der Schweiz,\nweshalb die Menge an Anfragen entsprechend hoch ist.",{"type":22,"tag":35,"props":2634,"children":2636},{"id":2635},"warum-ki",[2637],{"type":27,"value":2638},"Warum KI?",{"type":22,"tag":23,"props":2640,"children":2641},{},[2642],{"type":27,"value":2643},"In meiner Präsentation erläuterte ich die Gründe, weshalb die FMH beim Tarifwechsel intensiv über den Einsatz\nvon KI nachdenkt. Zum einen gibt es moderne Möglichkeiten wie Chat-Bots oder GPT-Lösungen, die sich ideal dafür\neignen, häufig wiederkehrende Fragen zu beantworten. Zum anderen bietet eine KI-gestützte Lösung die Chance, das\ngesammelte Tarifwissen der FMH so aufzubereiten, dass viele Anliegen automatisiert und dennoch qualitativ hochwertig\nbeantwortet werden können. Ein solcher Ansatz steigert nicht nur die Dienstleistungsqualität, sondern entlastet auch\ndie Mitarbeitenden, die sich dadurch komplexeren Anfragen und individuellen Beratungen widmen können. Nicht zuletzt\nhat die FMH bereits 2018 mit einem hohen Anfragenaufkommen Erfahrungen gesammelt, was sie motivierte, neue Technologien\nzu nutzen, um die Mitgliederzufriedenheit zu erhöhen.",{"type":22,"tag":35,"props":2645,"children":2647},{"id":2646},"technische-und-organisatorische-herausforderungen",[2648],{"type":27,"value":2649},"Technische und organisatorische Herausforderungen",{"type":22,"tag":23,"props":2651,"children":2652},{},[2653],{"type":27,"value":2654},"Die Präsentation widmete sich ausführlich der Frage, wie eine KI-Lösung aussehen kann, die nur auf interne\nInformationen zugreift und dabei keine falschen Antworten „erfindet“. Genau hier liegt eine zentrale Herausforderung:\nDie KI muss aus einer verlässlichen Datenbank gespeist werden und darf lediglich Inhalte wiedergeben, die zuvor\nvalidiert wurden. Dafür bietet sich ein Agenten-Konzept an, in dem spezielle „Agenten“ je nach Fragestellung\nunterschiedliche Datenquellen nutzen. Beispielsweise könnte ein „Handbuch-Agent“ allgemeine Informationen aus dem\nFMH-Handbuch liefern, während ein „Regel-Agent“ Zugriff auf positionsspezifische Abrechnungsregeln hat.\nErgänzend müsste es technische Sperren geben, die verhindern, dass die KI ungesicherte Informationen aus\nexternen Quellen heranzieht. Um nachvollziehen zu können, wie eine Antwort zustande kommt und ob Wissenslücken\nbestehen, ist ein Agenten-Logbuch sinnvoll, das sämtliche Fragen und Antworten protokolliert.\nSo lassen sich auch potenzielle Fehlerquellen schnell lokalisieren, und die Datenbasis kann stetig verbessert werden.",{"type":22,"tag":35,"props":2656,"children":2658},{"id":2657},"erfahrungen-und-ausblick",[2659],{"type":27,"value":2660},"Erfahrungen und Ausblick",{"type":22,"tag":23,"props":2662,"children":2663},{},[2664],{"type":27,"value":2665},"Zum Ende der Präsentation stellte ich dar, welche Auswirkungen der KI-Einsatz auf die Arbeitsweise der FMH haben könnte.\nDie Entlastung durch automatisierte Antworten würde Freiräume für anspruchsvolle und persönlichere Beratungen schaffen.\nZugleich könnte die FMH aus den Anfragen wertvolle Erkenntnisse gewinnen, um tariffreie Bereiche zu identifizieren und\ngegebenenfalls schneller zu schliessen. Darüber hinaus lässt sich die KI-Technologie perspektivisch in weitere Bereiche\nder FMH integrieren, von der Fort- und Weiterbildung bis hin zur Qualitätssicherung. Der Tarifwechsel hat gezeigt, dass\ndie Gesundheitsbranche vor immer komplexeren Aufgaben steht, die mit klassischen Methoden nur schwer zu bewältigen sind.\nKI bietet hier einen modernen Ansatz, um Prozesse effizienter zu gestalten und den hohen Erwartungen der Mitglieder\ngerecht zu werden. Für die Zukunft bleibt das Potenzial gross: Eine laufende Optimierung und ein verantwortungsvoller\nUmgang mit Daten können dazu beitragen, den Tarifwechsel langfristig erfolgreich zu begleiten und gleichzeitig den Weg\nfür weitere digitale Innovationen zu ebnen.",{"title":7,"searchDepth":274,"depth":274,"links":2667},[2668,2669,2670,2671],{"id":2624,"depth":277,"text":2627},{"id":2635,"depth":277,"text":2638},{"id":2646,"depth":277,"text":2649},{"id":2657,"depth":277,"text":2660},"content:presentations:bbv_ai_impact.md","presentations\u002Fbbv_ai_impact.md","presentations\u002Fbbv_ai_impact",{"_path":2676,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":2677,"description":2678,"eventName":2679,"subtitle":2680,"logo":2681,"eventDate":2682,"eventDuration":2364,"audience":2365,"views":2683,"videoId":2684,"body":2685,"_type":286,"_id":2851,"_source":288,"_file":2852,"_stem":2853,"_extension":291},"\u002Fpresentations\u002Fwebinar_agent_rag","Webinar: Agent-RAG","RAG (Retrieval Augmented Generation) verbindet KI-Modelle mit firmeneigenen Daten, um aus umfangreichen Quellen \npräzise Antworten zu erzeugen. Die zugrunde liegende Pipeline bereitet Dokumente strukturiert auf, \nerkennt Benutzerabsichten und extrahiert relevante Textstellen aus einer Wissensdatenbank. Dabei spielen \ndas sinnvolle Zerteilen von Texten, die Verwaltung von Metadaten und die Vermeidung von Halluzinationen \neine zentrale Rolle.\n","bbv KI Webinar - Agent-RAG","Vom Dokument zum Wissen","\u002Fimages\u002Fpresentations\u002Fwebinar4\u002Frag_agent.png","2024-07-03",295,"sGBbpHa7U5k",{"type":19,"children":2686,"toc":2843},[2687,2692,2695,2700,2708,2714,2719,2724,2730,2735,2740,2748,2753,2758,2764,2769,2774,2780,2785,2793,2798,2804,2809,2814,2820,2825,2830,2838],{"type":22,"tag":23,"props":2688,"children":2689},{},[2690],{"type":27,"value":2691},"In meinem letzten Webinar habe ich gemeinsam mit meinem Kollegen Martin König und unserem Moderator\nStefan Heberling darüber gesprochen, wie Retrieval Augmented Generation (RAG) in der Praxis funktioniert.\nWir wollten zeigen, welche technischen Details sich hinter diesem Ansatz verbergen und warum er für viele\nAnwendungen so wertvoll ist. Dabei ging es vor allem um das Zusammenspiel zwischen verschiedenen Pipelines,\ndie dafür sorgen, dass ein KI-Modell firmeneigene oder öffentlich verfügbare Daten heranziehen und intelligent nutzen kann.",{"type":22,"tag":30,"props":2693,"children":2694},{":video-id":32},[],{"type":22,"tag":23,"props":2696,"children":2697},{},[2698],{"type":27,"value":2699},"Martin hat das Webinar damit eröffnet, dass wir diesmal mehr Fachbegriffe als sonst verwenden würden und uns deshalb\neingangs um grundlegende Erklärungen kümmern. Das betraf vor allem das Large Language Model (LLM), das im Zentrum\neines jeden KI-Agenten steht, und den Begriff des System Prompts, der festlegt, wie die Antworten des Modells formuliert\nwerden. Ausserdem machten wir klar, dass der Query – also die Frage des Nutzers – und der zusätzliche Kontext aus\neiner Wissensdatenbank zusammenspielen müssen, um eine umfassende Antwort zu liefern.",{"type":22,"tag":47,"props":2701,"children":2702},{},[2703],{"type":22,"tag":23,"props":2704,"children":2705},{},[2706],{"type":27,"value":2707},"“Ein Large Language Model ist das Herzstück eines KI-Agenten: Es erzeugt fortlaufenden Text, indem es das bereits\nGesagte sinnvoll ergänzt und damit die Grundlage für jede generative Anwendung bildet.”",{"type":22,"tag":35,"props":2709,"children":2711},{"id":2710},"überblick-über-die-pipelines",[2712],{"type":27,"value":2713},"Überblick über die Pipelines",{"type":22,"tag":23,"props":2715,"children":2716},{},[2717],{"type":27,"value":2718},"Der Kern von RAG lässt sich grob in drei Abschnitte aufteilen. Diese sogenannten Pipelines bestimmen, wie Informationen\naufgenommen, vorbereitet und schliesslich genutzt werden. In der ersten Pipeline, der Ingestion Pipeline, geht es darum,\nDokumente aus unterschiedlichen Quellen auszuwählen, zu bereinigen und zu strukturieren. Anschliessend werden diese Daten\nin einer Wissensdatenbank abgelegt, die sie später schnell wieder verfügbar machen kann.",{"type":22,"tag":23,"props":2720,"children":2721},{},[2722],{"type":27,"value":2723},"Die zweite Pipeline, die Query Pipeline, kümmert sich um alles, was beim Stellen einer Benutzerfrage passiert.\nDabei wird untersucht, was der Nutzer überhaupt will und wie man seine Anfrage im Zweifel umformulieren kann,\num relevantere Treffer zu erzielen. In der dritten Pipeline, der Retrieval Pipeline, werden schliesslich die\npassenden Antworten aus einer Vektordatenbank gesucht und zusammen mit der ursprünglichen Frage zu einem flüssigen,\nverständlichen Text verarbeitet.",{"type":22,"tag":35,"props":2725,"children":2727},{"id":2726},"die-ingestion-pipeline",[2728],{"type":27,"value":2729},"Die Ingestion Pipeline",{"type":22,"tag":23,"props":2731,"children":2732},{},[2733],{"type":27,"value":2734},"Der erste Schritt in einem RAG-System umfasst das Einlesen und Verarbeiten von Daten, bevor sie in eine\nWissensdatenbank wandern. Bei diesem Vorgang wird entschieden, welche Dokumente man überhaupt einbeziehen\nmöchte und ob möglicherweise Zugriffsrechte zu beachten sind. Falls interne Richtlinien verbieten, dass bestimmte\nDateien mit einem KI-System geteilt werden, kann man diesen Content frühzeitig aussortieren.",{"type":22,"tag":23,"props":2736,"children":2737},{},[2738],{"type":27,"value":2739},"Sobald die richtigen Daten ausgewählt sind, geht es an ihre Aufteilung in kleine Abschnitte. Dieser Vorgang wird\nmeist als Chunking bezeichnet und hat den Zweck, das Wissen so zu zerteilen, dass das Modell später genau die richtigen\nAusschnitte abrufen kann. Ein einfaches Verfahren ist das Aufteilen in feste Länge, etwa alle paar tausend Wörter.\nOft ist es jedoch sinnvoll, die Struktur eines Textes beizubehalten und an Überschriften oder thematischen Abschnitten\nzu schneiden. Dadurch wird sichergestellt, dass ein Abschnitt in sich schlüssig bleibt und sich nicht mit ganz anderen\nThemen vermischt.",{"type":22,"tag":47,"props":2741,"children":2742},{},[2743],{"type":22,"tag":23,"props":2744,"children":2745},{},[2746],{"type":27,"value":2747},"“Ein perfekt gemachter Textsplitter teilt das Dokument so, wie wir es als Menschen ebenfalls tun würden: nach\nÜberschriften, nach zusammenhängenden Absätzen oder nach klar abgegrenzten Textboxen.”",{"type":22,"tag":23,"props":2749,"children":2750},{},[2751],{"type":27,"value":2752},"Im Webinar haben wir auch auf das Problem hingewiesen, dass Standardwerkzeuge oft nicht wissen, welche Elemente\neines Dokuments überflüssig sind. Sie übernehmen manchmal Navigationsmenüs, Links und Bildunterschriften an unpassenden\nStellen. Dadurch entstehen Fragmente, die nur bedingt nützlich sind. Eine massgeschneiderte Lösung, die genau die zu\nverwendenden Inhalte erkennt und sinnvoll in Chunks aufteilt, kann hier Abhilfe schaffen.",{"type":22,"tag":23,"props":2754,"children":2755},{},[2756],{"type":27,"value":2757},"Sobald die Abschnitte erstellt und bereinigt sind, lässt sich jeder Einzelne mithilfe eines Sprachmodells in einen\nnumerischen Vektor verwandeln. Diese Vektoren liegen später in der Wissensdatenbank und ermöglichen das semantische\nSuchen. Metadaten wie Kategorien, Zugriffsrechte oder Zeitstempel können den Inhalt ergänzen. Das erleichtert den\nspäteren Umgang mit verschiedenen Dokumentversionen und verhindert, dass vertrauliche Informationen an unbefugte\nBenutzer gelangen.",{"type":22,"tag":35,"props":2759,"children":2761},{"id":2760},"die-query-pipeline",[2762],{"type":27,"value":2763},"Die Query Pipeline",{"type":22,"tag":23,"props":2765,"children":2766},{},[2767],{"type":27,"value":2768},"Sobald ein Nutzer eine Frage stellt, tritt die Query Pipeline in Aktion. Ein wichtiges Thema ist dabei die Intent\nRecognition. Wir wollen verstehen, was hinter der Frage steckt. Wurde ein Dokument hochgeladen und soll einfach nur\nzusammengefasst werden? Oder möchte jemand nach Quellen suchen, die im Firmennetz liegen? Eine einfache Möglichkeit\nbesteht darin, ein Sprachmodell mit Beispielsätzen zu füttern und es entscheiden zu lassen, in welche Kategorie die\nAnfrage fällt. Komplexere Szenarien können mithilfe eines eigenen Klassifizierungsmodells abgedeckt werden.",{"type":22,"tag":23,"props":2770,"children":2771},{},[2772],{"type":27,"value":2773},"In manchen Fällen ist es zudem sinnvoll, den Query – also die eigentliche Benutzerfrage – umzuschreiben. Dieses\nsogenannte Query Rewriting kann helfen, statt einer sehr engen Frage eine umfassendere Version zu erstellen. Im Webinar\nhaben wir zum Beispiel über das Verfahren namens Hypothetical Document Embedding gesprochen. Dabei wird aus der\nFrage eine hypothetische Antwort erzeugt, die wiederum vektorisiert wird, um besser mit den vorhandenen Dokumenten\nabgeglichen zu werden. Bei der finalen Ausgabe bekommt der Nutzer natürlich die Antwort auf seine Originalfrage,\nnur im Hintergrund nutzen wir eine umgeschriebene Fassung für die Datenbank-Suche.",{"type":22,"tag":35,"props":2775,"children":2777},{"id":2776},"die-retrieval-pipeline",[2778],{"type":27,"value":2779},"Die Retrieval Pipeline",{"type":22,"tag":23,"props":2781,"children":2782},{},[2783],{"type":27,"value":2784},"Der letzte Schritt entscheidet, wie die eigentliche Antwort generiert wird. Die Retrieval Pipeline sucht in der\nWissensdatenbank nach den passenden Textstellen, indem sie den Vektor der Nutzerfrage mit den Vektoren der Chunks\nvergleicht. Die ähnlichsten Chunks werden zunächst ausgewählt, da sie inhaltlich am besten passen. Wenn zu viele\nmögliche Treffer vorhanden sind, kann man die Liste mit sogenannten Re-Ranking-Methoden noch weiter verfeinern.\nEin Sprachmodell bewertet dann zum Beispiel, welche Chunks wirklich am relevantesten sind, und sortiert sie neu.",{"type":22,"tag":47,"props":2786,"children":2787},{},[2788],{"type":22,"tag":23,"props":2789,"children":2790},{},[2791],{"type":27,"value":2792},"“Retrieval bedeutet, dass mithilfe einer Anfrage im Vektorraum die passenden Textabschnitte gefunden werden, indem\nwir den semantischen Abstand bestimmen und so herausfiltern, welche inhaltlich am nächsten liegen.”",{"type":22,"tag":23,"props":2794,"children":2795},{},[2796],{"type":27,"value":2797},"Nach dem Retrieval kann das System den Umfang der einfliessenden Textstücke beschränken, um das generierende\nSprachmodell nicht mit zu viel Kontext zu überfrachten. Zu wenige Chunks sind aber ebenso problematisch, weil\ndann womöglich relevante Informationen fehlen. Am Ende werden alle ausgewählten Chunks zusammen mit der Originalfrage\nund einem System Prompt an das grosse Sprachmodell geschickt. Diese drei Elemente – System Prompt, Kontext und Query –\nmünden schliesslich in einen zusammenhängenden Text als Antwort.",{"type":22,"tag":35,"props":2799,"children":2801},{"id":2800},"halluzination-und-fehlerquellen",[2802],{"type":27,"value":2803},"Halluzination und Fehlerquellen",{"type":22,"tag":23,"props":2805,"children":2806},{},[2807],{"type":27,"value":2808},"Im Webinar wurde oft gefragt, ob ein RAG-System halluzinieren kann. Streng genommen kann jeder Sprachgenerator\nFakten erfinden oder Details vermischen, wenn er nicht den richtigen Kontext hat. RAG verringert jedoch die\nWahrscheinlichkeit solcher Fehler. Die KI stützt sich bei ihren Antworten auf externe und meist geprüfte Inhalte\naus der Wissensdatenbank. Gleichzeitig kann sie aber immer noch ihr allgemeines Sprachwissen nutzen, was in seltenen\nFällen zu falschen Ergänzungen führen kann. Der wesentliche Vorteil liegt darin, dass das Modell mit abfragbaren\nQuellen arbeitet, statt alles aus seinem eigenen “Gedächtnis” zusammenzuspinnen.",{"type":22,"tag":23,"props":2810,"children":2811},{},[2812],{"type":27,"value":2813},"Wenn ein Dokument sehr umfangreich ist, kann ein anderes Problem auftreten: Das Modell erhält nur Auszüge. Wer eine\nglobale Zusammenfassung des gesamten Inhalts erwartet, stösst an die kontextuelle Begrenzung. Es gehört daher zur\nPlanung eines RAG-Systems, sich zu überlegen, ob ein Nutzer das komplette Dokument benötigt oder nur einzelne Details.\nModerne Sprachmodelle bieten längere Kontextfenster an, lösen dieses Problem teilweise und erlauben bei Bedarf\numfangreichere Analysen.",{"type":22,"tag":35,"props":2815,"children":2817},{"id":2816},"fazit-und-ausblick",[2818],{"type":27,"value":2819},"Fazit und Ausblick",{"type":22,"tag":23,"props":2821,"children":2822},{},[2823],{"type":27,"value":2824},"Meine Zusammenfassung des Webinars hat gezeigt, wie Retrieval Augmented Generation in der Praxis funktioniert.\nEs ist nicht nur eine clevere Methode, um riesige Datenmengen handhabbar zu machen, sondern auch eine Chance, die\ninterne Recherche in Unternehmen nachhaltig zu verbessern. Wer einmal erlebt hat, wie schnell ein KI-System eine\npräzise Antwort liefert, wird selten wieder auf starre Dateistrukturen, langwierige Volltextsuchen oder manuelles\nDurchscrollen zurückgreifen.",{"type":22,"tag":23,"props":2826,"children":2827},{},[2828],{"type":27,"value":2829},"Das Einrichten eines RAG-Systems braucht dennoch Expertise. Die richtige Konfiguration der Ingestion Pipeline, die\nIntegration von Zugriffsrechten und Metadaten sowie die Feinjustierung bei Query und Retrieval stellen oft spezielle\nAnforderungen. Im nächsten Webinar legen wir den Fokus stärker auf den businessorientierten Teil von generativen\nKI-Lösungen. Wir wollen dort Fragen klären wie: “Was unterscheidet Microsoft Copilot von ChatGPT?” und “Wann braucht\nman zusätzlich eine AI-Lösung wie den AI Hub?” Damit möchten wir denen eine Orientierung geben, die Entscheidungen\nrund um die Einführung von KI-Systemen treffen müssen, ohne jedes technische Detail kennen zu müssen.",{"type":22,"tag":47,"props":2831,"children":2832},{},[2833],{"type":22,"tag":23,"props":2834,"children":2835},{},[2836],{"type":27,"value":2837},"“Wer einmal erfahren hat, wie effizient ein RAG-System präzise Antworten liefert, möchte nicht mehr zu den klassischen\nRecherchemöglichkeiten zurückkehren.”",{"type":22,"tag":23,"props":2839,"children":2840},{},[2841],{"type":27,"value":2842},"Damit war das Webinar beendet und die wichtigsten Fragen zu RAG geklärt. Ich bedanke mich bei allen, die mit dabei\nwaren, und freue mich auf das nächste Mal, wenn wir die geschäftlichen Perspektiven und strategischen Überlegungen\nvertiefen.",{"title":7,"searchDepth":274,"depth":274,"links":2844},[2845,2846,2847,2848,2849,2850],{"id":2710,"depth":277,"text":2713},{"id":2726,"depth":277,"text":2729},{"id":2760,"depth":277,"text":2763},{"id":2776,"depth":277,"text":2779},{"id":2800,"depth":277,"text":2803},{"id":2816,"depth":277,"text":2819},"content:presentations:webinar_agent_rag.md","presentations\u002Fwebinar_agent_rag.md","presentations\u002Fwebinar_agent_rag",{"_path":2855,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":2856,"description":2857,"eventName":2858,"subtitle":2859,"logo":2860,"eventDate":2861,"eventDuration":2862,"audience":2863,"body":2864,"_type":286,"_id":2989,"_source":288,"_file":2990,"_stem":2991,"_extension":291},"\u002Fpresentations\u002Findustrieforum_2025","KI-Challenge","Beim 11. Industrieforum 2025 präsentierte ich meine Vision für KI-gestütztes Wissensmanagement, \ndas implizites Wissen bewahrt und durch kontextbasierte Suchmethoden wie Retrieval Augmented Generation (RAG) \neffizient nutzbar macht. Er beschrieb KI-Agenten als virtuelle Mitarbeiter, die nicht nur Wissen strukturieren, \nsondern auch in Echtzeit neue Erkenntnisse generieren können. Trotz der Herausforderungen wie Informationsüberflutung \nund Datenschutz zeigte er, wie KI transformative Möglichkeiten für eine zukunftsfähige Wissenskultur bietet.\"\n","11. «Industrieforum 2025»","Mit KI-Agenten zu Expertenwissen auf Knopfdruck","\u002Fimages\u002Fpresentations\u002Findustrieforum_2025\u002Findustrieforum.png","2024-06-04","1 Min (18 Min.)","250-300 Teilnehmende",{"type":19,"children":2865,"toc":2980},[2866,2871,2876,2881,2885,2891,2896,2901,2907,2912,2918,2923,2929,2934,2939,2945,2950,2956,2961,2966,2970,2975],{"type":22,"tag":23,"props":2867,"children":2868},{},[2869],{"type":27,"value":2870},"Ich begann meinen Pitch, indem ich ein Notizbuch hochhielt und sagte: „Stellen Sie sich vor, all mein Wissen und meine\nErfahrungen wären hier festgehalten. Doch so etwas gibt es leider nicht wirklich.“ In Unternehmen geht so viel\nimplizites Wissen verloren, wenn Mitarbeitende die Firma verlassen. Genau dieses Problem wollte ich adressieren.",{"type":22,"tag":23,"props":2872,"children":2873},{},[2874],{"type":27,"value":2875},"Mein Pitch war Teil des 11. «Industrieforum 2025», das unter dem Motto „Technologie, Mensch, Kultur – im Einklang“\nstand. Das Forum bot eine Plattform für inspirierenden Austausch zwischen Branchenführern und über 25 Ausstellern,\ndie die neuesten Technologien und Innovationen präsentierten. Ziel des Events war es, digitale Transformation in\nHarmonie mit menschlichen Werten zu diskutieren und neue Wege für die Zusammenarbeit zu erkunden.",{"type":22,"tag":23,"props":2877,"children":2878},{},[2879],{"type":27,"value":2880},"Nach meinem einminütigen Pitch durfte das Publikum abstimmen, welche Vorträge am Nachmittag gehalten werden sollten.\nLeider erhielt ich knapp nicht genug Stimmen, weshalb meine Präsentation nicht live gehalten wurde und nur als Video\nverfügbar ist. Dennoch hat mir der Pitch grossen Spass gemacht und zeigte eindrucksvoll, wie Künstliche Intelligenz\nhelfen kann, implizites Wissen zu bewahren und aktiv nutzbar zu machen. Diese Idee ist zentral für die Zukunft des\nWissensmanagements.",{"type":22,"tag":30,"props":2882,"children":2884},{":video-id":2883},"s6qEXDkxvOg",[],{"type":22,"tag":35,"props":2886,"children":2888},{"id":2887},"unternehmenswissen-mit-künstlicher-intelligenz-sicherstellen-ein-praxisbeispiel",[2889],{"type":27,"value":2890},"Unternehmenswissen mit Künstlicher Intelligenz sicherstellen – Ein Praxisbeispiel",{"type":22,"tag":23,"props":2892,"children":2893},{},[2894],{"type":27,"value":2895},"In vielen Unternehmen steckt das wertvollste Wissen nicht in Handbüchern oder Datenbanken, sondern in den\nKöpfen langjähriger Mitarbeitender. Diese „implizite Expertise“ geht jedoch schnell verloren, sobald wichtige\nSchlüsselpersonen das Unternehmen verlassen oder sich in andere Abteilungen weiterentwickeln. Die Folge:\nAndere Mitarbeitende stehen plötzlich ohne die erforderlichen Kenntnisse da, müssen dieselben Probleme neu durchdenken\nund in zeitaufwendigen Prozessen eine Lösung erarbeiten. Auf lange Sicht bedeutet das nicht nur einen Verlust an\nInnovationskraft und Effizienz, sondern kann auch erhebliche Kosten verursachen.",{"type":22,"tag":23,"props":2897,"children":2898},{},[2899],{"type":27,"value":2900},"Auf dem 11. Industrieforum 2025 am 04.06.2024 habe ich gemeinsam mit der bbv Software Services AG eine Präsentation\ngehalten, die genau dieses Problem in den Fokus rückt. Unter dem Titel „Unternehmenswissen mit Künstlicher Intelligenz\nsicherstellen“ haben wir aufgezeigt, wie die Anwendung moderner KI-Systeme – insbesondere sogenannter Large\nLanguage Models (LLMs) – dazu beitragen kann, implizites Wissen zu erfassen, zu strukturieren und für alle\nMitarbeitenden zugänglich zu machen. Der zentrale Ansatz basiert dabei auf der Idee von „KI-Agenten“, also\nvirtuellen Assistenten, die im Prinzip wie Kolleginnen oder Kollegen interagieren: Sie beantworten Fragen,\nführen Recherchen durch, befragen gegebenenfalls Expertinnen und Experten und fassen neu gewonnene Informationen an\nzentraler Stelle zusammen.",{"type":22,"tag":35,"props":2902,"children":2904},{"id":2903},"das-zugrunde-liegende-problem-implizites-wissen-geht-verloren",[2905],{"type":27,"value":2906},"Das zugrunde liegende Problem: Implizites Wissen geht verloren",{"type":22,"tag":23,"props":2908,"children":2909},{},[2910],{"type":27,"value":2911},"Implizites Wissen ist schwer zu greifen, da es eben nicht schriftlich fixiert ist, sondern „zwischen den Zeilen“\nexistiert. Ein Mitarbeitender, der über Jahre hinweg ein bestimmtes Produkt oder einen speziellen Prozess betreut\nhat, weiss oft genau, wo die Fallstricke liegen und welche Massnahmen ergriffen werden müssen, um die Qualität\nsicherzustellen. Dieses Wissen wird nur selten dokumentiert – man weiss es eben aus der alltäglichen Praxis.\nWenn jedoch diese Schlüsselperson das Unternehmen verlässt, ist dieses Know-how nur schwer rekonstruierbar.\nZudem sind verbleibende Kolleginnen und Kollegen häufig nicht im Detail mit den Abläufen vertraut und müssen sich\nin aufwendigen Prozessen das Wissen neu aneignen. Das Ergebnis: steigende Kosten, längere Produktions-\nund Entwicklungszeiten und häufig wiederkehrende Fehler.",{"type":22,"tag":35,"props":2913,"children":2915},{"id":2914},"der-ki-ansatz-wissensmanagement-mithilfe-von-ki-agenten",[2916],{"type":27,"value":2917},"Der KI-Ansatz: Wissensmanagement mithilfe von KI-Agenten",{"type":22,"tag":23,"props":2919,"children":2920},{},[2921],{"type":27,"value":2922},"Ein wichtiger Bestandteil der Präsentation war die Demonstration eines Use Cases aus der Lebensmittelproduktion.\nDas Beispiel drehte sich um die Frage, wie sich die Frische von Produkten während des gesamten Lieferprozesses\naufrechterhalten lässt. Ein KI-Agent kann hier als eine Art „virtueller Mitarbeiter“ fungieren. Er erhält die Anfrage:\n„Wie stellen wir sicher, dass unsere Produkte frisch bleiben, von der Produktion bis zur Auslieferung an den Kunden?“\nStellt sich heraus, dass die Antwort nicht in seinen vorhandenen Daten liegt, leitet er die Frage an eine ausgewiesene\nExpertin oder einen Experten weiter. Sobald deren Antwort vorliegt, speichert der KI-Agent diese Information in der\nWissensdatenbank und legt zusätzlich einen Glossareintrag an – in diesem Beispiel für den Fachbegriff „Frost Flow“.\nDieses Vorgehen ermöglicht es, das einmal erarbeitete Wissen nicht nur an die unmittelbar Beteiligten zu vermitteln,\nsondern dauerhaft und für alle Mitarbeitenden verfügbar zu machen.",{"type":22,"tag":35,"props":2924,"children":2926},{"id":2925},"llms-und-prompting-wie-künstliche-intelligenz-sprachverständnis-erlangt",[2927],{"type":27,"value":2928},"LLMs und Prompting: Wie künstliche Intelligenz Sprachverständnis erlangt",{"type":22,"tag":23,"props":2930,"children":2931},{},[2932],{"type":27,"value":2933},"Die technische Grundlage für KI-Agenten bilden sogenannte Large Language Models, die mit riesigen Datenmengen\ntrainiert wurden. Im Kern lernen diese Modelle, das nächste Wort in einem Satz vorherzusagen. Dadurch entwickeln\nsie ein erstaunliches Verständnis für Grammatik, Satzbau und sogar für komplexe Zusammenhänge. In der Praxis sind\nsie jedoch nur so gut wie die Anweisungen, die man ihnen gibt – das sogenannte „Prompting“. Hierbei muss\nbeispielsweise definiert werden, aus welcher Perspektive das Modell antworten soll, welche Informationen ihm zur\nVerfügung stehen und welche Art von Antwort gewünscht ist (etwa besonders detailliert oder kurz und prägnant).",{"type":22,"tag":23,"props":2935,"children":2936},{},[2937],{"type":27,"value":2938},"Ergänzend zu dieser Grundstruktur kann man mithilfe von „Retrieval Augmented Generation (RAG)“ firmeneigene\nDatenbanken einbinden. Das bedeutet, dass der Agent nicht nur aus seinem internen Training schöpft, sondern aktiv\nauf aktuelles und spezifisches Wissen aus dem Unternehmen zugreift. Dieses Zusammenspiel macht es möglich, dass die\nAntworten nicht nur sprachlich korrekt sind, sondern auch den konkreten Kontext des Unternehmens einbeziehen und\nrelevante Details liefern.",{"type":22,"tag":35,"props":2940,"children":2942},{"id":2941},"multi-modale-interaktion-und-passgenaue-antworten",[2943],{"type":27,"value":2944},"Multi-Modale Interaktion und passgenaue Antworten",{"type":22,"tag":23,"props":2946,"children":2947},{},[2948],{"type":27,"value":2949},"Darüber hinaus sind moderne KI-Systeme in der Lage, nicht nur mit Textdaten umzugehen, sondern auch Sprache, Bilder\noder andere Dateien zu verarbeiten. Beispielsweise könnte der Agent ein hochgeladenes Foto auswerten oder eine\nSprachnachricht analysieren, um daraus kontextbezogene Antworten abzuleiten. Interessant ist ferner die Möglichkeit,\ndieselbe Information an verschiedene Rollen oder Abteilungen angepasst zu präsentieren. Während ein Betriebsleiter\nvielleicht eine genaue technische Beschreibung benötigt, reicht einem Umweltbeauftragten womöglich eine kurze\nZusammenfassung mit Fokus auf Umweltaspekte.",{"type":22,"tag":35,"props":2951,"children":2953},{"id":2952},"kosten-aufwand-und-chancen",[2954],{"type":27,"value":2955},"Kosten, Aufwand und Chancen",{"type":22,"tag":23,"props":2957,"children":2958},{},[2959],{"type":27,"value":2960},"Natürlich geht mit der Einführung solcher KI-Systeme ein nicht unerheblicher Aufwand einher. Unternehmen müssen\nzunächst entscheiden, ob sie ein eigenes Modell trainieren oder ein bereits vorhandenes Modell verwenden und für\nihre Bedürfnisse feintunen wollen. Beides erfordert Investitionen, sei es in Form von Hardware, KI-Expertise oder\nhochwertigen Daten, die das Modell optimieren sollen. Dennoch zeigen erste Erfahrungen, dass sich diese Bemühungen\nlangfristig auszahlen, insbesondere wenn dadurch Wissen dauerhaft gesichert und Mehrfacharbeiten reduziert werden.",{"type":22,"tag":23,"props":2962,"children":2963},{},[2964],{"type":27,"value":2965},"Gerade in Zeiten, in denen sich Belegschaften schnell verändern, ist die Sicherung von Unternehmenswissen entscheidend,\num Wettbewerbsfähigkeit und Innovationsfreude zu erhalten. KI-Agenten, die Wissen sammeln, strukturieren und\nbedarfsgerecht ausgeben, können dazu einen entscheidenden Beitrag leisten.",{"type":22,"tag":35,"props":2967,"children":2968},{"id":2577},[2969],{"type":27,"value":2580},{"type":22,"tag":23,"props":2971,"children":2972},{},[2973],{"type":27,"value":2974},"Mit meinem Vortrag beim 11. Industrieforum 2025 konnte ich zusammen mit der bbv Software Services AG zeigen,\ndass KI-Agenten nicht nur ein theoretisches Konzept sind, sondern in der Praxis handfeste Ergebnisse liefern.\nVom Erfassen impliziten Wissens über die Erstellung von Glossareinträgen bis hin zur Auslieferung kontextsensitiver\nAntworten: Moderne KI-Systeme bieten Unternehmen ein mächtiges Werkzeug, um Know-how zu bewahren und neuen\nMitarbeitenden schnell zugänglich zu machen. So kann verhindert werden, dass wertvolles Erfahrungswissen über Bord geht,\nsobald ein Mitarbeitender das Haus verlässt.",{"type":22,"tag":23,"props":2976,"children":2977},{},[2978],{"type":27,"value":2979},"Künstliche Intelligenz bietet somit nicht nur Potenzial für Prozessautomatisierung und Datenanalyse, sondern\neröffnet auch einen völlig neuen Blick auf das Thema Wissensmanagement – ein Blick, der den Menschen in den\nMittelpunkt stellt und sicherstellt, dass sein Wissen und seine Erfahrungen nicht verloren gehen, sondern im\nGegenteil zu einer zentralen Ressource werden, von der das gesamte Unternehmen profitiert.",{"title":7,"searchDepth":274,"depth":274,"links":2981},[2982,2983,2984,2985,2986,2987,2988],{"id":2887,"depth":277,"text":2890},{"id":2903,"depth":277,"text":2906},{"id":2914,"depth":277,"text":2917},{"id":2925,"depth":277,"text":2928},{"id":2941,"depth":277,"text":2944},{"id":2952,"depth":277,"text":2955},{"id":2577,"depth":277,"text":2580},"content:presentations:industrieforum_2025.md","presentations\u002Findustrieforum_2025.md","presentations\u002Findustrieforum_2025",{"_path":2993,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":2994,"description":2995,"eventName":2996,"subtitle":2859,"logo":2997,"eventDate":2998,"eventDuration":1699,"audience":2999,"carouselItems":3000,"body":3008,"_type":286,"_id":3218,"_source":288,"_file":3219,"_stem":3220,"_extension":291},"\u002Fpresentations\u002Fswico","Wissensmanagement","Wissensmanagement mit KI-Agenten ermöglicht es, das sogenannte „Wissenslabyrinth“ in Unternehmen \nzu durchdringen, indem generative Sprachmodelle mit firmenspezifischen Datenquellen verknüpft werden. \nSo können virtuelle Mitarbeiter (Agenten) neue Mitarbeitende bei der Informationssuche unterstützen und \nExpertenwissen in Echtzeit zugänglich machen. Bei einem Event von Swico wurde diese Lösung anhand eines \nProof of Concept präsentiert – unterbrochen von einem Feueralarm, der allen eine kurze Verschnaufpause bescherte.\"\n","SWICO - KI in Aktion","\u002Fimages\u002Fpresentations\u002Fswico\u002Fwissensmanagement.png","2024-04-19","50-80 Teilnehmende",[3001,3002,3003,3004,3005,3006,3007],"\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_2.png","\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_3.png","\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_4.png","\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_5.png","\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_6.png","\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_7.png","\u002Fimages\u002Fpresentations\u002Fswico\u002Fimg_8.png",{"type":19,"children":3009,"toc":3210},[3010,3015,3020,3026,3031,3064,3068,3071,3077,3082,3089,3094,3099,3105,3110,3116,3121,3127,3132,3137,3143,3148,3153,3158,3164,3169,3174,3179,3183],{"type":22,"tag":23,"props":3011,"children":3012},{},[3013],{"type":27,"value":3014},"Am 19. April 2024 hatte ich, Marius Högger (AI Engineer bei bbv), die Gelegenheit, im Rahmen der KI in\nAction-Eventreihe des Branchenverbands Swico einen Vortrag zum Thema „Wissensmanagement mit KI-Agenten“ zu halten.\nDie Veranstaltung fand inmitten einer aussergewöhnlichen Kulisse im Luma Westbau in Zürich statt, wo meterhohe\nBücherregale und Kunstobjekte eine inspirierende Umgebung für den Wissensaustausch boten.",{"type":22,"tag":23,"props":3016,"children":3017},{},[3018],{"type":27,"value":3019},"Gleich zu Beginn wurde klar: Der Swico wollte den Teilnehmenden nicht nur theoretisches Hintergrundwissen vermitteln,\nsondern ihnen durch konkrete Beispiele und Einblicke in die Praxis zeigen, wie KI zielführend eingesetzt werden kann.\nZusammen mit zwei weiteren Referenten stand ich im Zentrum eines lebendigen Austauschs, der die Faszination, aber auch\ndie Herausforderungen von künstlicher Intelligenz beleuchtete.",{"type":22,"tag":35,"props":3021,"children":3023},{"id":3022},"die-swico-ki-eventreihe-ki-in-action",[3024],{"type":27,"value":3025},"Die SWICO-KI-Eventreihe „KI in Action“",{"type":22,"tag":23,"props":3027,"children":3028},{},[3029],{"type":27,"value":3030},"Die SWICO-KI-Eventreihe ist darauf ausgerichtet, Mitglieder und Interessierte mit aktuellen Trends und Entwicklungen\nim Bereich der künstlichen Intelligenz vertraut zu machen. Unter dem Motto „KI in Action“ durften die Teilnehmenden\nam 19. April 2024 spannende Vorträge verfolgen, die sich um folgende Themen drehten:",{"type":22,"tag":1203,"props":3032,"children":3033},{},[3034,3044,3054],{"type":22,"tag":1017,"props":3035,"children":3036},{},[3037,3042],{"type":22,"tag":1021,"props":3038,"children":3039},{},[3040],{"type":27,"value":3041},"„ChatGPT entzaubert“",{"type":27,"value":3043}," – vorgestellt von Joel Barmettler (Senior AI Engineer bei bbv und Universität Zürich),\nder anhand von Machine-Learning-Grundlagen und konkreten Beispielen veranschaulichte, wie Large Language Models\n(LLMs) wie ChatGPT funktionieren und wo ihre Grenzen liegen.",{"type":22,"tag":1017,"props":3045,"children":3046},{},[3047,3052],{"type":22,"tag":1021,"props":3048,"children":3049},{},[3050],{"type":27,"value":3051},"„Wissensmanagement mit KI-Agenten“",{"type":27,"value":3053}," – mein Vortrag, in dem ich einen Proof of Concept zum praktischen Einsatz\nvon KI-Agenten im Unternehmen präsentierte. Der Fokus lag darauf, wie Mitarbeitende über KI-gestützte Systeme\nZugriff auf relevantes Expertenwissen erhalten, ohne sich in Datenfluten zu verlieren.",{"type":22,"tag":1017,"props":3055,"children":3056},{},[3057,3062],{"type":22,"tag":1021,"props":3058,"children":3059},{},[3060],{"type":27,"value":3061},"„Strategien zur Transformation von Ideen in KI-gestützte Produkte“",{"type":27,"value":3063}," – referiert von meinem Kollegen Dr. Emre Özyurt\n(Consultant im Bereich KI bei bbv), der in seinem Beitrag Methoden und Vorgehensweisen aufzeigte, um aus ersten\nIdeen tragfähige KI-Produkte zu entwickeln.",{"type":22,"tag":23,"props":3065,"children":3066},{},[3067],{"type":27,"value":2278},{"type":22,"tag":2280,"props":3069,"children":3070},{":height":2282,":items":2283,":width":2284},[],{"type":22,"tag":35,"props":3072,"children":3074},{"id":3073},"mein-vortrag-wissensmanagement-mit-ki-agenten",[3075],{"type":27,"value":3076},"Mein Vortrag: „Wissensmanagement mit KI-Agenten“",{"type":22,"tag":23,"props":3078,"children":3079},{},[3080],{"type":27,"value":3081},"In meinem Referat stellte ich die Frage, wie wir das allgegenwärtige „Wissenslabyrinth“ in Unternehmen mithilfe\nvon KI-Agenten besser durchdringen können. Nicht selten liegen wichtige Informationen verstreut in verschiedenen\nAbteilungen, Datenbanken und Dokumenten, was vor allem für neue Mitarbeitende eine zeitaufwändige Suche bedeutet.",{"type":22,"tag":3083,"props":3084,"children":3086},"h4",{"id":3085},"kontext-ist-der-schlüssel",[3087],{"type":27,"value":3088},"Kontext ist der Schlüssel",{"type":22,"tag":23,"props":3090,"children":3091},{},[3092],{"type":27,"value":3093},"Ein Kernelement meiner Präsentation war die Bedeutung des Kontexts. Klassische Chatbots wie ChatGPT basieren auf\nstatistischen Sprachmodellen und sind hervorragend darin, natürliche Sprache zu verarbeiten. Allerdings ist ihre\nFaktualität nicht immer garantiert, da sie häufig nur das nächstwahrscheinliche Wort vorhersagen, ohne zwingend\nauf echte Daten aus der Unternehmensumgebung zurückzugreifen. Um diesem Problem zu begegnen, setzte ich auf das\nPrinzip der Retrieval Augmented Generation (RAG).",{"type":22,"tag":23,"props":3095,"children":3096},{},[3097],{"type":27,"value":3098},"Mit RAG werden externe, firmenspezifische Datenquellen dynamisch in den Antwortprozess eingebunden. Das bedeutet,\ndass die KI – statt auf ihr Training allein zurückzugreifen – relevante Dokumente aus einer Wissensdatenbank abruft\nund daraus konkrete Informationen extrahiert. Dieser Schritt erhöht die Qualität der Antworten massgeblich und sorgt\ndafür, dass das KI-System Unternehmenskontext versteht und bei Bedarf faktengestützte Ergebnisse liefert.",{"type":22,"tag":3083,"props":3100,"children":3102},{"id":3101},"ki-agenten-als-virtuelle-mitarbeitende",[3103],{"type":27,"value":3104},"KI-Agenten als virtuelle Mitarbeitende",{"type":22,"tag":23,"props":3106,"children":3107},{},[3108],{"type":27,"value":3109},"Ein weiterer Schwerpunkt lag auf dem Konzept der KI-Agenten. Anders als reine Chatbots haben Agenten eine definierte\n„Rolle“ und „Aufgabe“ – sie agieren wie virtuelle Mitarbeitende, die nicht nur Fragen beantworten, sondern auch aktiv\nExpertenwissen von realen Mitarbeitenden aufnehmen und in Echtzeit wieder verfügbar machen. Ich erläuterte, wie sich\nsolche Agenten mithilfe von Rollenprofilen und „Charaktereigenschaften“ (z. B. Tonalität, Fachgebiet, Verantwortung)\nkonfigurieren lassen, damit sie passgenau auf die jeweilige Problemstellung eingehen.",{"type":22,"tag":3083,"props":3111,"children":3113},{"id":3112},"proof-of-concept-mehrwert-in-der-praxis",[3114],{"type":27,"value":3115},"Proof of Concept: Mehrwert in der Praxis",{"type":22,"tag":23,"props":3117,"children":3118},{},[3119],{"type":27,"value":3120},"Um meine Ausführungen greifbar zu machen, präsentierte ich einen Proof of Concept, bei dem ein KI-Agent neu\neingestellte Mitarbeitende bei der Einarbeitung unterstützt. Anstatt sich mühsam durch unzählige Dokumente zu arbeiten,\nerhalten sie über eine einfache Chatoberfläche direkt Zugriff auf relevante Prozessdokumente, Checklisten oder\nKontaktpersonen. Der Agent lernt dabei kontinuierlich aus den Eingaben der Mitarbeitenden, speichert dabei neue\nErkenntnisse und stellt sie beim nächsten Mal automatisiert zur Verfügung.",{"type":22,"tag":35,"props":3122,"children":3124},{"id":3123},"der-feueralarm-eine-ungeplante-pause",[3125],{"type":27,"value":3126},"Der Feueralarm: Eine ungeplante Pause",{"type":22,"tag":23,"props":3128,"children":3129},{},[3130],{"type":27,"value":3131},"Während meines Vortrags passierte etwas, das den Abend wortwörtlich „aufheizte“: Beim Zubereiten des Apéros im\nNebenraum brannte offenbar etwas an, was zu einem ungeplanten Feueralarm führte. Plötzlich ertönte lautes Sirenengeheul,\nund wir mussten den Veranstaltungssaal fluchtartig verlassen.",{"type":22,"tag":23,"props":3133,"children":3134},{},[3135],{"type":27,"value":3136},"Was zunächst für ein wenig Unruhe sorgte, erwies sich im Nachhinein als willkommene Gelegenheit, das Gehörte\nsetzen zu lassen. Manche Teilnehmende nutzten die kurze Zwangspause, um draussen über mögliche KI-Anwendungsfälle\nin ihren eigenen Unternehmen zu diskutieren. Nach wenigen Minuten gab es Entwarnung, und wir konnten die Präsentation –\nebenso wie den restlichen Event – ohne weitere Zwischenfälle fortsetzen.",{"type":22,"tag":35,"props":3138,"children":3140},{"id":3139},"diskussionen-und-ausblick",[3141],{"type":27,"value":3142},"Diskussionen und Ausblick",{"type":22,"tag":23,"props":3144,"children":3145},{},[3146],{"type":27,"value":3147},"In der anschliessenden Diskussionsrunde zeigten sich bei vielen Anwesenden noch offene Fragen zu den Themen Datenschutz,\nBerechtigungen und Bias. So wurde unter anderem darüber gesprochen, inwieweit ein KI-Agent auf vertrauliche\nFirmeninformationen Zugriff haben darf und wie sichergestellt werden kann, dass keine unerwünschten Datenlecks\nentstehen. Ich wies dabei auf die Möglichkeit hin, Zugriffsrechte granular zu steuern und die Agenten nur mit jenen\nInformationen zu „füttern“, die sie tatsächlich für ihre Aufgabe benötigen.",{"type":22,"tag":23,"props":3149,"children":3150},{},[3151],{"type":27,"value":3152},"Manipulations- und Bias-Gefahr waren ebenfalls wichtige Schlagworte: Da Sprachmodelle in hohem Masse vom vorhandenen\nDatenmaterial abhängen, kann es leicht passieren, dass einseitige oder unvollständige Datensätze Verzerrungen (Biases)\nin den Antworten der KI begünstigen. Genau hier setzen Massnahmen wie ein kontrolliertes Datenmanagement, ein\nsorgfältiges Prompt-Engineering sowie eine stetige Überwachung und Aktualisierung der Modelle an.",{"type":22,"tag":23,"props":3154,"children":3155},{},[3156],{"type":27,"value":3157},"Neben den technischen Herausforderungen steht stets die Frage im Raum, wie man ein derartiges Projekt finanzieren,\ngegenüber der Geschäftsleitung vertreten und langfristig in die bestehenden Organisationsstrukturen integrieren kann.\nHier hob mein Kollege Dr. Emre Özyurt in seinem Referat hervor, dass es häufig ratsam ist, mit einem Pilotprojekt in\neinem begrenzten Wissensbereich zu beginnen. Sobald die Ergebnisse überzeugen, kann man schrittweise weitere\nWissensdomänen erschliessen.",{"type":22,"tag":35,"props":3159,"children":3161},{"id":3160},"fazit-ki-agenten-im-unternehmen",[3162],{"type":27,"value":3163},"Fazit: KI-Agenten im Unternehmen",{"type":22,"tag":23,"props":3165,"children":3166},{},[3167],{"type":27,"value":3168},"Die Resonanz auf meine Präsentation bei der Swico-KI-Eventreihe war durchweg positiv. Teilnehmende sahen ein grosses\nPotenzial darin, KI-Agenten in ihren Firmen einzusetzen, um das Wissensmanagement zu optimieren und Mitarbeitende\nvon wiederkehrenden Recherchen zu entlasten. Trotz gelegentlicher Bedenken rund um Datenschutz und Kosten waren sich\nviele einig, dass ein gut durchdachtes und engmaschig überwachtes KI-System langfristig enorme Vorteile bringt.",{"type":22,"tag":23,"props":3170,"children":3171},{},[3172],{"type":27,"value":3173},"Wissensagenten haben das Potenzial, den Zugang zu Firmenwissen zu revolutionieren: Sie agieren proaktiv, lernen\nkontinuierlich dazu und schaffen ein dynamisches, lebendiges Wissensnetzwerk. Gerade für Unternehmen, die in einem\nstark kompetitiven Umfeld agieren, kann dies ein entscheidender Wettbewerbsvorteil sein.",{"type":22,"tag":23,"props":3175,"children":3176},{},[3177],{"type":27,"value":3178},"Insgesamt war der Event – ungeplanter Feueralarm inklusive – ein voller Erfolg: Er vermittelte ein fundiertes\nVerständnis der aktuellen KI-Technologien und eine klare Vorstellung davon, wie sich diese zielführend in die\nUnternehmenspraxis transferieren lassen. Für mich persönlich war es eine spannende Gelegenheit, mein Proof of\nConcept vor einem interessierten Fachpublikum zu präsentieren und wertvolles Feedback zu erhalten.\nIch bin überzeugt, dass wir in den kommenden Jahren weitere rasante Fortschritte erleben werden und freue mich darauf,\ndiesen Weg gemeinsam mit der Swico-Community und interessierten Unternehmen weiterzugehen.",{"type":22,"tag":35,"props":3180,"children":3181},{"id":2315},[3182],{"type":27,"value":2318},{"type":22,"tag":1203,"props":3184,"children":3185},{},[3186,3198],{"type":22,"tag":1017,"props":3187,"children":3188},{},[3189,3196],{"type":22,"tag":2326,"props":3190,"children":3193},{"href":3191,"rel":3192},"https:\u002F\u002Fwww.swico.ch\u002Fde\u002Fnews\u002Fdetail\u002Fki-in-aktion-transformation-von-wissensmanagement-durch-kunstliche-intelligenz",[2330],[3194],{"type":27,"value":3195},"KI in Aktion: Transformation von Wissensmanagement durch künstliche Intelligenz",{"type":27,"value":3197},", auf SWICO.ch.",{"type":22,"tag":1017,"props":3199,"children":3200},{},[3201,3208],{"type":22,"tag":2326,"props":3202,"children":3205},{"href":3203,"rel":3204},"https:\u002F\u002Fwww.netzwoche.ch\u002Fnews\u002F2024-04-22\u002Frauchende-koepfe-und-kuechen-beim-swico",[2330],[3206],{"type":27,"value":3207},"Rauchende Köpfe und Küchen beim Swico",{"type":27,"value":3209}," von der Netzwoche.",{"title":7,"searchDepth":274,"depth":274,"links":3211},[3212,3213,3214,3215,3216,3217],{"id":3022,"depth":277,"text":3025},{"id":3073,"depth":277,"text":3076},{"id":3123,"depth":277,"text":3126},{"id":3139,"depth":277,"text":3142},{"id":3160,"depth":277,"text":3163},{"id":2315,"depth":277,"text":2318},"content:presentations:swico.md","presentations\u002Fswico.md","presentations\u002Fswico",{"_path":3222,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":3223,"description":3224,"eventName":3225,"subtitle":3226,"logo":3227,"eventDate":3228,"eventDuration":2612,"audience":3229,"carouselItems":3230,"body":3233,"_type":286,"_id":3298,"_source":288,"_file":3299,"_stem":3300,"_extension":291},"\u002Fpresentations\u002F9ter_datenschutztag","Datenflüsse in KI-Systemen","Die Datenflüsse in KI-Systemen sind komplex und facettenreich. Die strategische Anordnung von Systemkomponenten, \nin welchen Daten erfasst, gespeichert und übermittelt werden bildet die Grundlage unserer Betrachtung. Indem wir \ndie Dynamiken und Interaktionen in typischen generativen KI-Systemen sorgsam betrachten, streben wir danach, sowohl \ndirekt sichtbare als auch verdeckte Datenströme aufzuzeigen und darüber aufzuklären. Letztlich ist es unser Hauptziel, \ndas Bewusstsein über potenzielle Datenlecks zu schärfen, um so die Stabilität, Nachhaltigkeit und Integrität von \nKI-Systemen zu unterstützen und zu fördern.\n","9. Datenschutztag AI & Datenschutz","Datenbewegungen und ihre Auswirkungen verstehen","\u002Fimages\u002Fpresentations\u002Fhaerting\u002Fhaerting_3.png","2024-03-15","40-50 Teilnehmende",[3231,3232],"\u002Fimages\u002Fpresentations\u002Fhaerting\u002F1.png","\u002Fimages\u002Fpresentations\u002Fhaerting\u002F2.png",{"type":19,"children":3234,"toc":3292},[3235,3240,3246,3251,3257,3262,3268,3273,3279,3284,3289],{"type":22,"tag":23,"props":3236,"children":3237},{},[3238],{"type":27,"value":3239},"Am 15. März 2024 hatte ich das Privileg, auf dem 9. Datenschutztag AI & Datenschutz der HÄRTING Rechtsanwälte AG\neinen Vortrag zum Thema Datenflüsse in KI-Systemen zu halten.\nDieser Anlass richtete sich vor allem an Fachleute aus den Bereichen Datenschutz und Informationssicherheit,\ndie in ihren Unternehmen mit den wachsenden Herausforderungen rund um den Einsatz von Künstlicher Intelligenz\nkonfrontiert sind. In meinem Vortrag habe ich grundlegende Fragen beleuchtet, die sich im Zusammenhang mit generativen\nKI-Systemen stellen, insbesondere wenn es um die Erfassung, Verarbeitung und Weitergabe von Daten geht. Mit meinem\nVortrag wollte ein besseres Verständnis geben für die komplexen Datenbewegungen in KI-Systemen und\naufzeigen, wie Unternehmen diese Prozesse sicher und effizient gestalten können. Damit wolle ich die Grundlagen legen\nfür eine fundierte Diskussion vorallem in kombination mit den weiteren eher legal ausgerichteten Vorträgen des Tages.\nZugleich standen die globalen Gesetzesinitiativen – etwa der EU AI Act – im Vordergrund des Events, welche die Voraussetzungen\nfür einen sicheren, transparenten und verantwortungsvollen KI-Einsatz definieren.",{"type":22,"tag":35,"props":3241,"children":3243},{"id":3242},"generative-ki-und-die-rolle-von-llms",[3244],{"type":27,"value":3245},"Generative KI und die Rolle von LLMs",{"type":22,"tag":23,"props":3247,"children":3248},{},[3249],{"type":27,"value":3250},"Im ersten Abschnitt meiner Präsentation bin ich auf die Funktionsweise von Large Language Models (LLMs) eingegangen,\ndie aus gewaltigen Datenmengen mithilfe statistischer Verfahren lernen. Dabei erkennen sie Muster, um Texte, Bilder\noder andere Inhalte eigenständig zu erzeugen. Ich habe betont, dass dieses sogenannte „generative“ Potenzial die\nGrundlage für viele innovative Anwendungen bildet, gleichzeitig aber auch neue Risiken schafft: So kann es zu\nDatenlecks kommen, wenn sensible Informationen in Trainings- oder Prompt-Daten unzureichend geschützt sind.\nGenau hier liegt eine zentrale Herausforderung: Mit jedem neuen Prompt und jeder Interaktion kann unbeabsichtigt\nvertrauliches Wissen preisgegeben werden. Ich betonte aber auch das dieses Riskio nicht direkt von der LLM technoligie\nausgeht sonder, dass dies ein generelles Problem von Datenbewegungen ist bei welchen Services von Drittanbietern\nverwendet werden.",{"type":22,"tag":35,"props":3252,"children":3254},{"id":3253},"kontext-und-prompt-struktur",[3255],{"type":27,"value":3256},"Kontext und Prompt-Struktur",{"type":22,"tag":23,"props":3258,"children":3259},{},[3260],{"type":27,"value":3261},"Ein weiterer Schwerpunkt lag darauf, wie wichtig das richtige „Füttern“ der KI mit Informationen ist.\nUnter Prompting versteht man die Steuerung von LLMs durch gezielte Eingabeaufforderungen, die in einem bestimmten\nKontext eingebettet werden müssen. Dabei zeigte ich anhand praktischer Beispiele, wie der Kontext eine entscheidende\nRolle für die Qualität und Relevanz der KI-Antworten spielt. Besonders die Methode Retrieval Augmented Generation (RAG)\nverdeutlicht dies: Hier werden externe Datenquellen eingebunden und mithilfe von Vektor-Datenbanken strukturiert\ndurchsucht, um passenden Input für den Prompt zu liefern. Je genauer dieser Kontext aufbereitet ist und je geschickter\ndie Prompts formuliert sind, desto präziser und sicherer kann das KI-System agieren. Allerdings müssen Unternehmen\ndarauf achten, dass in diesem Prozess keine sensiblen Informationen unkontrolliert and Dritt-Services übermittelt werden.",{"type":22,"tag":35,"props":3263,"children":3265},{"id":3264},"herausforderungen-im-umgang-mit-daten",[3266],{"type":27,"value":3267},"Herausforderungen im Umgang mit Daten",{"type":22,"tag":23,"props":3269,"children":3270},{},[3271],{"type":27,"value":3272},"Im dritten Abschnitt habe ich erläutert, welchen Hürden sich Unternehmen beim Einsatz von KI-Systemen häufig\ngegenübersehen. Dazu zählen vor allem die begrenzten Kontextlängen mancher generativer Modelle, die eine intelligente\nVerwaltung und Priorisierung der bereitgestellten Daten notwendig machen. Zudem ist eine gründliche Validierung der\nKI-Ausgaben unabdingbar, da LLMs zwar hervorragend Muster erkennen und replizieren, aber nicht über ein echtes\nFaktenwissen verfügen. Daraus können sich sogenannte „Halluzinationen“ ergeben – also erfundene oder unvollständige\nInformationen. Noch brisanter wird die Lage, wenn Unternehmen auf vertrauliche Daten angewiesen sind, die geschützt\noder anonymisiert werden müssen. Anhand konkreter Fallbeispiele habe ich veranschaulicht, wie sich Datenquellen so\ngestalten lassen, dass eine möglichst hohe Sicherheit gewährleistet ist. Dabei sind Anonymisierungs- und\nPseudonymisierungskonzepte unerlässlich, um den gesetzlichen Datenschutzvorgaben gerecht zu werden und trotzdem\nvom grossen Potenzial der KI zu profitieren.",{"type":22,"tag":35,"props":3274,"children":3276},{"id":3275},"diskussion-und-ausblick",[3277],{"type":27,"value":3278},"Diskussion und Ausblick",{"type":22,"tag":23,"props":3280,"children":3281},{},[3282],{"type":27,"value":3283},"In der anschliessenden Diskussionsrunde wurde deutlich, dass der gesetzliche Rahmen – nicht nur in Europa,\nsondern auch in den USA und anderen Regionen – starken Einfluss darauf nimmt, wie Unternehmen KI-Technologien\neinsetzen. Insbesondere Datenschutzbeauftragte (DSB) und Chief Information Security Officers (CISO) spielen\ndabei eine Schlüsselrolle, wenn es um Risikoanalysen, Lieferantenmanagement und den Schutz von kritischen\nInfrastrukturen geht. Viele Zuhörerinnen und Zuhörer berichteten von ihren Erfahrungen im Umgang mit KI-Lösungen und brachten\nwertvolle Fragen mit, die von technischen Details zu Vektor-Datenbanken bis zu ethischen Überlegungen zum\nEinsatz von KI reichten.",{"type":22,"tag":23,"props":3285,"children":3286},{},[3287],{"type":27,"value":3288},"Abschliessend lässt sich sagen, dass die Zukunft der Künstlichen Intelligenz nicht nur vom technischen Fortschritt,\nsondern wesentlich auch von verantwortungsvollem Datenmanagement abhängt. Wer KI effizient und sicher nutzen will,\nmuss sich intensiv mit den Datenflüssen in KI-Systemen beschäftigen und ein Bewusstsein für mögliche Risiken entwickeln.\nGleichzeitig birgt die Technologie enormes Potenzial für Innovation und Wertschöpfung, wenn alle Akteure –\nvon Entwicklern über Datenschutzexperten bis hin zu Führungskräften – eng zusammenarbeiten und klare Richtlinien\nzur Hand haben. Diese Erkenntnisse nehmen die Teilnehmenden des 9. Datenschutztags AI & Datenschutz mit und\nwerden sie hoffentlich in ihren eigenen Organisationen umsetzen, um die Chancen der KI voll auszuschöpfen und\ngleichzeitig den Datenschutz zu wahren.",{"type":22,"tag":2280,"props":3290,"children":3291},{":height":2282,":items":2283,":width":2282},[],{"title":7,"searchDepth":274,"depth":274,"links":3293},[3294,3295,3296,3297],{"id":3242,"depth":277,"text":3245},{"id":3253,"depth":277,"text":3256},{"id":3264,"depth":277,"text":3267},{"id":3275,"depth":277,"text":3278},"content:presentations:9ter_Datenschutztag.md","presentations\u002F9ter_Datenschutztag.md","presentations\u002F9ter_Datenschutztag",{"_path":3302,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":3303,"description":3304,"eventName":3305,"subtitle":3226,"logo":3306,"eventDate":3307,"eventDuration":3308,"audience":3309,"views":3310,"videoId":3311,"body":3312,"_type":286,"_id":3497,"_source":288,"_file":3498,"_stem":3499,"_extension":291},"\u002Fpresentations\u002Fwebinar_datenflusse","Webinar: Datenflüsse in KI-Systemen","Grosse Sprachmodelle wie GPT beruhen auf statistischen Zusammenhängen und der Interaktion zwischen Nutzer, \nDatenbank und Modell. Die Kombination aus allgemeinem Modellwissen und firmeneigenen Datenquellen verbessert \nPräzision und Aktualität der Antworten. Der Schwerpunkt liegt ausserdem auf Datensicherheit und dem sensiblen \nUmgang mit vertraulichen Informationen.\n","bbv KI Webinar - Datenflüsse","\u002Fimages\u002Fpresentations\u002Fwebinar3\u002Fdatenfluesse.png","2024-02-28","41 Min.","ca. 40 Teilnehmende",275,"UMWRTP79vg8",{"type":19,"children":3313,"toc":3490},[3314,3319,3324,3332,3337,3340,3346,3351,3356,3364,3369,3375,3380,3385,3393,3398,3404,3409,3414,3422,3427,3433,3438,3443,3451,3456,3462,3467,3472,3480,3485],{"type":22,"tag":23,"props":3315,"children":3316},{},[3317],{"type":27,"value":3318},"Ich habe ein Webinar gehalten, das sich intensiv mit den Datenflüssen in KI-Systemen beschäftigt hat.\nDabei ging es um die Frage, wie grosse Sprachmodelle – wie etwa GPT – tatsächlich funktionieren und wo genau\nwir als Anwenderinnen und Anwender den entscheidenden Hebel haben, um Qualität und Sicherheit der Antworten zu\ngewährleisten. Mein Kollege Allen moderierte den Abend, stellte unsere bisherigen Themen der Webinarreihe vor\nund betonte von Anfang an, dass wir einen „Blick unter die Haube“ werfen wollten.",{"type":22,"tag":23,"props":3320,"children":3321},{},[3322],{"type":27,"value":3323},"Mir war dabei wichtig, den Teilnehmenden zu zeigen, dass KI keine Magie ist und auch nicht von selbst „aus dem Nichts“\nWissen erzeugt. Die Technik basiert auf statistischen Verfahren und mathematischen Modellen, die sich nur dann als\nhilfreich erweisen, wenn wir sie mit den richtigen Informationen versorgen. Gleichzeitig wollte ich verständlich machen,\nwarum wir sogenannte „Datenflüsse“ genau im Auge behalten sollten, sobald wir KI-Modelle in unsere Arbeitsabläufe\nintegrieren.",{"type":22,"tag":47,"props":3325,"children":3326},{},[3327],{"type":22,"tag":23,"props":3328,"children":3329},{},[3330],{"type":27,"value":3331},"„Generative KI ist kein Zaubertrick. Sie funktioniert nur durch Interaktion und die gezielte\nSteuerung der zugrunde liegenden Daten.“",{"type":22,"tag":23,"props":3333,"children":3334},{},[3335],{"type":27,"value":3336},"Diese Aussage zog sich als roter Faden durch das gesamte Webinar. Ich wollte damit betonen, dass jede Nutzerin\nund jeder Nutzer unmittelbar Einfluss auf das Ergebnis nimmt, sobald Fragen gestellt oder Informationen übermittelt\nwerden.",{"type":22,"tag":30,"props":3338,"children":3339},{":video-id":32},[],{"type":22,"tag":35,"props":3341,"children":3343},{"id":3342},"drei-wesentliche-quellen-für-das-modell",[3344],{"type":27,"value":3345},"Drei wesentliche Quellen für das Modell",{"type":22,"tag":23,"props":3347,"children":3348},{},[3349],{"type":27,"value":3350},"Um zu verdeutlichen, was mit „Datenflüssen“ gemeint ist, erläuterte ich, welche Instanzen ein grosses\nSprachmodell wie GPT grundsätzlich mit Informationen versorgen. Erstens gibt es das Wissen, das wir\ndirekt beim Stellen einer Frage mitgeben. Zweitens lassen sich firmeneigene Datenbanken einbinden, um\nzusätzliches oder aktuelles Wissen bereitzustellen. Und drittens existiert das sogenannte Modellwissen,\nalso jene statistischen Zusammenhänge, die sich aus den Trainingsdaten im Modell verfestigt haben.",{"type":22,"tag":23,"props":3352,"children":3353},{},[3354],{"type":27,"value":3355},"Ich schilderte, dass es für viele Unternehmen entscheidend ist, ihr internes Fachwissen –\nzum Beispiel Dokumente, Handbücher oder Richtlinien – in Form einer Datenbank anbinden zu können.\nGerade dann, wenn die Standardantwort des Modells nicht ausreicht oder vielleicht sogar veraltete\nFakten enthält, gewinnt man auf diese Weise eine höhere Genauigkeit und Relevanz. Andernfalls stützen\nsich die Antworten allein auf das riesige, aber möglicherweise nicht mehr ganz aktuelle oder passend ausgerichtete\nTrainingsmaterial des Sprachmodells.",{"type":22,"tag":47,"props":3357,"children":3358},{},[3359],{"type":22,"tag":23,"props":3360,"children":3361},{},[3362],{"type":27,"value":3363},"„Das Modell bringt sein eigenes ‚Allgemeinwissen‘ mit, doch wirklich präzise wird es erst, wenn wir klarstellen, was\nfür unseren konkreten Fall relevant ist.“",{"type":22,"tag":23,"props":3365,"children":3366},{},[3367],{"type":27,"value":3368},"Ich merkte an, dass diese zweite Datenquelle – das firmeneigene Wissen – unsere wichtigste Ergänzung zum eher globalen\nModellwissen darstellt. Wie man es am besten einbindet, hängt unter anderem von der eingesetzten Softwarearchitektur\nund den Datenschutzanforderungen ab.",{"type":22,"tag":35,"props":3370,"children":3372},{"id":3371},"wie-der-kontext-entsteht",[3373],{"type":27,"value":3374},"Wie der Kontext entsteht",{"type":22,"tag":23,"props":3376,"children":3377},{},[3378],{"type":27,"value":3379},"In meinem Webinar ging es auch darum, wie wir dem Modell beim Formulieren passender Antworten helfen können.\nDabei sprach ich über die sogenannte „Retrieval-Augmented Generation“. Hinter diesem Begriff steht die Idee,\ndass man nicht einfach eine Frage an das Modell schickt, sondern vorher gezielt Informationen aus einer Wissensdatenbank\nabruft und dem Modell als Kontext beifügt. Auf diese Weise werden nicht alle möglichen Dokumente wahllos in das System\ngegeben, sondern nur jene, die wirklich relevant sind.",{"type":22,"tag":23,"props":3381,"children":3382},{},[3383],{"type":27,"value":3384},"Dieses Vorgehen reduziert das Risiko falscher oder widersprüchlicher Aussagen. Vor allem unterstützt es die\nNachvollziehbarkeit. Wenn etwa im Nachgang die Frage aufkommt, warum die KI zu einem bestimmten Ergebnis gelangt\nist, kann man leicht erkennen, welche Textstellen als Grundlage dienten.",{"type":22,"tag":47,"props":3386,"children":3387},{},[3388],{"type":22,"tag":23,"props":3389,"children":3390},{},[3391],{"type":27,"value":3392},"„Statt das Modell zu verwirren, geben wir ihm eine exakte Auswahl relevanter Inhalte. So bleibt die\nAntwort genauer und konsistenter.“",{"type":22,"tag":23,"props":3394,"children":3395},{},[3396],{"type":27,"value":3397},"Ich erklärte anhand eines Beispiels, dass ein Sprachmodell bei der Anfrage „Was bedeutet es, wenn jemand auf\nder Bank ist?“ sehr unterschiedliche Richtungen einschlagen kann. Denkt es an eine Parkbank oder an ein\nBankinstitut? Oder doch an den Sportkontext? Wer die passenden Hintergrundinformationen von vornherein klarstellt,\nerhält in der Regel deutlich präzisere Ergebnisse.",{"type":22,"tag":35,"props":3399,"children":3401},{"id":3400},"agenten-als-unterstützende-akteure",[3402],{"type":27,"value":3403},"Agenten als unterstützende Akteure",{"type":22,"tag":23,"props":3405,"children":3406},{},[3407],{"type":27,"value":3408},"Im Verlauf des Webinars zeigte ich, dass noch eine dritte Komponente ins Spiel kommen kann: Software-Agenten,\ndie unterschiedliche Funktionen übernehmen. Ein Agent könnte zum Beispiel darauf spezialisiert sein, Finanzdaten\nherauszusuchen, ein anderer könnte sich um Fragen des Vertriebs kümmern. Diese kleinen Helferlein orchestrieren,\nwie das grosse Sprachmodell auf bestimmte Eingaben reagieren soll.",{"type":22,"tag":23,"props":3410,"children":3411},{},[3412],{"type":27,"value":3413},"Viele Teilnehmende waren besonders an dieser Stelle überrascht, wie viele Prozesse man automatisieren oder\nvordefinieren kann, bevor das eigentliche Sprachmodell mit einer Frage in Kontakt kommt. Ich schilderte, dass\nwir so sicherstellen, dass nicht jede Person eigenständig die perfekten Befehle („Prompts“) tippen muss, sondern\ndass bestimmte Schritte von Agenten automatisch übernommen werden.",{"type":22,"tag":47,"props":3415,"children":3416},{},[3417],{"type":22,"tag":23,"props":3418,"children":3419},{},[3420],{"type":27,"value":3421},"„Ein Agent kann die Passagen heraussuchen, sinnvoll aufbereiten und notfalls sogar mehrfache Zwischenschritte\nunternehmen, bevor er das Modell befragt.“",{"type":22,"tag":23,"props":3423,"children":3424},{},[3425],{"type":27,"value":3426},"Meine Erfahrung zeigt, dass dies in komplexen Umgebungen wie grossen Unternehmen ein Segen sein kann. Die\nAnwenderinnen und Anwender sparen Zeit, bekommen konsistente Ergebnisse und müssen nicht jedes Mal die gesamte\nKlaviatur der KI-Steuerung manuell spielen.",{"type":22,"tag":35,"props":3428,"children":3430},{"id":3429},"umgang-mit-sensiblen-daten",[3431],{"type":27,"value":3432},"Umgang mit sensiblen Daten",{"type":22,"tag":23,"props":3434,"children":3435},{},[3436],{"type":27,"value":3437},"Bei aller Begeisterung für das Thema sind auch Grenzen und Risiken angesprochen worden. Ich stellte klar, dass\nein Sprachmodell während der Nutzung nicht ‚weiterlernt‘, es also keine wachsende Datenbank im Hintergrund führt,\ndie unsere Eingaben automatisch speichert. Dennoch speichern viele Anbieter Gesprächsverläufe, um das System später\nzu verbessern oder neue Modelle zu trainieren. Dies ist eine Frage der Firmenpolitik und Vertragsgestaltung.",{"type":22,"tag":23,"props":3439,"children":3440},{},[3441],{"type":27,"value":3442},"Ein wesentlicher Punkt war die Datenschutzperspektive. Wer personenbezogene Informationen mit einem externen Anbieter\nteilt, muss genau prüfen, welche Daten den Server verlassen und ob sie eventuell anonymisiert werden sollten.\nIch erläuterte, dass es hier architektonische Lösungen gibt, die sensible Daten erst in einer eigenen Umgebung\nverarbeiten, bevor sie an das grosse Modell weitergereicht werden.",{"type":22,"tag":47,"props":3444,"children":3445},{},[3446],{"type":22,"tag":23,"props":3447,"children":3448},{},[3449],{"type":27,"value":3450},"„Sensible Daten sollte man nicht unreflektiert in ein öffentlich zugängliches KI-System kippen. Technisch lässt\nsich das oft lösen, doch man muss es bewusst angehen.“",{"type":22,"tag":23,"props":3452,"children":3453},{},[3454],{"type":27,"value":3455},"Ich machte deutlich, dass ein KI-System wie GPT keine Fehlerfreiheit garantiert. Es kann bei falschem oder\nfehlendem Kontext zu sogenannten „Halluzinationen“ kommen. Ein systematischer Umgang mit Quellen und eine\nabschliessende Prüfung durch Menschen bleiben in vielen Fällen unerlässlich. Es war mir ein Anliegen, das\nklar zu kommunizieren, um keine falschen Erwartungen zu wecken.",{"type":22,"tag":35,"props":3457,"children":3459},{"id":3458},"ausblick-und-schlussgedanken",[3460],{"type":27,"value":3461},"Ausblick und Schlussgedanken",{"type":22,"tag":23,"props":3463,"children":3464},{},[3465],{"type":27,"value":3466},"Nachdem ich die verschiedenen Aspekte – vom Einbinden einer Vektordatenbank über Agentenkonzepte bis hin zur\nSicherheit – beleuchtet hatte, warf Allen abschliessend einen Blick auf das nächste Webinar unserer Reihe.\nAm 11. April wird Emre uns in die Welt der geschäftlichen Anwendung von KI führen. Es wird darum gehen,\nwie man aus einer guten Idee ein tragfähiges KI-Produkt entwickelt und welche Strategien sich dabei bewährt haben.",{"type":22,"tag":23,"props":3468,"children":3469},{},[3470],{"type":27,"value":3471},"Ich persönlich freue mich sehr auf diesen Beitrag, weil er den Bogen von der Technik hin zur echten Geschäftspraxis\nspannt. Oft ist die technische Machbarkeit längst da, doch der Nutzen und die erfolgreiche Umsetzung im\nUnternehmensalltag sind eigene Herausforderungen.",{"type":22,"tag":47,"props":3473,"children":3474},{},[3475],{"type":22,"tag":23,"props":3476,"children":3477},{},[3478],{"type":27,"value":3479},"„Erfolgreiche KI-Projekte entstehen an der Schnittstelle zwischen guter Idee, effizienter Datennutzung und\nrealistischen Umsetzungsstrategien.“",{"type":22,"tag":23,"props":3481,"children":3482},{},[3483],{"type":27,"value":3484},"Zum Ende des Webinars gab es ein Zeitfenster für Fragen. Es zeigte sich, dass viele Teilnehmende die\nZusammenhänge offenbar sehr klar fanden, denn es kamen keine konkreten Nachfragen mehr. Allen scherzte,\ndass wir nun beinahe etwas enttäuscht seien – aber meist bedeutet Schweigen, dass die Botschaft verstanden wurde.",{"type":22,"tag":23,"props":3486,"children":3487},{},[3488],{"type":27,"value":3489},"Damit schloss ich den Abend. Mein Ziel war es, zu zeigen, wie ein Sprachmodell in der Praxis wirklich „tickt“\nund warum wir alle Datenflüsse genau im Blick behalten sollten. Für mich steht fest, dass ein fundiertes\nVerständnis dieses Ablaufs der Schlüssel ist, um KI-Lösungen effektiv und verantwortungsvoll zu nutzen.\nIch danke allen, die am Webinar teilgenommen haben, und freue mich darauf, dieses Wissen gemeinsam weiterzuentwickeln.",{"title":7,"searchDepth":274,"depth":274,"links":3491},[3492,3493,3494,3495,3496],{"id":3342,"depth":277,"text":3345},{"id":3371,"depth":277,"text":3374},{"id":3400,"depth":277,"text":3403},{"id":3429,"depth":277,"text":3432},{"id":3458,"depth":277,"text":3461},"content:presentations:webinar_datenflüsse.md","presentations\u002Fwebinar_datenflüsse.md","presentations\u002Fwebinar_datenflüsse",{"_path":3501,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":3502,"description":3503,"eventName":3504,"subtitle":2859,"logo":3505,"eventDate":3506,"eventDuration":3507,"audience":3508,"views":3509,"videoId":3510,"body":3511,"_type":286,"_id":3696,"_source":288,"_file":3697,"_stem":3698,"_extension":291},"\u002Fpresentations\u002Fwebinar_wissensmanagement","Webinar: Wissensmanagement","KI-Agenten revolutionieren Arbeitsprozesse und steigern die Effizienz von Teams. \nOpenAI hat mit Custom GPTs beeindruckend demonstriert, welche aussergewöhnlichen Synergien entstehen, \nwenn mehrere dieser intelligenten Assistenten gemeinsam arbeiten – die Potentiale für die Transformation \nIhres Unternehmens sind enorm.Wir erklären, wie generative KI Ihr Unternehmen zum Positiven verändern kann \nund welche Schritte benötigt werden, um KI-Agenten in Ihrem Unternehmen erfolgreich einzusetzen.\nWir zeigen praktisch anhand von konkreten Beispielen, wie ein Multi-Agenten-System aktiv genutzt werden kann. \nHierbei wagen wir auch einen Blick in die Zukunft und was diese in Bezug auf KI-Agenten mit sich bringt.\"\n","bbv KI Webinar - Wissensmanagement","\u002Fimages\u002Fpresentations\u002Fwebinar2\u002Fwissensmanagement.png","2024-01-10","63 Min.","ca. 70 Teilnehmende",850,"ZvtoqaiCijI",{"type":19,"children":3512,"toc":3686},[3513,3518,3521,3527,3532,3540,3545,3551,3556,3561,3567,3572,3580,3585,3591,3596,3601,3607,3612,3620,3625,3630,3636,3641,3647,3652,3657,3665,3670,3676,3681],{"type":22,"tag":23,"props":3514,"children":3515},{},[3516],{"type":27,"value":3517},"Am 3. Januar 2025 veranstaltete die BBV die zweite Folge ihrer Webinarreihe zur Künstlichen Intelligenz.\nModeriert wurden die Veranstaltung von Stefan Herberling und Alan Ettlin, die gemeinsam mit mir,\ntiefgehende Einblicke in das moderne Wissensmanagement mithilfe von KI-Agenten boten. Ziel des Webinars war es,\nüber den aktuellen Hype um Künstliche Intelligenz hinauszublicken und das Thema sowohl aus betriebswirtschaftlicher als\nauch technischer Perspektive zu beleuchten.",{"type":22,"tag":30,"props":3519,"children":3520},{":video-id":32},[],{"type":22,"tag":35,"props":3522,"children":3524},{"id":3523},"wissensmanagement-im-fokus",[3525],{"type":27,"value":3526},"Wissensmanagement im Fokus",{"type":22,"tag":23,"props":3528,"children":3529},{},[3530],{"type":27,"value":3531},"Zu Beginn des Webinars stellte ich die DIKW-Pyramide vor – eine grundlegende Struktur, die von Daten über Informationen\nund Wissen bis hin zur Weisheit reicht. Diese Pyramide dient als theoretischer Rahmen, um die verschiedenen Ebenen des\nWissensmanagements zu verstehen und effektiv zu gestalten.",{"type":22,"tag":47,"props":3533,"children":3534},{},[3535],{"type":22,"tag":23,"props":3536,"children":3537},{},[3538],{"type":27,"value":3539},"„Wissensmanagement ist nicht nur die Verwaltung von Datenbanken, sondern umfasst Prozesse, Methoden und Praktiken zur\ngemeinsamen Nutzung und Verwaltung von Informationen.“",{"type":22,"tag":23,"props":3541,"children":3542},{},[3543],{"type":27,"value":3544},"Diese Aussage unterstrich die Bedeutung eines effizienten Wissensmanagements als entscheidenden Erfolgsfaktor für die\nErreichung der Unternehmensziele. Ich erläuterte, dass Wissensmanagement weit über die einfache Verwaltung von Daten\nhinausgeht. Es umfasst die gemeinsame Nutzung und Verwaltung von Informationen, die notwendig sind, um die\nUnternehmensziele zu erreichen. Dabei geht es nicht nur um technische Systeme, sondern auch um die Prozesse\nund Praktiken, die sicherstellen, dass Wissen effektiv geteilt und genutzt wird.",{"type":22,"tag":35,"props":3546,"children":3548},{"id":3547},"definition-und-kontext-des-wissensmanagements",[3549],{"type":27,"value":3550},"Definition und Kontext des Wissensmanagements",{"type":22,"tag":23,"props":3552,"children":3553},{},[3554],{"type":27,"value":3555},"Wissensmanagement ist ein komplexes Feld, das sowohl strategische als auch operative Aspekte umfasst. In meiner\nPräsentation betonte ich, dass es dabei nicht nur um die Speicherung und Verwaltung von Daten geht, sondern vielmehr\num die Förderung einer Kultur des Wissensaustauschs und der kontinuierlichen Verbesserung. „In modernen Organisationen\nsind wir immer mehr zu wissensbasierten Unternehmen geworden. Ein effektives Wissensmanagement ist daher unerlässlich,\num wettbewerbsfähig zu bleiben und Innovationen voranzutreiben.“",{"type":22,"tag":23,"props":3557,"children":3558},{},[3559],{"type":27,"value":3560},"Ich erklärte weiter, dass ein zentrales Ziel des Wissensmanagements darin besteht, Wissen nicht nur zu sammeln,\nsondern es auch zugänglich und nutzbar zu machen. Dies erfordert eine Kombination aus technologischen Lösungen und\norganisatorischen Massnahmen, die sicherstellen, dass Wissen effektiv geteilt und genutzt wird. Dabei spielen sowohl\nexplizites Wissen, das leicht dokumentiert und geteilt werden kann, als auch implizites Wissen, das oft in den Köpfen\nder Mitarbeiter steckt, eine wichtige Rolle.",{"type":22,"tag":35,"props":3562,"children":3564},{"id":3563},"live-demonstration-ki-agenten-in-aktion",[3565],{"type":27,"value":3566},"Live-Demonstration: KI-Agenten in Aktion",{"type":22,"tag":23,"props":3568,"children":3569},{},[3570],{"type":27,"value":3571},"Der Höhepunkt des Webinars war die Live-Demo, in der ich zeigte, wie KI-Agenten das Wissensmanagement proaktiv\nunterstützen können. Anhand eines fiktiven Unternehmens namens „Eisbeit“, das in der Lebensmittelproduktion tätig ist,\ndemonstrierte ich, wie neue Mitarbeiter durch die Interaktion mit KI-Agenten schnell auf unternehmensspezifisches\nWissen zugreifen können.",{"type":22,"tag":47,"props":3573,"children":3574},{},[3575],{"type":22,"tag":23,"props":3576,"children":3577},{},[3578],{"type":27,"value":3579},"„Informationen aus verschiedenen Perspektiven zu beleuchten und so Weisheit zu generieren,“ erläuterte ich während\nder Demo, was die Effizienz und Genauigkeit der Wissensvermittlung erheblich steigerte.",{"type":22,"tag":23,"props":3581,"children":3582},{},[3583],{"type":27,"value":3584},"In der Demonstration wurde deutlich, wie KI-Agenten nicht nur explizites Wissen zugänglich machen, sondern auch\nimplizites Wissen aktiv fördern und integrieren können. Beispielsweise konnte ein neuer Mitarbeiter durch eine\neinfache Anfrage an den KI-Agenten Informationen über interne Prozesse und spezifische Unternehmensbegriffe erhalten,\nohne umfangreiche Schulungen absolvieren zu müssen. Die KI-Agenten waren in der Lage, Daten aus verschiedenen\nAbteilungen zusammenzuführen, zu kontextualisieren und in eine nutzbare Form zu bringen. Dadurch wird das Wissen nicht\nnur zentralisiert, sondern auch dynamisch und interaktiv bereitgestellt.",{"type":22,"tag":35,"props":3586,"children":3588},{"id":3587},"anwendungsbeispiele-aus-der-praxis",[3589],{"type":27,"value":3590},"Anwendungsbeispiele aus der Praxis",{"type":22,"tag":23,"props":3592,"children":3593},{},[3594],{"type":27,"value":3595},"Während der Demo zeigte ich konkrete Beispiele, wie KI-Agenten in einem Unternehmen wie „Eisbeit“ eingesetzt werden\nkönnen. Ein Beispiel war die Verwaltung von unternehmensspezifischen Begriffen wie „Frostflow“. Durch die Integration\neines Glossars konnte der KI-Agent diese Begriffe automatisch erkennen und erklären, was besonders für neue Mitarbeiter\nvon grossem Vorteil ist. Dies reduzierte die Einarbeitungszeit erheblich und förderte die Effizienz am Arbeitsplatz.",{"type":22,"tag":23,"props":3597,"children":3598},{},[3599],{"type":27,"value":3600},"Ein weiteres Beispiel war die Überwachung und Analyse von Produktionsdaten. Der KI-Agent konnte Temperaturdaten in\nEchtzeit überwachen und bei Abweichungen sofort Alarm schlagen, um die Qualität der Produkte sicherzustellen.\nDies zeigte eindrucksvoll, wie KI-Agenten nicht nur passiv auf Anfragen reagieren, sondern aktiv zur Verbesserung\nder Geschäftsprozesse beitragen können.",{"type":22,"tag":35,"props":3602,"children":3604},{"id":3603},"zukunftsperspektiven-und-roadmap",[3605],{"type":27,"value":3606},"Zukunftsperspektiven und Roadmap",{"type":22,"tag":23,"props":3608,"children":3609},{},[3610],{"type":27,"value":3611},"Nach der Live-Demonstration präsentierte ich eine umfassende Roadmap für die Implementierung von KI-Agenten im\nWissensmanagement. Der erste Schritt sei der Einstieg mit einfachen Sprachmodellen wie Fast GPT und Smart GPT.\nDiese Modelle bilden die Grundlage und ermöglichen eine schnelle Einführung ohne sofortige Anpassungen.",{"type":22,"tag":47,"props":3613,"children":3614},{},[3615],{"type":22,"tag":23,"props":3616,"children":3617},{},[3618],{"type":27,"value":3619},"„Es gibt viele Möglichkeiten, wie wir diese Agenten weiter verbessern können,“ fasste ich zusammen und betonte\ndie Flexibilität und Skalierbarkeit der vorgeschlagenen Lösungen.",{"type":22,"tag":23,"props":3621,"children":3622},{},[3623],{"type":27,"value":3624},"Darauf aufbauend sollte die Integration eigener Wissensdatenbanken erfolgen, um internes Firmenwissen bereitzustellen.\nIm dritten Schritt könnten proaktive Agenten eingeführt werden, die aktiv nachfragen und die Wissensdatenbank\nkontinuierlich erweitern. Dies bedeutet, dass die KI-Agenten nicht nur auf Anfragen reagieren, sondern auch proaktiv\nInformationen sammeln und das Wissen im Unternehmen erweitern können.",{"type":22,"tag":23,"props":3626,"children":3627},{},[3628],{"type":27,"value":3629},"Schliesslich könnten zusätzliche Informationskanäle überwacht und die Agenten individuell auf die Präferenzen der\nMitarbeiter zugeschnitten werden. Dies umfasst die Anpassung der Kommunikationsstile und die Integration von\npersönlichen Arbeitsgewohnheiten, um die Interaktion mit den KI-Agenten so effektiv wie möglich zu gestalten.",{"type":22,"tag":35,"props":3631,"children":3633},{"id":3632},"langfristige-visionen",[3634],{"type":27,"value":3635},"Langfristige Visionen",{"type":22,"tag":23,"props":3637,"children":3638},{},[3639],{"type":27,"value":3640},"Die Roadmap schliesst mit langfristigen Visionen ab, in denen KI-Agenten als integraler Bestandteil der\nUnternehmensstruktur fungieren. Dazu gehört die kontinuierliche Weiterentwicklung der Agenten durch maschinelles\nLernen und die Integration neuer Technologien, um stets auf dem neuesten Stand der Entwicklung zu bleiben.\nZiel ist es, eine intelligente und adaptive Wissensmanagement-Infrastruktur zu schaffen, die sich flexibel an\ndie sich wandelnden Bedürfnisse des Unternehmens anpasst.",{"type":22,"tag":35,"props":3642,"children":3644},{"id":3643},"interaktive-fragerunde",[3645],{"type":27,"value":3646},"Interaktive Fragerunde",{"type":22,"tag":23,"props":3648,"children":3649},{},[3650],{"type":27,"value":3651},"Im anschliessenden Q&A-Teil wurden zahlreiche spannende Fragen aus dem Publikum behandelt. Themen wie die\nautomatisierte Erstellung von Glossaren, das Vier-Augen-Prinzip für Expertenwissen, die Sicherheit und der\nDatenschutz bei der Integration von ERP-Systemen sowie das Lifecycle Management des Contents standen im Mittelpunkt.",{"type":22,"tag":23,"props":3653,"children":3654},{},[3655],{"type":27,"value":3656},"Auf die Frage nach der Vermeidung von falschem Wissen erklärte ich:",{"type":22,"tag":47,"props":3658,"children":3659},{},[3660],{"type":22,"tag":23,"props":3661,"children":3662},{},[3663],{"type":27,"value":3664},"„Man kann Algorithmen einsetzen, um Widersprüche in den Daten zu erkennen und entsprechende Massnahmen zu ergreifen.“",{"type":22,"tag":23,"props":3666,"children":3667},{},[3668],{"type":27,"value":3669},"Ich betonte die Wichtigkeit von automatisierten Prozessen kombiniert mit menschlicher Überprüfung, um die\nQualität und Zuverlässigkeit des Wissensmanagements sicherzustellen. Weitere Fragen behandelten die Integration\nvon Daten aus ERP-Systemen und die Möglichkeit, KI-Agenten zur automatischen Anonymisierung sensibler Daten zu\nentwickeln. Besonders hervorzuheben war die Diskussion über die Datensicherheit und den Datenschutz, wobei ich\nerklärte, wie wichtig es sei, vertrauenswürdige Anbieter zu wählen und klare Richtlinien für den Umgang mit\nsensiblen Informationen zu etablieren.",{"type":22,"tag":35,"props":3671,"children":3673},{"id":3672},"herausforderungen-und-lösungsansätze",[3674],{"type":27,"value":3675},"Herausforderungen und Lösungsansätze",{"type":22,"tag":23,"props":3677,"children":3678},{},[3679],{"type":27,"value":3680},"Ein zentrales Thema war die Integration von KI-Agenten in bestehende IT-Infrastrukturen. Hierbei wurde betont,\ndass eine sorgfältige Planung und eine schrittweise Implementierung notwendig sind, um die Kompatibilität mit\nbestehenden Systemen zu gewährleisten. Ich erläuterte verschiedene Ansätze zur Datenintegration und betonte\ndie Bedeutung von Schnittstellen, die eine nahtlose Kommunikation zwischen den KI-Agenten und den bestehenden\nIT-Systemen ermöglichen.",{"type":22,"tag":23,"props":3682,"children":3683},{},[3684],{"type":27,"value":3685},"Ein weiteres wichtiges Thema war die Skalierbarkeit der KI-Lösungen. Ich erklärte, dass die Skalierbarkeit eine\nzentrale Rolle spielt, um den steigenden Anforderungen eines wachsenden Unternehmens gerecht zu werden. Durch den\nEinsatz modularer Architekturen und flexibler Cloud-Lösungen können Unternehmen sicherstellen, dass ihre KI-Agenten\nmit dem Unternehmen wachsen und sich an veränderte Anforderungen anpassen können.",{"title":7,"searchDepth":274,"depth":274,"links":3687},[3688,3689,3690,3691,3692,3693,3694,3695],{"id":3523,"depth":277,"text":3526},{"id":3547,"depth":277,"text":3550},{"id":3563,"depth":277,"text":3566},{"id":3587,"depth":277,"text":3590},{"id":3603,"depth":277,"text":3606},{"id":3632,"depth":277,"text":3635},{"id":3643,"depth":277,"text":3646},{"id":3672,"depth":277,"text":3675},"content:presentations:webinar_wissensmanagement.md","presentations\u002Fwebinar_wissensmanagement.md","presentations\u002Fwebinar_wissensmanagement",{"_path":3700,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":3701,"description":3503,"eventName":3702,"subtitle":3703,"logo":3704,"eventDate":3705,"eventDuration":3706,"audience":3707,"views":3708,"videoId":3709,"body":3710,"_type":286,"_id":3850,"_source":288,"_file":3851,"_stem":3852,"_extension":291},"\u002Fpresentations\u002Fwebinar_schwarmintelligenz","Webinar: Schwarmintelligenz","bbv KI Webinar - Schwarmintelligenz","So transformieren KI-Agenten Ihr Unternehmen","\u002Fimages\u002Fpresentations\u002Fwebinar1\u002Fschwarmintelligenz.png","2023-12-13","54 Min.","ca. 60 Teilnehmende",875,"7dEHUcZze9I",{"type":19,"children":3711,"toc":3848},[3712,3717,3720,3728,3733,3738,3743,3751,3756,3761,3769,3774,3779,3784,3789,3794,3799,3807,3812,3817,3825,3830,3835,3843],{"type":22,"tag":23,"props":3713,"children":3714},{},[3715],{"type":27,"value":3716},"In unserem Webinar zum Thema „Schwarmintelligenz: So transformieren KI-Agenten Ihr Unternehmen“ habe ich gemeinsam mit\nJoel Barmettler beleuchtet, wie Unternehmen von generativer KI konkret profitieren können und weshalb jetzt der\nrichtige Moment ist, damit zu starten. Dabei ging es uns nicht nur darum, den aktuellen KI-Hype zu hinterfragen,\nsondern vor allem zu zeigen, dass KI längst ein wirkungsvolles Werkzeug im betrieblichen Alltag geworden ist.\nViele Unternehmen haben bereits erkannt, dass sich mithilfe künstlicher Intelligenz sowohl Prozesse automatisieren\nals auch neue Geschäftsfelder erschliessen lassen.",{"type":22,"tag":30,"props":3718,"children":3719},{":video-id":32},[],{"type":22,"tag":47,"props":3721,"children":3722},{},[3723],{"type":22,"tag":23,"props":3724,"children":3725},{},[3726],{"type":27,"value":3727},"“KI-Agenten bringen Unternehmen einen echten Mehrwert, wenn sie Aufgaben klar definieren und ihnen die richtigen\nTools an die Hand geben.”",{"type":22,"tag":23,"props":3729,"children":3730},{},[3731],{"type":27,"value":3732},"Durch diesen Fokus auf den praktischen Nutzen von KI haben wir einen Rahmen geschaffen, in dem Fragen nach Machbarkeit,\nSicherheit und Kostenkontrolle deutlich werden. Gerade in der aktuellen Phase, in der generative KI in rasanten\nSchritten voranschreitet, bietet es sich an, den Einstieg gezielt zu planen und mit einer klaren Strategie zu verknüpfen.",{"type":22,"tag":23,"props":3734,"children":3735},{},[3736],{"type":27,"value":3737},"Der Weg zur generativen KI\nIm nächsten Schritt sind wir auf die jüngere Forschungsgeschichte eingegangen, um zu verdeutlichen, wie sich\nSprachmodelle von GPT-2 über GPT-3 (das viele durch ChatGPT kennen) bis hin zu den aktuell diskutierten\nMulti-Agent-Systemen entwickelt haben. Diese Entwicklung ist beachtlich, weil sie deutlich macht, warum\nKI-Agenten heute weit mehr leisten können als noch vor wenigen Jahren.",{"type":22,"tag":23,"props":3739,"children":3740},{},[3741],{"type":27,"value":3742},"So wurde etwa das Konzept des Few-Shot Learning vorgestellt. Dabei geht es darum, dass ein grosses Sprachmodell\nwie GPT-3 neue Aufgaben erlernen kann, ohne dass man es jedes Mal komplett neu trainiert. Stattdessen reicht es,\ndem Modell wenige Beispiele zu geben, damit es Zusammenhänge erkennt und eigenständig überträgt. Noch spannender\nwird es mit den sogenannten ReAct-Ansätzen, bei denen sich Sprachmodelle nicht nur auf das reine Textverständnis\nbeschränken, sondern zusätzlich „denken“ und externe Tools oder Datenquellen „anzapfen“ können, um komplexe Aufgaben\nzu bewältigen.",{"type":22,"tag":47,"props":3744,"children":3745},{},[3746],{"type":22,"tag":23,"props":3747,"children":3748},{},[3749],{"type":27,"value":3750},"“Die Fähigkeit von KI-Modellen, selbstständig ‚nachzudenken‘ und passend zu handeln, öffnet völlig neue\nMöglichkeiten, wenn es um die Automatisierung von High-Level-Aufgaben geht.”",{"type":22,"tag":23,"props":3752,"children":3753},{},[3754],{"type":27,"value":3755},"Dadurch sind wir in der Lage, nicht nur einfache Frage-Antwort-Szenarien umzusetzen, sondern Agenten zu schaffen,\ndie eigenständig Zwischenschritte planen. Sie holen sich dabei selbst die notwendigen Informationen, zum Beispiel\naus internen Firmendokumenten, oder greifen auf externe Services zu, um ihre Aufgabe zu erfüllen.",{"type":22,"tag":23,"props":3757,"children":3758},{},[3759],{"type":27,"value":3760},"Von Einzel-Agenten zum KI-Schwarm\nAn diesem Punkt haben wir den Bogen gespannt zu der Idee, KI-Agenten nicht isoliert, sondern miteinander vernetzt\neinzusetzen. Denn so entsteht eine Art Schwarmintelligenz, bei der jeder Agent für eine klar definierte Aufgabe\nzuständig ist und zugleich die Fähigkeit besitzt, mit anderen Agenten zu kooperieren oder sich bei Bedarf abzustimmen.\nIm Ergebnis lässt sich die Leistungsfähigkeit eines Unternehmens quasi vervielfachen, weil nun mehrere spezialisierte\nAgenten parallel oder aufeinander abgestimmt arbeiten.",{"type":22,"tag":47,"props":3762,"children":3763},{},[3764],{"type":22,"tag":23,"props":3765,"children":3766},{},[3767],{"type":27,"value":3768},"“Ein Agent allein kann schon hilfreich sein, doch der wahre Hebel entsteht, wenn mehrere Agenten in Teams agieren\nund sich gegenseitig kontrollieren und ergänzen.”",{"type":22,"tag":23,"props":3770,"children":3771},{},[3772],{"type":27,"value":3773},"Besonders hervorgehoben haben wir dabei zwei grundsätzliche Interaktionsmodelle. Im ersten Modell, dem Gruppenchat,\ntauschen sich alle Agenten (und bei Bedarf auch menschliche Teammitglieder) direkt aus. Das erinnert an Chat-Gruppen,\nwie wir sie im Arbeitsalltag bereits in Slack oder Teams nutzen. Im zweiten Modell gibt es einen Koordinator-Agenten,\nder die vollständige Kommunikation steuert und die Ergebnisse in einer knappen, gut verständlichen Form zurückmeldet.\nWelche Variante sich besser eignet, hängt von Faktoren wie Teamkultur, Arbeitsweise und konkreten Projektanforderungen\nab.",{"type":22,"tag":23,"props":3775,"children":3776},{},[3777],{"type":27,"value":3778},"Implementierung und Praxis\nNatürlich wollten wir auch zeigen, wie ein Unternehmen dieses Potenzial nutzen kann. Im Webinar haben wir vier\naufeinanderfolgende Phasen vorgestellt, die sich in der Praxis bewährt haben, um KI-Agenten nach und nach erfolgreich\nzu implementieren.",{"type":22,"tag":23,"props":3780,"children":3781},{},[3782],{"type":27,"value":3783},"Zunächst geht es in der Einführungsphase darum, erste KI-Agenten mit relativ engen, gut definierbaren Aufgaben zu\nbetrauen. So lernen sowohl die Mitarbeiterinnen und Mitarbeiter als auch die KI, was funktioniert und wo eventuelle\nGrenzen liegen. Dieses Vorgehen stärkt das gegenseitige Vertrauen und erlaubt, Risiken in einem kontrollierten Rahmen\nzu halten.",{"type":22,"tag":23,"props":3785,"children":3786},{},[3787],{"type":27,"value":3788},"Sobald sich erste Erfolge eingestellt haben, kann in der zweiten Phase die Autonomie der Agenten ausgebaut werden.\nDabei geht es vor allem darum, dass die Agenten selbständig Wissenslücken erkennen und Experten aktiv um neue\nInformationen bitten, wenn ihnen etwas fehlt. Dieser Prozess nimmt der Belegschaft zwar zeitweise etwas Geduld ab,\nstärkt aber nachhaltig das Selbstverständnis der Agenten im Tagesgeschäft.",{"type":22,"tag":23,"props":3790,"children":3791},{},[3792],{"type":27,"value":3793},"In der dritten Phase kommt es schliesslich zur gezielten Vernetzung. Hier werden mehrere Agenten so konfiguriert,\ndass sie gemeinsame Projekte bearbeiten können. Für das Unternehmen bedeutet das einen spürbaren Effizienzschub,\ndenn die Agenten steuern sich in gewissem Masse gegenseitig, um ihr jeweiliges Fachgebiet einzubringen.",{"type":22,"tag":23,"props":3795,"children":3796},{},[3797],{"type":27,"value":3798},"Wenn diese Zusammenarbeit gut eingespielt ist, kann man den nächsten Schritt gehen und in der vierten Phase einen\nübergeordneten Koordinator-Agenten installieren. Das beschleunigt vor allem komplexe Projekte, weil nicht mehr jedes\nTeammitglied jeden Agenten verstehen und anwählen muss. Stattdessen gibt es eine zentrale Anlaufstelle, die intern alle\nbenötigten Ressourcen—sowohl menschliche als auch maschinelle—koordiniert.",{"type":22,"tag":47,"props":3800,"children":3801},{},[3802],{"type":22,"tag":23,"props":3803,"children":3804},{},[3805],{"type":27,"value":3806},"“Der grosse Unterschied zwischen einem Einzel-Agenten und einem Schwarm besteht in der dezentralen Selbstorganisation\nund im Zusammenspiel spezialisierter KI-Systeme.”",{"type":22,"tag":23,"props":3808,"children":3809},{},[3810],{"type":27,"value":3811},"Wie bereits erwähnt, hängt der Erfolg in dieser Implementierungsphase stark von Sicherheits- und Datenschutzaspekten ab.\nDeshalb haben wir auch konkrete Ansätze vorgestellt, wie man zum Beispiel Berechtigungen steuert, Kostentransparenz\nsicherstellt und kontinuierlich die Qualität der Agenten überwacht.",{"type":22,"tag":23,"props":3813,"children":3814},{},[3815],{"type":27,"value":3816},"Ausblick\nIm letzten Teil des Webinars haben wir uns ausgemalt, wie dieses Zusammenspiel noch grösser gedacht werden kann.\nIn naher Zukunft werden Firmen nicht nur ihre internen KI-Agenten haben, sondern können zugleich mit externen Agenten\nanderer Unternehmen kooperieren. So entsteht ein regelrechtes KI-Ökosystem, in dem spezialisierte Agenten „as a Service“\nangeboten werden. Die Vorstellung, dass ganze Unternehmen darauf basieren, KI-Agenten für andere zu entwickeln und zur\nVerfügung zu stellen, ist längst nicht mehr futuristisch—die Open-Source-Community arbeitet bereits fieberhaft daran,\nentsprechende Multi-Agent-Frameworks zu erstellen.",{"type":22,"tag":47,"props":3818,"children":3819},{},[3820],{"type":22,"tag":23,"props":3821,"children":3822},{},[3823],{"type":27,"value":3824},"“Wir werden schon bald Plattformen sehen, auf denen Firmen KI-Agenten unterschiedlicher Anbieter einkaufen oder\nmieten können, um massgeschneiderte Lösungen für ihre individuellen Herausforderungen zu bekommen.”",{"type":22,"tag":23,"props":3826,"children":3827},{},[3828],{"type":27,"value":3829},"Die anschliessende Fragerunde hat gezeigt, dass der Bedarf an Informationen im Bereich Datenschutz, On-Premise-Lösungen,\nRechteverwaltung und Kostenoptimierung sehr hoch ist. Unser Fazit lautet, dass es für Unternehmen essenziell ist, von\nAnfang an klare Prozesse und einen Technologie-Stack zu definieren, damit der Einsatz von KI-Agenten nicht nur sicher,\nsondern auch wirtschaftlich tragfähig ist.",{"type":22,"tag":23,"props":3831,"children":3832},{},[3833],{"type":27,"value":3834},"Wir freuen uns, diese Themen im nächsten Webinar unserer Reihe weiter zu vertiefen—insbesondere den Aspekt des\ngemeinsamen Wissensmanagements zwischen Mensch und Maschine. Denn das Potenzial, Unternehmenswissen effizienter zu\nerfassen, zu strukturieren und nutzbar zu machen, ist mit KI-Agenten grösser denn je.",{"type":22,"tag":47,"props":3836,"children":3837},{},[3838],{"type":22,"tag":23,"props":3839,"children":3840},{},[3841],{"type":27,"value":3842},"“Wer jetzt startet, hat die Chance, die Gestaltung dieser neuen Wertschöpfungsketten aktiv mitzubestimmen—und sich\nlangfristig einen entscheidenden Wettbewerbsvorteil zu sichern.”",{"type":22,"tag":23,"props":3844,"children":3845},{},[3846],{"type":27,"value":3847},"Wir sind davon überzeugt, dass KI-Agenten zum „Game Changer“\nwerden können—wenn man sie strategisch sinnvoll im Unternehmen verankert und dabei rechtzeitig an Vertrauen,\nTransparenz und passende Prozesse denkt.",{"title":7,"searchDepth":274,"depth":274,"links":3849},[],"content:presentations:webinar_schwarmintelligenz.md","presentations\u002Fwebinar_schwarmintelligenz.md","presentations\u002Fwebinar_schwarmintelligenz",{"_path":3854,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":3855,"description":3856,"eventName":3857,"subtitle":3858,"logo":3859,"eventDate":3860,"eventDuration":3861,"audience":3862,"carouselItems":3863,"links":3870,"body":3871,"_type":286,"_id":3980,"_source":288,"_file":3981,"_stem":3982,"_extension":291},"\u002Fpresentations\u002Fbbv_ki_revolution","Anwendungsgebiete","Beim Event «KI-Revolution» zeigte die bbv Software Services AG, wie generative KI-Technologien Arbeitsprozesse \ntransformieren können. Von praxisnahen Demonstrationen innovativer KI-Agenten bis hin zu strategischen Einblicken \nin unternehmerische Anwendungen bot die Veranstaltung einen inspirierenden Blick auf die Zukunft der künstlichen \nIntelligenz. Der interaktive Austausch mit Teilnehmern und Experten rundete den Tag ab und hinterliess zahlreiche \nneue Impulse.\n","bbv - KI-Revolution","Praktische Beispiele von KI Agenten","\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fki_revolution.png","2023-09-27","ca 15 Min.","30-40 Teilnehmende",[3864,3865,3866,3867,3868,3869],"\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fimg_1.png","\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fimg_2.png","\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fimg_3.png","\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fimg_4.png","\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fimg_5.png","\u002Fimages\u002Fpresentations\u002Fki_revolution\u002Fimg_6.png","https:\u002F\u002Fwww.linkedin.com\u002Ffeed\u002Fupdate\u002Furn:li:activity:7113196433511510016\u002F",{"type":19,"children":3872,"toc":3970},[3873,3879,3884,3890,3895,3901,3906,3912,3917,3923,3928,3932,3938,3943,3949,3954,3958],{"type":22,"tag":35,"props":3874,"children":3876},{"id":3875},"ein-blick-in-die-zukunft-der-ki-rückblick-auf-den-event-ki-revolution",[3877],{"type":27,"value":3878},"Ein Blick in die Zukunft der KI: Rückblick auf den Event «KI-Revolution»",{"type":22,"tag":23,"props":3880,"children":3881},{},[3882],{"type":27,"value":3883},"Beim Event «KI-Revolution», gehostet von der bbv Software Services AG, hatten wir die Möglichkeit,\nunseren Kunden die faszinierenden Möglichkeiten der künstlichen Intelligenz näherzubringen.\nUnter dem Titel KI-Revolution, stand die neue und schnellwachsende Technologie der generative KI im Fokus.\nZiel des Events war es, die Potenziale moderner KI-Technologien aufzuzeigen und greifbar zu machen.",{"type":22,"tag":35,"props":3885,"children":3887},{"id":3886},"inspirierende-begrüssung-und-einleitung",[3888],{"type":27,"value":3889},"Inspirierende Begrüssung und Einleitung",{"type":22,"tag":23,"props":3891,"children":3892},{},[3893],{"type":27,"value":3894},"Den Auftakt des Events bildete eine herzliche Begrüssung durch Stefan Häberling und Alan Ettlin.\nSie richteten inspirierende Worte an die Teilnehmer und schufen damit eine motivierende Atmosphäre\nfür die nachfolgenden Inhalte. Direkt im Anschluss folgte Joel Barmettler mit seiner Präsentation\nüber KI-Agenten. Dabei erklärte er nicht nur, wie diese funktionieren, sondern auch, wie sie agieren\nund in welchen unterschiedlichen Formen sie auftreten können. Besonders hervorzuheben war seine Erläuterung\nzu den Adaptionsstufen von KI-Agenten, die von einfachen bis hin zu hochkomplexen Systemen reichen.",{"type":22,"tag":35,"props":3896,"children":3898},{"id":3897},"technologische-grundlagen-und-tiefere-einblicke",[3899],{"type":27,"value":3900},"Technologische Grundlagen und tiefere Einblicke",{"type":22,"tag":23,"props":3902,"children":3903},{},[3904],{"type":27,"value":3905},"Im weiteren Verlauf des Events führte Cedric Klinkert die Teilnehmer in die technischen Grundlagen\nmoderner KI-Technologien ein. Seine Präsentation beleuchtete, wie Sprachmodelle im Kern arbeiten und\nwelche Mechanismen hinter Konzepten wie der Retrieval Augmented Generation (RAG) stehen. Mit anschaulichen\nErklärungen und praxisnahen Beispielen machte er diese komplexen Technologien für das Publikum greifbar und\nverständlich.",{"type":22,"tag":35,"props":3907,"children":3909},{"id":3908},"praktische-anwendungen-im-bbv-ai-hub",[3910],{"type":27,"value":3911},"Praktische Anwendungen im BBV AI Hub",{"type":22,"tag":23,"props":3913,"children":3914},{},[3915],{"type":27,"value":3916},"Im Mittelpunkt meiner eigenen Präsentation stand der BBV AI Hub, unsere Plattform für die Entwicklung und\nErprobung von KI-Lösungen. Ich demonstrierte verschiedene KI-Agenten in Aktion, um die vielseitigen\nEinsatzmöglichkeiten zu veranschaulichen. Besonders beeindruckend war der sogenannte LinkedIn-Agent,\nder in der Lage ist, Social-Media-Posts im Einklang mit unseren firmeneigenen Richtlinien zu erstellen.\nEin weiteres Beispiel zeigte, wie ein RAG-Agent mit unserem internen Unternehmenswiki arbeitet, um\ngezielt auf Mitarbeiterfragen zu antworten und relevante Informationen aufzubereiten. Darüber hinaus\npräsentierte ich einen interaktiven Gruppenchat, in dem mehrere KI-Agenten miteinander interagieren,\num komplexe Fragestellungen gemeinschaftlich zu lösen. Diese praktischen Demonstrationen machten deutlich,\nwie KI-Technologien Arbeitsabläufe vereinfachen und optimieren können.",{"type":22,"tag":35,"props":3918,"children":3920},{"id":3919},"generative-ki-und-ihr-einfluss-auf-unternehmen",[3921],{"type":27,"value":3922},"Generative KI und ihr Einfluss auf Unternehmen",{"type":22,"tag":23,"props":3924,"children":3925},{},[3926],{"type":27,"value":3927},"Alan Ettling setzte den thematischen Schwerpunkt anschliessend auf die Auswirkungen generativer KI im\nunternehmerischen Kontext. In seiner Präsentation beleuchtete er, wie Unternehmen durch den Einsatz\nsolcher Technologien effizienter arbeiten und gleichzeitig innovativer werden können. Dabei ging er auch\nauf die strategischen Herausforderungen und Chancen ein, die sich aus der Integration von KI-Lösungen ergeben.",{"type":22,"tag":2280,"props":3929,"children":3931},{":height":3930,":items":2283,":width":2284},"450",[],{"type":22,"tag":35,"props":3933,"children":3935},{"id":3934},"interaktiver-abschluss-mit-podiumsdiskussion",[3936],{"type":27,"value":3937},"Interaktiver Abschluss mit Podiumsdiskussion",{"type":22,"tag":23,"props":3939,"children":3940},{},[3941],{"type":27,"value":3942},"Zum Abschluss des Events kamen alle Referenten für eine Podiumsdiskussion zusammen.\nIn diesem interaktiven Format hatten die Teilnehmer die Möglichkeit, offene Fragen zu stellen und vertiefende\nEinblicke in die präsentierten Themen zu gewinnen. Die lebhaften Diskussionen zeigten, wie gross das Interesse\nund die Begeisterung für die vorgestellten KI-Lösungen waren.",{"type":22,"tag":35,"props":3944,"children":3946},{"id":3945},"ein-inspirierender-tag-voller-neuer-perspektiven",[3947],{"type":27,"value":3948},"Ein inspirierender Tag voller neuer Perspektiven",{"type":22,"tag":23,"props":3950,"children":3951},{},[3952],{"type":27,"value":3953},"Der Event «KI-Revolution» war nicht nur ein Schaufenster moderner KI-Technologien, sondern auch ein Ort für den\nAustausch von Ideen und Visionen. Die Teilnehmer verliessen die Veranstaltung mit neuen Impulsen und einem klareren\nVerständnis dafür, wie künstliche Intelligenz ihre Arbeitsprozesse und Geschäftsmodelle bereichern kann. Diese Reise\nin die Welt der KI hat einmal mehr gezeigt, wie nah die Zukunft bereits ist.",{"type":22,"tag":35,"props":3955,"children":3956},{"id":2315},[3957],{"type":27,"value":2318},{"type":22,"tag":1203,"props":3959,"children":3960},{},[3961],{"type":22,"tag":1017,"props":3962,"children":3963},{},[3964],{"type":22,"tag":2326,"props":3965,"children":3967},{"href":3870,"rel":3966},[2330],[3968],{"type":27,"value":3969},"Linkedin Beitrag der bbv zum Event",{"title":7,"searchDepth":274,"depth":274,"links":3971},[3972,3973,3974,3975,3976,3977,3978,3979],{"id":3875,"depth":277,"text":3878},{"id":3886,"depth":277,"text":3889},{"id":3897,"depth":277,"text":3900},{"id":3908,"depth":277,"text":3911},{"id":3919,"depth":277,"text":3922},{"id":3934,"depth":277,"text":3937},{"id":3945,"depth":277,"text":3948},{"id":2315,"depth":277,"text":2318},"content:presentations:bbv_ki_revolution.md","presentations\u002Fbbv_ki_revolution.md","presentations\u002Fbbv_ki_revolution",{"_path":4,"_dir":5,"_draft":6,"_partial":6,"_locale":7,"title":8,"description":9,"eventName":10,"subtitle":11,"logo":12,"eventDate":13,"eventDuration":14,"audience":15,"views":16,"videoId":17,"body":3984,"_type":286,"_id":287,"_source":288,"_file":289,"_stem":290,"_extension":291},{"type":19,"children":3985,"toc":4179},[3986,3990,3993,3997,4001,4008,4012,4016,4020,4024,4031,4035,4039,4043,4047,4051,4055,4062,4066,4070,4074,4078,4082,4086,4090,4094,4101,4105,4109,4113,4117,4121,4125,4129,4133,4140,4144,4148,4152,4156,4163,4167,4171,4175],{"type":22,"tag":23,"props":3987,"children":3988},{},[3989],{"type":27,"value":28},{"type":22,"tag":30,"props":3991,"children":3992},{":video-id":32},[],{"type":22,"tag":35,"props":3994,"children":3995},{"id":37},[3996],{"type":27,"value":40},{"type":22,"tag":23,"props":3998,"children":3999},{},[4000],{"type":27,"value":45},{"type":22,"tag":47,"props":4002,"children":4003},{},[4004],{"type":22,"tag":23,"props":4005,"children":4006},{},[4007],{"type":27,"value":54},{"type":22,"tag":23,"props":4009,"children":4010},{},[4011],{"type":27,"value":59},{"type":22,"tag":35,"props":4013,"children":4014},{"id":62},[4015],{"type":27,"value":65},{"type":22,"tag":23,"props":4017,"children":4018},{},[4019],{"type":27,"value":70},{"type":22,"tag":23,"props":4021,"children":4022},{},[4023],{"type":27,"value":75},{"type":22,"tag":47,"props":4025,"children":4026},{},[4027],{"type":22,"tag":23,"props":4028,"children":4029},{},[4030],{"type":27,"value":83},{"type":22,"tag":23,"props":4032,"children":4033},{},[4034],{"type":27,"value":88},{"type":22,"tag":35,"props":4036,"children":4037},{"id":91},[4038],{"type":27,"value":94},{"type":22,"tag":23,"props":4040,"children":4041},{},[4042],{"type":27,"value":99},{"type":22,"tag":23,"props":4044,"children":4045},{},[4046],{"type":27,"value":104},{"type":22,"tag":23,"props":4048,"children":4049},{},[4050],{"type":27,"value":109},{"type":22,"tag":23,"props":4052,"children":4053},{},[4054],{"type":27,"value":114},{"type":22,"tag":47,"props":4056,"children":4057},{},[4058],{"type":22,"tag":23,"props":4059,"children":4060},{},[4061],{"type":27,"value":122},{"type":22,"tag":23,"props":4063,"children":4064},{},[4065],{"type":27,"value":127},{"type":22,"tag":35,"props":4067,"children":4068},{"id":130},[4069],{"type":27,"value":133},{"type":22,"tag":23,"props":4071,"children":4072},{},[4073],{"type":27,"value":138},{"type":22,"tag":23,"props":4075,"children":4076},{},[4077],{"type":27,"value":143},{"type":22,"tag":23,"props":4079,"children":4080},{},[4081],{"type":27,"value":148},{"type":22,"tag":23,"props":4083,"children":4084},{},[4085],{"type":27,"value":153},{"type":22,"tag":35,"props":4087,"children":4088},{"id":156},[4089],{"type":27,"value":159},{"type":22,"tag":23,"props":4091,"children":4092},{},[4093],{"type":27,"value":164},{"type":22,"tag":47,"props":4095,"children":4096},{},[4097],{"type":22,"tag":23,"props":4098,"children":4099},{},[4100],{"type":27,"value":172},{"type":22,"tag":23,"props":4102,"children":4103},{},[4104],{"type":27,"value":177},{"type":22,"tag":35,"props":4106,"children":4107},{"id":180},[4108],{"type":27,"value":183},{"type":22,"tag":23,"props":4110,"children":4111},{},[4112],{"type":27,"value":188},{"type":22,"tag":23,"props":4114,"children":4115},{},[4116],{"type":27,"value":193},{"type":22,"tag":23,"props":4118,"children":4119},{},[4120],{"type":27,"value":198},{"type":22,"tag":35,"props":4122,"children":4123},{"id":201},[4124],{"type":27,"value":204},{"type":22,"tag":23,"props":4126,"children":4127},{},[4128],{"type":27,"value":209},{"type":22,"tag":23,"props":4130,"children":4131},{},[4132],{"type":27,"value":214},{"type":22,"tag":47,"props":4134,"children":4135},{},[4136],{"type":22,"tag":23,"props":4137,"children":4138},{},[4139],{"type":27,"value":222},{"type":22,"tag":23,"props":4141,"children":4142},{},[4143],{"type":27,"value":227},{"type":22,"tag":35,"props":4145,"children":4146},{"id":230},[4147],{"type":27,"value":233},{"type":22,"tag":23,"props":4149,"children":4150},{},[4151],{"type":27,"value":238},{"type":22,"tag":23,"props":4153,"children":4154},{},[4155],{"type":27,"value":243},{"type":22,"tag":47,"props":4157,"children":4158},{},[4159],{"type":22,"tag":23,"props":4160,"children":4161},{},[4162],{"type":27,"value":251},{"type":22,"tag":23,"props":4164,"children":4165},{},[4166],{"type":27,"value":256},{"type":22,"tag":35,"props":4168,"children":4169},{"id":259},[4170],{"type":27,"value":262},{"type":22,"tag":23,"props":4172,"children":4173},{},[4174],{"type":27,"value":267},{"type":22,"tag":23,"props":4176,"children":4177},{},[4178],{"type":27,"value":272},{"title":7,"searchDepth":274,"depth":274,"links":4180},[4181,4182,4183,4184,4185,4186,4187,4188,4189],{"id":37,"depth":277,"text":40},{"id":62,"depth":277,"text":65},{"id":91,"depth":277,"text":94},{"id":130,"depth":277,"text":133},{"id":156,"depth":277,"text":159},{"id":180,"depth":277,"text":183},{"id":201,"depth":277,"text":204},{"id":230,"depth":277,"text":233},{"id":259,"depth":277,"text":262},1775680436101]