Logo Marius Högger

bbv KI Webinar - Rückblick/ Ausblick 2024/2025

Webinar: Generative KI und Autonome Agenten

22.1.2025
ca. 120 Teilnehmende

Rückblick und Ausblick: KI 2024 einordnen, 2025 antizipieren

KI wird im öffentlichen Diskurs oft so behandelt, als bestünde sie aus ChatGPT und ein paar Bildgeneratoren. Das greift zu kurz – und dennoch sagt die Beobachtung viel über die Dynamik von 2024 aus: Sprachmodelle werden zum Sinnbild für „KI“ und dominieren damit sowohl Wahrnehmung als auch Investitionsentscheidungen. Genau hier setzt der Rückblick an. Wer eine KI-Strategie für ein Unternehmen entwickeln will, muss weniger jede einzelne Schlagzeile kennen, sondern die grossen Bewegungen verstehen: Welche Modellkategorie setzt sich durch? Wer prägt den Markt? Welche Muster etablieren sich in der Nutzung – und welche Annahmen über Fortschritt und Kosten sind realistisch?

Loading YT...

2024 als Jahr der Sprachmodelle – und warum das für Unternehmen zählt

2024 steht erneut im Zeichen der Large Language Models (LLMs). Das ist nicht nur eine Fortsetzung von 2023, sondern eine Verschiebung in der Breite: Sprachmodelle werden nicht mehr nur als „Chat“ verstanden, sondern als generische Fähigkeitsschicht. Unternehmen sehen, dass sich aus denselben Grundfähigkeiten (Verstehen, Strukturieren, Generieren) eine erstaunliche Vielfalt an Business-Anwendungen herausziehen lässt – von Textarbeit über Recherche bis hin zu Assistenz in Fachprozessen.

Gleichzeitig verschwimmt die Grenze zwischen „reinem Sprachmodell“ und multimodaler KI. Bild- und Audiofähigkeiten werden zunehmend in die grossen Modelle integriert. Dadurch wirkt es so, als sei alles „ein Modell“, obwohl unterschiedliche Modalitäten und Produktfähigkeiten dahinterliegen. Für die Strategie bedeutet das: Nicht jedes KI-Thema muss parallel verfolgt werden. Wer LLMs und ihre Produktisierung konsequent beobachtet, versteht bereits einen grossen Teil dessen, was den Markt bewegt. Andere KI-Durchbrüche – etwa in spezialisierten Domänen wie Proteinfaltung – bleiben relevant, sind aber häufig weniger direkt in allgemeine Unternehmensprozesse zu übersetzen.

OpenAI als Diskurs-Motor – auch wenn „beste Modelle“ nicht die ganze Wahrheit sind

Ein zweites dominantes Muster 2024 ist die starke Zentralisierung der Aufmerksamkeit: OpenAI prägt die Erzählung rund um generative KI. Das zeigt sich weniger daran, dass OpenAI in jeder Kategorie unangefochten „die Nummer 1“ ist, sondern daran, dass Produktankündigungen, Releases und Begriffe so stark wirken, dass andere Entwicklungen in der Wahrnehmung überlagert werden. Selbst dort, wo Wettbewerber technisch gleichziehen oder in Teilbereichen vorbeiziehen, bleibt die öffentliche Aufmerksamkeit oft bei OpenAI.

„Man kann wirklich einfach schauen, was OpenAI macht – und kommt eigentlich ganz gut mit, was generell auf dem generativen KI-Markt passiert.“

Multimodalität ist dabei ein zentrales Leitmotiv: Modelle, die Bildinput verstehen, Sprache als Input und Output beherrschen und perspektivisch Video als Fähigkeitsschicht ergänzen. Die strategische Frage im Unternehmen ist weniger „Welche Demo ist beeindruckend?“, sondern: Welche Fähigkeiten werden gerade so stabil und günstig, dass sie als Bausteine in Produkte und Prozesse wandern können?

Im Videobereich zeigt sich 2024 zudem ein interessantes Paradox: OpenAI bestimmt die Schlagzeilen mit „Sora“, aber die tatsächliche Innovationsfront ist breiter. Es gibt bereits zuvor Videomodelle, und es gibt Modelle, die in einzelnen Qualitäten (z. B. Fotorealismus) stark sind. Für die Praxis heisst das: Marktbeobachtung darf nicht nur über Marken funktionieren, sondern muss Fähigkeiten, Qualitätskriterien und Integrationsmöglichkeiten vergleichen.

Assistenten, Copilots und das Muster „Mensch bleibt im Driver Seat“

Auf Anwendungsebene etabliert 2024 das „Assistenten-Denken“. Unternehmen führen generative KI häufig so ein, dass Mitarbeitende ein Tool bekommen, das sie punktuell konsultieren: Mail formulieren, Text zusammenfassen, Ideen strukturieren, kleine Teilaufgaben beschleunigen. Das gilt sowohl für allgemeine Tools (ChatGPT, etc.) als auch für produktgebundene Copilots (z. B. in Office- oder Coding-Umgebungen).

„Der gemeinsame Nenner: Der Mensch sitzt im Driver Seat – der Assistent wartet, bis er gefragt wird.“

Dieses Muster ist pragmatisch, schnell einführbar und oft der erste Schritt. Gleichzeitig hat es Nebenwirkungen: Es delegiert die eigentliche Nutzungsstrategie an jede einzelne Person. Mitarbeitende müssen selbst herausfinden, wann sich der Einsatz lohnt, wie man sauber promptet, welche Daten man geben darf, wie man Ergebnisse überprüft, wie man Plagiate vermeidet – und wo die Grenzen liegen. Ohne begleitende Enablement-Struktur entsteht ein Flickenteppich: einige nutzen es effektiv, andere gar nicht oder falsch, und viele bleiben bei den immer gleichen „Low-Hanging Fruits“.

Ein weiteres Praxisproblem betrifft die Abgrenzung: Aus Sicht der Nutzerinnen und Nutzer ist ein Chatfenster ein Chatfenster. Ob dahinter Unternehmenswissen, RAG, zusätzliche Tools oder Policies stecken, ist nicht automatisch sichtbar. Das führt zu falschen Erwartungen („Warum kann der Assistent das nicht so gut wie ChatGPT?“) oder umgekehrt zu riskantem Verhalten („Ist das jetzt intern sicher – oder public?“). Wer Assistenten ernsthaft in Unternehmen verankern will, braucht deshalb nicht nur Technik, sondern Produktdenken: klare Positionierung, klare Grenzen, und klare Kommunikation.

RAG wird „State of the Art“ – und gleichzeitig weniger dramatisch als früher

Retrieval Augmented Generation (RAG) stabilisiert sich 2024 als Standardmuster. Für viele unternehmensnahe Assistenten ist es der Schlüssel: Nicht darauf hoffen, dass das Modell das Fachwissen „schon irgendwo“ gelernt hat, sondern gezielt relevante Dokumente, Richtlinien, Wissensartikel oder Prozessbeschreibungen bereitstellen – und daraus Antworten generieren lassen. Damit lässt sich Aktualität, Nachvollziehbarkeit und Kontexttreue deutlich besser steuern.

Gleichzeitig verschiebt sich das RAG-Design durch wachsende Kontextfenster: Wenn Modelle sehr grosse Kontexte verarbeiten können, wird „die perfekte Auswahl der drei besten Snippets“ weniger zentral. Stattdessen geht es stärker um robuste Retrieval-Strategien, Datenqualität, Berechtigungen und eine saubere Übergabe in den Kontext – und um die Frage, wie viel Information sinnvoll ist, ohne die Antwort zu verwässern.

KI wird drastisch günstiger – ein Strategiefaktor, kein Nebendetail

Ein Kernbefund 2024 ist der Preisverfall: Für vergleichbare Benchmark-Leistung sinken die Kosten über wenige Jahre um Grössenordnungen. Das verändert die Wirtschaftlichkeit vieler Use Cases fundamental. Dinge, die „heute zu teuer“ wirken, können in kurzer Zeit in den Bereich „laufende Betriebskosten sind vernachlässigbar“ rutschen. Dadurch entstehen neue Kategorien von Anwendungen: mehr Volumen, mehr Automatisierung, mehr kontinuierliche Analysen, mehr „always-on“-Prüfungen.

„Intelligenz wird günstiger – das öffnet Use Cases, die heute noch an der Grenze sind.“

Wichtig dabei: Nicht jede Aufgabe braucht das „stärkste“ Modell. 2024 macht deutlicher, dass Modellwahl eine Architekturentscheidung ist. Es gibt Aufgaben, bei denen ein kleineres oder günstigeres Modell völlig ausreicht, während komplexe Aufgaben gezielt mit stärkeren Modellen gelöst werden. Diese Differenzierung ist in Unternehmen oft ein schneller Hebel, um Kosten zu senken und gleichzeitig mehr Anwendungen zu ermöglichen.

Gleichzeitig stagniert das Gefühl von „Quantensprüngen“

Parallel zum Preisverfall entsteht 2024 ein anderes Bild bei der reinen „Intelligenzkurve“ der Closed-Source-Spitzenmodelle: Die dramatischen Sprünge, wie sie beim Übergang von früheren Modellgenerationen wahrgenommen werden, flachen ab. Rankings verändern sich, einzelne Anbieter überholen sich punktuell, aber die Schritte wirken inkrementell. Das führt zu einer strategischen Korrektur: Fortschritt ist nicht automatisch linear extrapolierbar.

Dahinter stehen mehrere mögliche Bremsfaktoren: hochwertige Trainingsdaten sind nicht unendlich verfügbar, Skalierung stösst auf technische und ökonomische Grenzen, und grosse Durchbrüche brauchen oft neue Forschungsansätze (Architektur, Training, Daten, Optimierung). In der Praxis heisst das: Unternehmen sollten nicht darauf warten, dass „in sechs Monaten alles magisch doppelt so gut“ ist. Der bessere Ansatz ist, die Fähigkeiten der aktuellen Generation zu amortisieren – und parallel die nächste Welle zu beobachten.

Open Source wird erwachsen – „Privacy vs. Performance“ ist keine harte Entscheidung mehr

2024 ist zugleich ein starkes Jahr für Open-Source-Modelle. Die zentrale Veränderung: Open Source erreicht in vielen Benchmarks eine Nähe zu Top-Modellen, die zuvor nicht realistisch war. Damit verschiebt sich die klassische Dichotomie („Closed Source = gut, Open Source = schwach aber privat“). Open-Source-Modelle bieten zunehmend eine Kombination aus solider Performance, niedrigen Kosten und hoher Kontrolle.

„Die Switching Costs sind fast null: anderer Endpoint – und plötzlich massiv geringere Kosten.“

Für Unternehmen ist das strategisch relevant aus zwei Gründen: Erstens als Kostenhebel (je nach Setup und Hosting), zweitens als Abhängigkeitsthema. Wenn Alternativen realistisch werden, sinkt das Risiko, von einzelnen Anbietern oder Preismodellen vollständig abhängig zu sein. Gleichzeitig bleibt es wichtig, die Governance-Frage mitzudenken: Woher kommen die Modelle, welche Biases tragen sie, welche Lizenzen gelten – und wie wird das in einer Unternehmensrealität verantwortbar eingesetzt?

Blick in die Kristallkugel: Was 2025 prägen kann

„Computer Usage“ als Brücke: Modelle bedienen Oberflächen wie ein Mensch

Ein naheliegender Trend ist, dass Modelle nicht nur Text generieren, sondern den Computer „sehen“ und über UI-Aktionen bedienen: Maus bewegen, Buttons klicken, Felder ausfüllen, Texte eintippen. Das wirkt wie eine Übergangslösung, aber eine sehr praktische: Statt überall saubere Integrationen und APIs zu bauen, nutzt man das Interface, das bereits existiert. Gerade bei Software, die nicht KI-ready ist, kann das schnelle Automatisierung ermöglichen.

„Es ist wie mit Kanonen auf Spatzen – aber eine coole Übergangsphase.“

Langfristig bleibt UI-Automation weniger elegant als direkte Schnittstellen. Kurzfristig kann sie jedoch eine Lücke schliessen: Prozesse überbrücken, Tools anbinden, Legacy-Systeme nutzbar machen. Strategisch ist das weniger ein „Endzustand“ als ein Beschleuniger, um überhaupt agentische Workflows in reale Unternehmensumgebungen zu bringen.

Reasoning-Modelle als neue Ära – mit neuem Preis-/Zeit-Profil

Der vermutlich stärkste Wechsel 2025 ist die „Reasoning-Ära“: Modelle, die nicht sofort antworten, sondern intern länger nachdenken, Zwischenwege prüfen und Schrittfolgen erzeugen, bevor sie sich festlegen. Der Effekt: Auf harten Aufgaben steigt die Trefferquote deutlich – aber der Preis ist nicht nur monetär, sondern auch in Latenz und Planbarkeit.

„Je länger das Modell nachdenkt, desto besser wird die Performance – aber unter anderen Bedingungen.“

Ein entscheidender Punkt: Mehr Leistung kostet überproportional mehr. Die letzten Prozentpunkte Genauigkeit können exponentiell teurer werden. Das verändert die Entscheidungsmatrix in Unternehmen. Die Frage lautet nicht mehr nur „Welches Modell ist am besten?“, sondern: Wie viel Genauigkeit ist für diesen Use Case notwendig? Was kostet mich eine zusätzliche Qualitätsstufe – und ist sie überhaupt wirtschaftlich? In vielen Fällen liegt das pragmatische Optimum nicht bei maximalem Reasoning, sondern bei einem gut balancierten Setup aus günstigeren Basismodellen, gezieltem Kontext (RAG) und Reasoning nur dort, wo es wirklich zählt.

Von Assistenten zu Agenten: virtuelle Mitarbeitende statt passiver Helfer

Wenn 2024 der Mensch im Driver Seat bleibt, verschiebt sich 2025 der Fokus Richtung Agenten: Systeme, die Ziele verfolgen, Aufgabenketten planen, Zwischenschritte selbstständig ausführen und den Menschen nur dort einbinden, wo es Freigaben, Entscheidungen oder Kontext braucht. Das ist ein Rollenwechsel: Der Mensch assistiert dem Agenten punktuell, statt umgekehrt.

Gleichzeitig zeigt 2024, warum Agenten nicht „einfach so“ funktionieren: Ein offener Task, Tools, Datenzugriff – und dann „mach mal“ ist oft unzuverlässig. Agenten verlieren Fokus, laufen in Sackgassen oder verbrennen Budget ohne Ergebnis. 2025 zeichnet sich deshalb ein methodischer Shift ab: workflow-basierte Agentik. Erst eng führen, dann schrittweise Freiheiten geben. Dadurch entsteht nicht nur mehr Zuverlässigkeit, sondern auch besseres Engineering: Agenten werden zu steuerbaren Prozesskomponenten statt zu unberechenbaren Demos.

Agentic Process Automation: Prozesse integrieren – und dann neu denken

Der nächste Schritt nach „Agent in bestehendem Prozess“ ist, Prozesse selbst neu zu entwerfen. Agenten sind anders als Menschen: weniger tief spezialisiert, dafür breit einsetzbar, schnell kontextwechselnd, stark in Text/Analyse/Struktur – und mit Zugriff auf Tools. Das kann quer über Silos wirken. Prozesse, die früher streng über Abteilungen verteilt sind, lassen sich perspektivisch anders schneiden: stärker end-to-end, stärker datengetrieben, stärker über Fähigkeitsbündel statt Rollenprofile. 2025 ist hier eher das Jahr der Experimente und Diskussionen als der flächendeckenden Umsetzung – aber genau diese Diskussionen sind oft der Beginn echter Produktivitätsgewinne.

China als Beschleuniger – Open Source als geopolitische Variable

Ein weiterer Trend ist die wachsende Rolle chinesischer Modelle, insbesondere in der Open-Source-Welt. Wenn leistungsfähige Modelle aus China den Open-Source-Standard prägen, wird das neben technischen Fragen auch Governance- und Wertefragen verstärken: kulturelle Biases, inhaltliche Leitplanken, Trainingsdaten, politische Rahmenbedingungen. Gleichzeitig gilt: Auch bei US-Modellen existieren Biases und Interessenlagen. Die Verschiebung macht das Thema sichtbarer – und zwingt Unternehmen, bewusster zu entscheiden, welche Abhängigkeiten sie eingehen.

Die AGI-Debatte wird lauter – und bleibt dennoch schwer greifbar

2025 dürfte auch deshalb „AGI-lastig“ werden, weil der Begriff als Marker für Fortschritt und Marktführerschaft dient. Gleichzeitig bleibt AGI unscharf definiert. Selbst wenn ein Modell viele Benchmarks auf „menschlichem Niveau“ erreicht, heisst das nicht automatisch, dass es in der Praxis sofort massiven Business Value liefert. Reasoning kann teuer, langsam und nur in bestimmten Aufgabentypen wirklich überlegen sein.

Relevant ist zudem, dass wirtschaftliche und strategische Interessen in die Kommunikation hineinspielen können – etwa über vertragliche Konstrukte, bei denen das Ausrufen von „AGI“ bestimmte Partnerschaften oder Bedingungen beeinflussen könnte. Für Unternehmen folgt daraus eine nüchterne Haltung: AGI als Debatte beobachten, aber Use Cases, Kostenprofile, Integrationsfähigkeit und Risikoabschätzung höher gewichten als Labels.

Einordnende Schlusslinie für die Strategie

2024 zeigt eine operative Realität: Sprachmodelle sind die dominierende Fähigkeitsschicht, OpenAI prägt den Diskurs, Assistenten sind der verbreitetste Einstieg, RAG wird Standard, und die Kosten fallen dramatisch. Gleichzeitig flacht der Eindruck von „Intelligenz-Quantensprüngen“ bei klassischen Modellen ab, während Open Source erwachsen wird und echte Alternativen schafft.

2025 wirkt wie ein Übergang in eine neue Ära: mehr Agentik, mehr Prozessintegration, mehr Reasoning – aber unter neuen Bedingungen: höhere Kosten für Spitzenleistung, mehr Latenz, mehr Engineering-Disziplin, mehr Governance-Fragen. Die pragmatische Konsequenz ist zweigleisig: die Fähigkeiten der aktuellen Generation konsequent produktiv machen und amortisieren – und die nächste Welle so beobachten, dass man vorbereitet ist, wenn Preis und Reifegrad kippen.

© 2026 - Marius Högger - Powered by AI.