Logo Marius Högger

bbv KI Webinar - Rückblick/ Ausblick 2025/2026

Webinar: KI Trends 2026

14.1.2026
ca. 200 Teilnehmende

Rückblick 2025 und Ausblick 2026: KI zwischen Konvergenz, Plattformen und Souveränität

Der Rückblick auf 2025 dient nicht der Chronologie, sondern der Einordnung: Welche Kräfte prägen den Markt tatsächlich – und welche Entwicklungen sind für 2026 plausibel? Statt einzelner Produktmeldungen stehen wiederkehrende Muster im Fokus: Wie verändert sich die Leistungsdynamik von Modellen? Wo findet Differenzierung statt? Was bedeutet das für Kosten, Integration und Abhängigkeiten in Unternehmen?

Loading YT...

2025 als Jahr der Modell-Konvergenz

2025 wirkt auf den ersten Blick weniger spektakulär, weil klassische Benchmarks kaum noch große Sprünge zeigen. Das ist weniger ein Zeichen von Stillstand als ein Hinweis darauf, dass viele etablierte Messlatten „ausgereizt“ sind. Fortschritt verschiebt sich: Nicht das Knacken der nächsten Prozentpunkte dominiert, sondern Effizienz – kleinere Modelle, geringerer Ressourcenbedarf, stärkere Leistung pro Recheneinheit und zunehmend auch smartphone-taugliche Varianten.

„Die Challenge ist nicht mehr, den Benchmark zu knacken – sondern ihn mit immer kleineren, effizienteren Modellen zu erreichen.“

Gleichzeitig entsteht ein subjektiver Effekt: Für Alltagsaufgaben fühlt sich Fortschritt oft wie Stagnation an, weil viele Standard-Tasks bereits „gut genug“ gelöst sind. Messbar steigen Fähigkeiten dennoch weiter – nur zunehmend in Nischen, die erst bei domänenspezifischen Aufgaben spürbar werden.

Business-Perspektive: Modellwahl wird sekundär, Plattformwahl zentral

Wenn sich Modelle angleichen, verliert die Frage „welches Modell ist am intelligentesten?“ an Bedeutung. Relevanter werden Kriterien wie Kontextlänge, Kostenstruktur, Verfügbarkeit, Compliance, Datenfluss – und vor allem Integrationsfähigkeit. Damit verschiebt sich die Differenzierung deutlich weg vom Modellkern hin zur Plattform: Interface, Such- und Retrieval-Komponenten, Memory, Vektordatenbanken, Governance, Transparenz und agentische Workflows.

„Der große Differentiator ist nicht mehr das Modell – sondern die Plattform rundherum.“

Viele Funktionen, die im Alltag wie „Modellfähigkeiten“ wirken (Webrecherche, Quellenanzeige, Dokument-Retrieval, Memory), sind in der Praxis Plattformfunktionen. Daraus folgt: Der wahrgenommene Fortschritt entsteht zunehmend durch Produktisierung und Ökosystem statt durch reine Modell-Intelligenz.

USA vs. China: Infrastruktur-Wette gegen Open-Weight-Strategie

Ein zweites Leitmotiv 2025 ist die Rivalität zwischen USA und China – sichtbar über zwei kontrastierende Strategien. In den USA dominieren enorme Infrastrukturinvestitionen: Rechenzentren, Training und Inferenz, mit der Wette, dass mehr Compute zu besserer Marktposition führt. China setzt stärker auf Open Weights: Modelle und Forschung werden breit verfügbar gemacht, wodurch Innovation in der Breite beschleunigt und Preis- bzw. Effizienzdruck erzeugt wird.

„Intelligenz wird günstiger – nicht zwingend, weil alles billiger wird, sondern weil Leistung pro Dollar stark steigt.“

Diese Dynamik senkt Kosten für alle Marktteilnehmer, beschleunigt Open-Source-Ökosysteme und verschiebt zugleich wissenschaftlichen Einfluss. Für Unternehmen bedeutet das: Optionen werden vielfältiger, und Architekturentscheidungen gewinnen gegenüber Anbieterloyalität.

2025: Versprechen werden technisch eingelöst – und erzeugen „AI Slop“

In mehreren Modalitäten wirkt 2025 wie ein Reifejahr: Textintelligenz, große Kontexte, Bildgenerierung und zunehmend Video liefern Ergebnisse, die in vielen Fällen kaum noch an klaren technischen Grenzen scheitern. Gleichzeitig steigt die Menge generierter Inhalte schneller als deren Qualität. Daraus entsteht „AI Slop“: Inhalte, die ohne Sorgfalt produziert und ohne Kontrolle veröffentlicht werden – mit Risiko von Feedback-Loops, in denen KI wiederum KI-Inhalte als scheinbar legitime Quellen referenziert.

„Die Gedanken gehören Menschen – die Arbeit kann die KI machen.“

Der gleiche Mechanismus zeigt sich im Code: Die Engstelle verschiebt sich vom Schreiben hin zum Prüfen, Absichern und Einordnen. Wenn sehr viel Code sehr schnell entsteht, wächst das Risiko ungeprüfter Übernahmen und Sicherheitslücken – selbst dann, wenn die Basistechnologie beeindruckend ist.

Ausblick 2026: KI-Arbeit entsteht durch Prozesswandel, nicht durch das nächste Modell

Für 2026 zeichnet sich weniger eine „neue Modellmagie“ ab, sondern eine Umsetzungsfrage: Die Fähigkeiten sind da – entscheidend wird, ob Unternehmen bereit sind, Arbeitsweisen und Prozesse anzupassen. Erfahrungen aus der Softwareentwicklung zeigen ein typisches Muster: In der frühen Einführung entsteht zunächst ein Produktivitätstal (Toolwahl, neue Workflows, neue Rollen), bevor bei konsequenter Anpassung deutliche Beschleunigung möglich wird.

Wesentlich ist dabei eine Verschiebung der Rolle: weniger „Code schreiben“ bzw. „Output erzeugen“, mehr „Requirements präzisieren“, „Kontext bereitstellen“, „Ergebnisse reviewen“ und „Systeme so strukturieren, dass Agenten zuverlässig arbeiten können“.

2026 als Jahr der Integration

Im Privaten wirkt KI oft reibungslos, weil Nutzer bereits in integrierten Ökosystemen arbeiten. In Unternehmen ist das selten so: CRM, ERP, Datenbanken, Fachapplikationen, Legacy-Systeme und individuelle Prozesslandschaften lassen sich nicht einfach in ein Anbieter-Ökosystem überführen. Deshalb wird Integration zur Kernbedingung dafür, dass KI im Business wirklich Wert schöpft.

Ohne Integration bleibt KI ein „Chatfenster neben der Realität“. Mit Integration wird sie Bestandteil von Abläufen: Datenzugriff, Toolzugriff, Berechtigungen, Auditierbarkeit, Freigaben und nachvollziehbare Zwischenschritte.

MCP als Standard: Verbindung von KI-Plattformen und Business-Tools

Das Model Context Protocol (MCP) etabliert sich als Mechanismus, um KI-Clients (Plattformen, IDEs, Interfaces) mit MCP-Servern (Tools, Datenquellen, Business-Systemen) zu verbinden. Der Unterschied zu klassischen APIs liegt nicht in der Existenz einer Schnittstelle, sondern darin, dass die Schnittstelle agentisch gedacht ist: Fähigkeiten sind für Modelle beschreibbar und nutzbar, inklusive Interaktionsmustern wie Rückfragen oder Human-in-the-Loop.

„Nicht jede Organisation muss die Oberfläche bauen – eine Organisation kann auch nur als MCP-Server Wert liefern.“

Das verändert auch Business-Modelle: Wertschöpfung kann entstehen, indem Fähigkeiten so angeboten werden, dass Nutzer sie aus ihrer bevorzugten KI-Plattform heraus konsumieren – statt Nutzer zwingend in eine eigene UI zu ziehen.

2026 als Jahr des Logins: Lock-in entsteht dort, wo investiert wird

Weil Modelle austauschbarer werden, verlagert sich Lock-in auf Plattform- und Umsetzungsebene: Chat-History, Memory, Audit Logs – und vor allem die Investitionen in Datenprojekte, kuratierte Wissensbestände, Agenten-Workflows, Governance und Integrationen. Je mehr in einer Plattform „gebaut“ wird, desto höher werden die Wechselkosten.

Der größte Lock-in entsteht nicht durch das Modell, sondern durch die eigene Arbeit, die in Plattform- und Prozessstrukturen gegossen wurde.

Souveränität auf drei Ebenen: Rechenzentrum, Plattform, Business-Integration

Souveränität lässt sich nicht auf Hosting reduzieren. Relevante Entscheidungen betreffen mindestens drei Ebenen:

  1. Rechenzentrum / Betrieb: Wo laufen Modelle, wo liegen Daten physisch und rechtlich?
  2. KI-Plattform: Wer kontrolliert Memory, Audit Logs, Governance, Agentik und Erweiterbarkeit?
  3. Business-Integration: Welche Systeme sind angebunden, welche Datenflüsse entstehen, wie kontrollierbar sind sie?

Open-Source-Optionen und lokale Anbieter können auf allen Ebenen eine Rolle spielen – entscheidend ist, dass die Anforderungen (Datenschutz, Branchenregeln, Betriebsmodell, Transparenz, Erweiterbarkeit) explizit gemacht und über alle Ebenen konsistent umgesetzt werden.

Einordnende Schlusslinie für 2026

2026 wird weniger durch den „nächsten Modellknall“ spannend, sondern durch Umsetzung: Integration, saubere Datenarbeit, agentische Workflows mit Governance und die Bereitschaft, Prozesse und Rollenbilder anzupassen. Die Technologie liefert die Bausteine – Wert entsteht dort, wo sie in der Systemlandschaft und im Alltag verankert wird.

„Nicht blenden lassen: Die Gedanken gehören Menschen – die Arbeit kann die KI machen.“

© 2026 - Marius Högger - Powered by AI.