Bootcamp Artificial Intelligence for Management
Überblick aktueller KI-Trends in der Schweizer Industrie
Am 05. März 2026 hatte ich die Gelegenheit, im Rahmen des FHNW AI Bootcamps einen Vortrag zum Thema „Überblick aktueller KI-Trends in der Schweizer Industrie" zu halten. Unter dem Motto „Vier Trends — ein Muster" habe ich versucht, den Teilnehmenden nicht einfach eine Bestandsaufnahme der KI-Landschaft zu liefern, sondern die verborgene Logik hinter scheinbar unabhängigen Entwicklungen sichtbar zu machen. Mein Versprechen an die Zuhörenden war klar: Sie verlassen den Raum mit einem klaren Bild, wie diese Trends zusammenhängen — und mit drei konkreten Fragen für ihre nächste KI-Entscheidung.
Den Einstieg machte eine Zahl, die viele überrascht: KI ist in den vergangenen 18 Monaten 300-mal günstiger geworden. Der Preis pro KI-Intelligenzeinheit fiel von 32 auf 0.10 US-Dollar. Das ist kein schrittweiser Fortschritt — das ist eine strukturelle Verschiebung, die alles Folgende erst ermöglicht.
Trend 1: Modell-Revolution — Die Wahl wird risikoarm
Der erste Trend betrifft die Modelle selbst. GPT, Claude, Gemini, DeepSeek — die führenden Frontier-Modelle operieren heute auf vergleichbarem Niveau. Das zeigen sowohl der Artificial Analysis Intelligence Index als auch unabhängige Benchmarks wie der Mensa Norway IQ Test von trackingai.org. Proprietäre Modelle wie GPT (OpenAI), Claude (Anthropic) und Gemini (Google) stehen leistungsfähigen Open-Source-Alternativen wie DeepSeek, Llama (Meta) und Qwen (Alibaba) gegenüber.
Die praktische Konsequenz daraus ist entscheidend: Unternehmen müssen sich nicht mehr für ein einziges Modell entscheiden — alle sind gut genug. Die Modellwahl ist risikoarm geworden. Damit entsteht eine klare Architektur: Die Modell-Schicht (Rechenzentrum mit proprietären und Open-Source-Modellen) wird zur austauschbaren Infrastruktur — vergleichbar mit der Cloud vor zehn Jahren.
Trend 2: Agents — Von Chat zu Action
Der zweite Trend ist der Wechsel vom Gesprächspartner zum Mitarbeiter. Ein Chatbot beantwortet die Frage „Wie waren unsere Q4-Zahlen?". Ein Agent dagegen erledigt die Aufgabe: Quartalsbericht erstellen, mit Vorjahr vergleichen, Entwurf ans Management schicken. Agents können Tools nutzen, Workflows folgen und Rückfragen stellen — aber: Ein Agent ohne Zugang zu den Systemen eines Unternehmens ist wie ein neuer Mitarbeiter ohne Laptop.
Wichtig ist dabei eine konzeptionelle Unterscheidung, die ich in der Praxis oft vermisse: Ein reaktiver Assistent hilft dem Nutzer. Ein Unternehmens-Agent hilft der Organisation — er hat eine eigene Identität, arbeitet für die Organisation und erhält aufgabenbasierten Zugang zu Daten, nicht nutzerabhängigen. Ein Agent, der nur auf Nutzeranfragen reagiert, ist kein Agent — sondern ein Assistent.
Auf dem Spektrum zwischen vordefinierten Workflows und vollständig autonomen Systemen empfehle ich in der Praxis, mit Workflows zu starten und schrittweise zu erweitern. Vordefinierte Workflow-Agents sind vorhersagbar und kontrollierbar — ideal für bekannte, standardisierte Prozesse. Agentic AI dagegen plant und entscheidet selbst, ist mächtiger, aber schwerer zu steuern.
Als konkretes Praxisbeispiel zeigte ich einen Use Case zum Wissensmanagement: Schlüsselpersonen gehen in Pension — ihr Wissen geht mit. Ein KI-Assistent deckt rund 80 Prozent der Anfragen aus vorhandenen Handbüchern und Dokumenten ab. Wo die Wissensbasis nicht ausreicht, leitet ein KI-Agent die Frage an eine Expertin oder einen Experten weiter — und speichert die neue Antwort dauerhaft in der Wissensbasis. So entsteht ein lernendes System, das institutionelles Wissen konserviert, bevor es das Unternehmen verlässt.
Trend 3: Integration — KI-Inseln werden verbunden
Der dritte Trend ist MCP — das Model Context Protocol. Ich beschreibe es gerne als „USB für KI": ein offener Standard, der KI-Plattformen (als MCP Client) mit beliebiger Unternehmenssoftware (als MCP Server) verbindet — CRM, ERP, Kalender, Dokumente, Ticketsysteme. Auf der einen Seite stehen Systeme wie Claude Desktop oder Claude Code, auf der anderen Seite PostgreSQL, GDrive, Git, Slack, Google Maps.
Das zweite Praxisbeispiel aus diesem Abschnitt stammt aus dem industriellen Umfeld: Ein Maschinenhersteller verfügt über analytische Sensordaten — deterministisch, aber kontextlos. Erst die Kombination mit den Nutzungs- und Wartungsdaten beim Verwender, zugänglich via MCP, ermöglicht echte Mehrwerte: Predictive Maintenance und Auto-Kalibrierung. Der Wert lag nicht im Modell — sondern in der Verbindung.
Ein weiteres Beispiel: Ein Gerätehersteller automatisiert den Support, indem ein KI-Agent direkt in Jira arbeitet. Wird ein Ticket eröffnet, durchsucht der Agent automatisch Handbücher und alte Tickets, erstellt einen Antwortvorschlag und legt ihn dem Supportteam zur Freigabe vor. Der Agent arbeitet dort, wo das Team arbeitet — nicht in einem separaten KI-Tool. Das vollständige Bild zeigt eine dreischichtige Architektur: Business Applikationen (CRM, ERP, Analytics) verbunden über API, MCP und A2A mit der KI-Plattform, welche wiederum über eine API auf das Rechenzentrum zugreift.
Trend 4: Lock-In — Die Kehrseite der Plattform
Der vierte Trend ist die strategische Kehrseite der Plattformentwicklung. Was als einfacher Chatbot begann (2023: Fragen stellen, Antworten bekommen), wurde 2024 zum Assistenten (Dokumente analysieren, Bilder verstehen) und ist 2025/26 zur vollwertigen Plattform geworden, die Hotels bucht, Kalender verwaltet und Aufgaben eigenständig erledigt. Je mächtiger diese Plattform, desto grösser die Abhängigkeit.
Lock-In entsteht dabei schleichend auf drei Ebenen: Die Wissensbasis mit Dokumenten, Vektorisierung und Synchronisation lässt sich kaum migrieren. Workflows, die in visuellen Buildern erstellt wurden, sind in der Regel nicht exportierbar. Und das Memory — Chatverläufe, Präferenzen, Kontextwissen — geht beim Plattformwechsel schlicht verloren.
Die gute Nachricht: Souveränität ist auf allen Ebenen möglich. Offene Standards wie MCP und A2A schützen vor Abhängigkeiten. Und für den Schweizer Kontext zeigt ein Ausblick auf den Swiss AI Hub und Anbieter wie Infomaniak, dass es realistische Alternativen zur vollständigen Abhängigkeit von US-Hyperscalern gibt — von der Modellschicht bis zur Plattformebene.
Synthese: Nicht das Modell entscheidet — die Plattform entscheidet
Die vier Trends folgen einem Muster: Modelle konvergieren und die Wahl wird risikoarm. Agents handeln, brauchen aber Werkzeuge und Daten. MCP verbindet als offener Standard. Und Lock-In entsteht, weil die Plattform-Wahl strategisch ist. Die zentrale Botschaft des Vortrags lässt sich in einem Satz zusammenfassen: Nicht das Modell entscheidet. Die Plattform entscheidet.
Was bedeutet das konkret? Drei Fragen sollten Unternehmen stellen, bevor sie eine KI-Plattform wählen: Ist sie offen? Wer kontrolliert die Daten? Welche Integrationen sind möglich — heute und in Zukunft?
Die Diskussion im Anschluss zeigte, dass diese Fragen den Nerv vieler Teilnehmender trafen — besonders die Unterscheidung zwischen Assistent und Agent sowie der konkrete Ansatz, mit Workflows zu starten statt gleich auf maximale Autonomie zu setzen. Ich bin überzeugt, dass wir uns in einer Phase befinden, in der die strategischen Weichen für den KI-Einsatz der nächsten Jahre gestellt werden — und freue mich darauf, diesen Weg weiter zu begleiten.
