Logo Marius Högger

bbv KI Webinar - KI als Entwicklungspartner

Webinar: KI als Entwicklungspartner

23.4.2025
ca. 50 Teilnehmende

Am 23. April 2025 veranstaltet die BBV eine weitere Folge ihrer Webinarreihe zur Künstlichen Intelligenz, diesmal mit Fokus auf Softwareentwicklung. Ich moderiere die Session und führe durch praxisnahe Einblicke aus dem BBV AI Hub. Gemeinsam mit meinen Kollegen Thomas Mannhart, Michèle Fundneider, Noah Hermann und Joel Barmettler beleuchten wir, wie KI entlang des Entwicklungsprozesses eingesetzt wird – von der Anforderungsanalyse über das Coding bis hin zu Testing, Reviews und Architekturentscheidungen. Ziel ist ein nüchterner, anwendungsorientierter Blick darauf, welche Methoden und Arbeitsweisen sich im Alltag bewähren und wo bewusstes Kontext- und Qualitätsmanagement entscheidend bleibt.

Loading YT...

KI im Entwicklungsprozess: praxisnahe Erfahrungen aus dem BBV AI Hub

KI ist im Alltag der Softwareentwicklung angekommen. Im BBV AI Hub zeigt sich besonders deutlich, wie stark sich Arbeitsweisen verändern, wenn Sprachmodelle nicht nur einzelne Fragen beantworten, sondern beim Strukturieren, Formulieren, Prüfen und Verstehen von Entwicklungsartefakten mitarbeiten. Ziel ist dabei kein Tool-Vergleich, sondern ein praxisnaher Blick auf Methoden und Strategien, die sich im Entwicklungsprozess bewähren – von der Anforderungsanalyse über Codeentwicklung bis hin zu Testing und Review. Die Inhalte richten sich an technisch versierte Personen, die Softwareentwicklungsprozesse bereits kennen, unabhängig davon, ob sie mit KI gerade erst starten oder bereits Erfahrung mitbringen.

“Unser Ziel heute ist es, praxisnahe Einblicke in die Möglichkeiten und Herausforderungen der Integration von KI in den Entwicklungsprozess zu geben.”

Im Webinar kommen mehrere Rollen aus dem Team zu Wort, um unterschiedliche Perspektiven sichtbar zu machen: Anforderungen aus Workshops verdichten, KI für Coding produktiv nutzen, schneller in neue Codebases und Konzepte finden und als Architekt den Überblick über Tools, Frameworks und Systementscheidungen behalten. Ein roter Faden zieht sich durch alle Beiträge: KI entfaltet den grössten Nutzen dort, wo Kontext sauber geführt wird und Ergebnisse überprüfbar bleiben.

Von Workshop-Ergebnissen zu Requirements: unstrukturierte Daten schnell nutzbar machen

Workshops erzeugen oft viele Artefakte: Notizen, Skizzen, Post-its, Flipcharts, Mockups. Der Engpass liegt weniger in fehlenden Informationen als in deren Aufbereitung: Was wurde entschieden, wie lässt sich das strukturiert an Team und Kunden zurückspielen, und wie entstehen daraus umsetzbare Anforderungen? Thomas beschreibt einen Workflow, der hier stark entlastet.

Ein wichtiger Schritt ist, Inhalte direkt nach dem Workshop per Speech-to-Text festzuhalten. Statt später mühsam aus dem Gedächtnis zu rekonstruieren, entsteht früh eine Rohfassung – bewusst unstrukturiert, aber vollständig. Diese Rohfassung wird danach durch Assistenten in eine strukturierte Form gebracht, etwa als Epics und Requirements inklusive Akzeptanzkriterien. Zusätzlich können Fotos von Post-its oder Plakaten als Kontext dienen: Modelle extrahieren Inhalte aus Bildern, clustern sie und liefern Zusammenfassungen, die sich wiederum für Requirements, Projektlogs oder Dokumentation verwenden lassen.

“Ich diktiere einfach mal alles, was mir über diesen Workshop einfällt – und habe es somit in einer unstrukturierten Form schon einmal gespeichert.”

Zur Zuverlässigkeit gehört ein realistischer Blick: Für kleinere, klar abgegrenzte Features funktioniert die automatische Erstellung besonders gut, bei grösserem Scope steigt der Nachbearbeitungsbedarf. Praktisch ist, dass KI nicht nur “generiert”, sondern auch beim Prüfen hilft: Vorschläge für nicht-funktionale Requirements, Hinweise auf Lücken, Widersprüche oder zu vage Formulierungen.

“Hey, fällt dir noch etwas auf? Ist etwas widersprüchlich? Ist etwas zu schwammig?”

KI beim Coding: Kontext bewusst wählen statt “alles reinschütten”

Michelle nutzt KI breit im Engineering-Alltag: Code generieren, refactoren, Tests schreiben, Ideen validieren – sowohl über IDE-nahe Tools (z.B. Copilot) als auch über Chat-Interfaces. Die grösste Herausforderung ist weniger das Modell selbst als das Kontextmanagement. Zwei Extreme treten immer wieder auf: zu viel Kontext (unspezifisch, unklar, woher Aussagen stammen) und zu wenig Kontext (generische Vorschläge, die nicht zu Guidelines, Sprache oder Architektur passen).

Der praktikable Ausweg ist bewusstes, oft manuelles Kontextmanagement: relevante Codeschnitte gezielt auswählen, Ziel und Randbedingungen klar formulieren, Beispiele mitgeben – und bei Themenwechsel konsequent neue Chats starten. Zusätzlich lohnt es sich, wiederkehrende Projektinfos in spezialisierten Assistenten zu bündeln (Guidelines, Ausgabeformate, typische Constraints), um nicht bei jeder Aufgabe von vorn beginnen zu müssen.

“Klarheit statt Datenflut – lieber weniger, aber sauber erklärter Kontext.”

Auch die Websuche in KI-Tools wird eher gezielt eingesetzt: standardmässig deaktiviert, um den Kontext kontrollierbar zu halten, und nur dann aktiviert, wenn Aktualität wirklich nötig ist (z.B. Library-Bugs, neue Releases). Das folgt dem gleichen Prinzip: Kontext bewusst öffnen, nicht zufällig erweitern.

Einarbeitung, Lernen und Reviews: KI als Navigator und Vorab-Check

Aus Sicht eines Juniors (Noah) ist KI besonders hilfreich beim Einstieg in grosse Codebases. Wenn man noch nicht weiss, wo etwas implementiert ist, kann KI helfen, abstrakte Fragen (“Wie machen wir Persistenz?”) auf konkrete Stellen im Code abzubilden. So entsteht schneller Orientierung, ohne ständig das Team zu blockieren.

Für neue Konzepte, die nicht direkt in der Codebase stehen, hilft eine zweite Technik: der KI vorzugeben, wie man lernen möchte. Noah nutzt dafür die Metapher eines Wissensbaums (Grundlagen → Kernkonzepte → Details) und steuert das Tempo explizit: erst weitergehen, wenn das aktuelle Konzept wirklich sitzt. Ergebnis ist ein dialogischer Lernprozess statt eines überladenen “Alles-auf-einmal”-Texts.

“Mach erst mit dem nächsten Konzept weiter, wenn ich wirklich sage, ich habe es verstanden.”

Zusätzlich wird KI als Vorab-Review genutzt: Pull Requests lassen sich automatisch zusammenfassen und auf Auffälligkeiten prüfen (z.B. potenzielle Sicherheitsprobleme). Das ersetzt kein menschliches Review, hilft aber bei Triage und Vorbereitung – etwa um früh zu sehen, wie gross ein PR ist und wo die riskanten Stellen liegen.

Architektur und Tool-Landschaft: vom Big Picture zur Umsetzung

Als KI-Architekt arbeitet Joel stark am Anfang von Kundenprojekten: Anforderungen, Infrastruktur, Datenschutz, Modellwahl und die Frage, welche Probleme überhaupt mit KI gelöst werden sollen. Gleichzeitig muss die Plattformperspektive mitdenken, welche Tools und Standards “in sechs Monaten” relevant werden. Um Informationsfluten zu bewältigen, helfen Deep-Research-Workflows – entscheidend ist dabei die Quellenkontrolle. Statt breite Webrecherche werden vertrauenswürdige Quellen bevorzugt (Papers, GitHub, ausgewählte Communities), um das Risiko von Fehlinformationen zu senken.

Nach der Vorselektion kommt das Eintauchen: neue Open-Source-Projekte sind oft schlecht dokumentiert, daher hilft KI besonders beim Navigieren durch Codebases und beim Auffinden relevanter Implementationsstellen. Für Systemfragen kann ein sehr grosses Kontextfenster sinnvoll sein (z.B. kondensierte Codebase, um sinnvolle Integrationspunkte zu identifizieren). Für das tatsächliche Coding wird der Kontext anschliessend wieder reduziert, damit präzise Änderungen möglich bleiben. Der Wechsel zwischen “viel Kontext für Überblick” und “wenig Kontext für Umsetzung” ist hier ein bewusstes Muster.

“Auf jeder Stufe verwende ich andere Tools – vom Überblick bis zur spezifischen Implementation.”

Modelle, Benchmarks und Datenschutz: pragmatische Leitplanken

Beim Vergleich von Modellen helfen Benchmarks und Leaderboards, aber sie sind nicht unfehlbar: Modelle können auf Benchmarks optimiert sein. Blindtests mit Nutzerbewertungen sind robuster, dafür weniger spezifisch. Praktisch bewährt sich eine Mischung: grobe Einordnung über Leaderboards, dann Abgleich über Coding- oder Reasoning-Benchmarks, und am Ende der eigene Vergleich mit typischen Alltagsaufgaben (gleiche Frage an mehrere Modelle). Datenschutz bleibt dabei ein Rahmen, der Toolwahl und Hosting-Optionen mitbestimmt – besonders in Kundenprojekten.

© 2026 - Marius Högger - Powered by AI.