„AI-Transformation“ klingt nach Steering-Committees, 7-stelligen Budgets und Change-Programmen über mehrere Quartale. In der Realität holst du 80 % der Wirkung, wenn du drei Dinge richtig machst: sofortige Breite in der Nutzung, ein winziger, aber sauberer Daten-Scope und ein erstes, messbares System, das echte Minuten spart. Tempo ist hier keine kosmetische Variable, sondern eine Architektureigenschaft: Geschwindigkeit setzt weitere Geschwindigkeit frei.
Beginnen wir mit dem, was bereits funktioniert – öffentlich, überprüfbar, replizierbar. Klarna hat seinen KI-Assistenten in 23 Märkten auf 35+ Sprachen ausgerollt. Bereits im ersten Monat führte er zwei Drittel aller Service-Chats, erledigte das Äquivalent von 700 Vollzeit-Agenten, senkte Wiederhol-Anfragen um 25 % und verkürzte die Lösungszeit von ~11 auf unter 2 Minuten. Später schätzte Klarna den Profitbeitrag allein 2024 auf ~40 Mio $. Das sind keine Laborwerte, sondern Produktionsmetriken aus dem Unternehmens-Report. Auch BBVA zeigt, was „Nutzung zuerst“ bedeutet: 125 000 Mitarbeitende, 83 % tägliche Nutzung und in fünf Monaten ~3 000 selbstgebaute GPT-Assistenten. Diese wurden nicht im IT-Elfenbeinturm entwickelt, sondern von eigenen Teams – ein breit verteiltes Kompetenz-Upgrade im Tagesgeschäft. Auf Anbieterseite professionalisieren die Großen die Enterprise-Schiene. PwC rollte ChatGPT Enterprise hausweit für über 100 000 Mitarbeitende aus und wurde zugleich erster globaler Reseller – ein klares Signal: Das Thema ist nicht „Pilot-Spielwiese“, sondern Linienbetrieb und Go-to-Market.
Breite + ein fokussierter erster Anwendungsfall sind also nicht nur hübsch in der Theorie, sie zahlen sich empirisch aus. Nie ging etwas schneller und leichter als heute.
Der Proof-Pfad: von 0 auf 100 % in vier Schritten
1. Breite vor Tiefe. Gib heute der gesamten Belegschaft Zugang zu einem Enterprise-tauglichen AI-Assistenten (Datenschutz, Logging, Policies). Formuliere drei einfache _Do/Don’t_s und setze ein minimales Mess-Setup auf: tägliche aktive Nutzer, Minutenersparnis in Standardaufgaben, erste Teams mit > 50 % Nutzungsrate. Du brauchst dafür noch keine Datenmigration – es geht darum, dass Sprache sofort Arbeit spart: E-Mails, Notizen, Recherchen, Zusammenfassungen. BBVA zeigt, dass Akzeptanz und Eigenbau-Initiative dann von selbst entstehen, wenn alle sofort machen können.
2. Winziger Daten-Scope, perfekt gemacht. Wähle einen abgeschlossenen Bereich (z.B. FAQs, Richtlinien, Produkt-Sheets, Handbücher), der oft gefragt wird und wenig Streit über die „Quelle der Wahrheit“ auslöst. Indexiere ihn sauber: sinnvolles Chunking der Dokumente, gute Metadaten, Berechtigungen respektieren. Der Trick ist nicht „alle Daten“, sondern ein Bereich, in dem niemand mehr suchen muss. Ein Knoten weniger Friktion genügt, um zu zeigen, was alles geht.
3. Erstes System, das Minuten spart. Baue in 2–4 Wochen (wenn du entsprechend heutigem SF standard arbeitest, brauchst du nur 48h) einen Single-Agent-RAG-Assistenten, der genau diesen Scope beantwortet – im Intranet, in MS Teams oder im Helpdesk. Miss “time-to-answer”, “Reopen-Rate” und “First-Contact-Resolution”. Wenn dein System zehn Fragen am Tag beantwortet und pro Antwort fünf Minuten spart, hast du in einem Team nach einer Woche harte, kaufmännische Evidenz. Solche Effekte skalieren – siehe Klarna und BBVA. Es geht um ein Ende-zu-Ende-System, kein Laborexperiment.
4. Pilot → Rollout. Rolle das gleiche Muster in die nächste Domäne, bevor du Architektur-Neubau diskutierst. Was du suchst, ist Reproduzierbarkeit: gleicher Pipeline-Ansatz, neue Daten, ähnlicher Messrahmen. Parallel steigerst du die Nutzungsbreite weiter (Office-Aufgaben, Coding-Hilfen, Recherche). Mit Copilot-ähnlichen Setups wirst du nicht jede Aufgabe halbieren, aber zuverlässig zweistellige Effekte auf Speed und Output-Qualität erzielen; die Literatur ist dafür inzwischen belastbar.
Was du nicht tun solltest
Kein „Monolith-Big-Bang“ à la „erst alles in die Cloud, dann KI“. Kein „Stealth-POC“, der nie echten Traffic sieht. Keine Policy-Paralyse aus Angst vor dem Einzelfall, während täglich hunderte Stunden liegen bleiben. Die führenden Beispiele zeigen, dass Produktionsnähe + messbarer Nutzen den kulturellen Teil von selbst ziehen. Klarnas Assistent startete nicht perfekt – aber im Betrieb wurde er gut. BBVA verankerte generative KI nicht in einer Taskforce, sondern im ganzen Unternehmen, und lenkte den Schwung dann gezielt auf Fokusthemen.
Die Metriken, die zählen
Zähle Nutzung (wöchentliche aktive User, Anteil Teams > 50 % WAU), Zeiteffekte (Minuten pro Vorgang, “time-to-answer”), Qualität (Reopen-Rate, Kundenzufriedenheit) und Skalierung (wie schnell lässt sich das Muster auf die nächste Domäne übertragen). BBVA misst das etwa an der schieren Menge selbstgebauter GPTs und der Aktivität pro Woche, Klarna an Auflösungszeit und Repeat-Quote; die Forschung liefert Querbezüge auf Speed & Output-Qualität. Wichtig: Jede dieser Metriken hat ein Pendant in Euro.
Warum das so schnell gehen kann
Weil wir hier Adoption betreiben, nicht Grundlagenforschung. Die Modelle und Patterns existieren; der Engpass ist Organisation. Wenn Tempo zur Architektureigenschaft wird – zuerst Nutzungsbreite, dann winziger Daten-Scope, dann erstes System mit harter Zeitersparnis – entsteht eine lokale, wiederholbare Gravitation: Mitarbeitende wollen das Tool, weil es Minuten schenkt; Fachbereiche fordern den nächsten Scope, weil der erste messbar wirkt; Führungskräfte sehen ROI in Wochen und priorisieren entsprechend.
Bringen wir es auf eine Formel: Breite heute, Scope morgen, System übermorgen. Dann misst du, rollst das Muster erneut aus – und bist schneller näher an „100 % AI-Adoption“, als es jeder 12-Monats-Plan je verspricht.