Copilot ist keine KI-Strategie
In den letzten Monaten war ich bei mehreren Kunden, die alle dasselbe gemacht haben: Microsoft Copilot für die gesamte Belegschaft lizenziert. Haken dran, KI-Strategie erledigt. Auf den Folien der IT-Leitung steht “KI-Transformation”, in der Realität passiert wenig bis nichts.
Ich sehe das gerade so häufig, dass ich es für einen Trend halte. Und für einen gefährlichen.
Das Setup
Das Muster ist immer gleich. Die Firma kauft Copilot-Lizenzen im Paket. Gleichzeitig wird alles andere gesperrt. ChatGPT? Gesperrt. Claude? Gesperrt. Lokale Modelle? Nicht vorgesehen. Die Begründung klingt vernünftig: Datenschutz, Compliance, zentrale Steuerung. Alles nachvollziehbar.
Das Problem ist nicht die Entscheidung für Copilot. Das Problem ist die Entscheidung gegen alles andere.
Was Mitarbeiter erleben
Bei den Unternehmen, in denen ich unterwegs bin, war als Standard-Modell GPT-4o-mini eingestellt. Ob das von Microsoft so vorgegeben ist oder die jeweilige IT-Abteilung das konfiguriert hat, weiß ich ehrlich gesagt nicht. Das Ergebnis ist dasselbe: Ein kleines, günstiges Modell, das für einfache Aufgaben ausreicht. Für alles darüber hinaus wird es schnell dünn. Wer auf bessere Modelle wechselt, stößt nach zehn Minuten intensiver Nutzung ans Limit. Danach heißt es warten.
Was passiert, wenn Mitarbeiter das ein paar Mal erleben? Sie hören auf, Copilot zu nutzen. Oder schlimmer: Sie nutzen es weiter, aber nur für triviale Dinge. Eine E-Mail umformulieren, eine Tabelle zusammenfassen. Das war’s.
Die Firma zahlt pro Kopf. Die Mitarbeiter nutzen einen Bruchteil der Möglichkeiten. Und alle Beteiligten bestätigen sich gegenseitig, dass KI “noch nicht so weit” ist.
Das Management-Theater
Was dann passiert, kenne ich aus erster Hand. Es wird ein Rollout-Plan gemacht, eine Townhall gehalten, eine Folie mit “AI Enablement” beschriftet. Drei Monate später schaut jemand in die Nutzungszahlen und stellt fest: Ein Bruchteil der Belegschaft hat das Tool überhaupt geöffnet. Noch weniger haben es mehr als einmal benutzt.
Aber die Lizenzen sind gebucht, das Budget ist ausgegeben, und irgendwer hat für die nächste Board-Präsentation eine Metrik erfunden, die nach oben und nach rechts geht. “Eingesparte Stunden” berechnet aus Mitarbeiterzahl mal einer Fantasiezahl. Das reicht für eine Microsoft-Fallstudie und einen LinkedIn-Post vom CEO. Der das Tool selbst nie angefasst hat.
Ich übertreibe? Leider kaum.
Der eigentliche Schaden
Hier wird es für mich persönlich frustrierend. Das Problem ist nicht das verschwendete Lizenzbudget. Das Problem ist, was mit der Vorstellungskraft der Mitarbeiter passiert.
Wenn die einzige KI-Erfahrung, die jemand in seinem Arbeitsalltag macht, ein limitiertes Copilot ist, dann wird das zur Referenz. “KI kann eine E-Mail zusammenfassen. Ganz nett.” Das ist der Horizont. Und er ist winzig.
Ich gebe ASE-Schulungen. Am Anfang frage ich immer, wer bereits mit KI arbeitet. Fast alle Hände gehen hoch. Dann frage ich, was genau sie damit machen. Die Antworten sind fast immer: Textgenerierung, Code-Vorschläge im Editor, vielleicht mal eine Frage an den Chat. Alles Stufe 1, alles Geschwindigkeit. Niemand denkt in Agenten, in Delegation, in autonomen Workflows.
Weil sie nie erlebt haben, was möglich ist.
Der OpenClaw-Moment
Ende Januar ist OpenClaw passiert. Ein Open-Source-Projekt, das KI-Agenten auf der eigenen Hardware laufen lässt und mit Messaging-Apps verbindet. Innerhalb weniger Tage viral gegangen, schneller gewachsen als jedes Open-Source-Projekt in der Geschichte von GitHub.
Was OpenClaw vor allem geschafft hat: Es hat einer ganzen LinkedIn-Bubble die Augen geöffnet. Plötzlich sahen Leute, dass KI mehr kann als Chatbots. Agenten, die autonom Aufgaben lösen, auf Dateien zugreifen, den Browser bedienen, E-Mails verschicken. Nicht als Demo auf einer Keynote, sondern auf dem eigenen Rechner.
Ausprobiert haben es die wenigsten. In den meisten Unternehmen, in denen ich unterwegs bin, war OpenClaw natürlich sofort geblockt. Böse, gefährlich, verboten. Und die Hälfte der Leute, die auf LinkedIn darüber geschrieben haben, hat es vermutlich nie installiert.
Aber allein der Hype hat etwas bewegt. Plötzlich tauchten in meinem Feed Fragen auf wie “Kann ein Agent meine Kalenderplanung übernehmen?” oder “Was passiert, wenn ich drei Agenten parallel an verschiedenen Teilen meines Projekts arbeiten lasse?”. Fragen, die vorher kaum jemand gestellt hat. Weil niemand auf die Idee gekommen ist.
Das war der Moment, in dem bei einigen der Groschen gefallen ist. KI ist kein aufgehübschtes Suchfeld. Es ist ein Werkzeug das handelt. Und wer nur Copilot kennt, kommt auf diese Idee gar nicht erst.
Microsofts Marktmacht als Flaschenhals
Was hier passiert, ist ein Muster, das Microsoft seit Jahrzehnten perfektioniert hat: Ein mittelmäßiges Produkt über die bestehende Enterprise-Vertriebsmaschine in die Fläche drücken. Teams statt Slack. Bing statt Google. Und jetzt Copilot statt der eigentlich besseren Alternativen. Das Produkt muss nicht das beste sein. Es muss nur im richtigen Lizenzpaket stecken.
Microsoft hat in Enterprises eine Marktmacht, die dafür sorgt, dass ihre Produkte zum Default werden. Wenn der IT-Einkauf ohnehin Microsoft 365 hat, ist Copilot der Weg des geringsten Widerstands. Kein neuer Vendor, kein neues Compliance-Verfahren, alles aus einer Hand.
Das klingt effizient. Aber es bedeutet auch: Microsoft bestimmt, welches Modell Mitarbeiter nutzen, wie viel sie davon nutzen dürfen und in welchem Kontext. Der Flaschenhals für die KI-Fähigkeit einer Organisation ist plötzlich nicht mehr die Technologie. Es ist der Lizenzvertrag.
Und das in einer Phase, in der sich alle drei Monate verschiebt, was möglich ist. Wer heute auf ein einziges Tool setzt und alles andere verbietet, der friert den Stand von heute ein. In sechs Monaten ist das der Stand von gestern.
Compliance over Innovation
Was mich dabei am meisten stört: In vielen Firmen entsteht gerade ein Klima, in dem Verbote der bequemste Weg sind. Wer KI als Trend abtut, ist auf der sicheren Seite. Wer warnt, wird nicht bestraft. Wer bremst, geht kein Risiko ein.
Compliance ist wichtig, keine Frage. Aber was ich beobachte, ist keine sorgfältige Abwägung. Es ist reflexhaftes Absichern. “Das können wir nicht erlauben, da müssten wir erstmal klären…” ist der Satz, mit dem in Enterprises jede Innovation stirbt. Und bei KI funktioniert er besonders gut, weil die Risiken real genug klingen, um jede Diskussion zu beenden.
Das Ergebnis: Die Neugierigen werden ausgebremst, die Skeptiker fühlen sich bestätigt, und die Organisation als Ganzes lernt nichts. Kein Mitarbeiter wird dafür gefeuert, dass er KI blockiert hat. Aber auch keiner wird dafür belohnt, dass er ausprobiert hat, was möglich wäre.
Was stattdessen passieren müsste
Ich kann leider nicht sagen: “Bei Kunde X läuft es besser.” Ich sehe das Muster überall. Aber ich habe eine ziemlich klare Vorstellung davon, was anders laufen müsste. Und es ist weniger eine technische Frage als eine organisatorische.
Unternehmen müssen sich überlegen, in welchem Rahmen sie agentische Softwareentwicklung oder agentisches Arbeiten überhaupt erlauben wollen. Das klingt nach einer großen Frage, aber sie zerfällt in drei konkrete Teilfragen.
Erstens: Was sind die echten Gefahren? Es gibt ein Konzept, das in der Security-Community als “tödliche Trifecta” bekannt ist. Sobald ein KI-Agent drei Dinge gleichzeitig hat, wird es kritisch: Zugriff auf private Daten, Kontakt mit nicht vertrauenswürdigen Inhalten und die Möglichkeit, nach außen zu kommunizieren. Jeder einzelne Punkt ist beherrschbar. Die Kombination aus allen dreien öffnet Prompt-Injection-Angriffe, gegen die es bis heute keinen zuverlässigen Schutz gibt. Das ist keine theoretische Gefahr. Das muss jede Organisation verstehen, bevor sie Agenten auf Daten loslässt.
Zweitens: Was muss händisch gemacht werden? Nicht alles sollte ein Agent tun. Code, der sicherheitskritische Systeme betrifft. Entscheidungen die Kundendaten berühren. Architekturentscheidungen, die man in zwei Jahren noch mittragen muss. Es braucht eine bewusste Entscheidung darüber, wo die Grenze zwischen menschlicher und maschineller Arbeit verläuft.
Drittens: Was muss ein menschliches Review durchlaufen? Zwischen “Agent macht alles” und “Mensch macht alles” liegt ein riesiger Mittelbereich. Generierter Code, der vor dem Merge von einem Menschen gelesen wird. Agent-Entscheidungen, die ab einer bestimmten Tragweite eskaliert werden. Das ist kein neues Konzept, das kennen wir aus der Softwareentwicklung seit Jahrzehnten. Aber mit KI-Agenten muss man es explizit machen, weil der Agent im Zweifelsfall einfach weitermacht.
Wer diesen Rahmen einmal durchdenkt, stellt plötzlich die richtigen Fragen. Nicht “welches Tool kaufen wir?”, sondern “welche Arbeit verändert sich, und wo brauchen wir welche Leitplanken?”.
Der Ablassbrief
Laut einer BCG-Studie von 2024 sehen 74 Prozent der befragten Unternehmen trotz KI-Investment keinen messbaren Mehrwert. Das überrascht mich kein bisschen. Wer ein mittelmäßiges Modell mit engen Limits ausrollt, alles andere verbietet und dann wartet was passiert, wird genau das bekommen: nichts Relevantes.
Copilot-Lizenzen für alle kaufen und alles andere sperren, das ist kein strategisches Handeln. Das ist ein Ablassbrief. Man hat Geld ausgegeben, man kann es reporten, man hat “KI gemacht”. Aber die eigentliche Frage bleibt unbeantwortet: Was kann diese Organisation jetzt tun, das vorher nicht möglich war?
Wer diese Frage nicht stellt, wird auch keine Antwort finden. Egal wie viele Lizenzen im Einkaufskorb liegen.