Deine Mitarbeitenden nutzen KI. Wahrscheinlich gerade jetzt. Und wahrscheinlich wissen sie nicht, dass du es weißt, oder wissen selbst nicht genau, ob das okay ist.

72 Prozent der Angestellten setzen KI-Tools regelmäßig bei der Arbeit ein. Nur 26 Prozent haben dafür eine offizielle Genehmigung. Das hat der Microsoft Work Trend Index 2024 ermittelt, in einer der bisher größten Studien zur KI-Nutzung am Arbeitsplatz. Fast drei Viertel deines Teams tut das also ohne Policy, ohne Rückendeckung, ohne klare Spielregeln.

Das ist kein Vorwurf an dein Team. Das ist eine Einladung an dich als Führungskraft.

Warum Menschen heimlich KI nutzen, und es ist kein Fehlverhalten

Bevor wir über Risiken reden: Warum machen das die Leute eigentlich?

Weil es ihnen hilft. Weil ChatGPT eine E-Mail in drei Minuten fertig hat, für die man vorher eine halbe Stunde gebraucht hat. Weil eine Zusammenfassung eines 20-seitigen Dokuments in 30 Sekunden möglich ist. Weil Angebote schneller werden, Berichte weniger nervig, Recherchen effizienter.

Das ist kein Regelverstoß aus Bequemlichkeit. Das ist ein rationaler Umgang mit einem besseren Werkzeug. Wenn ein Zimmermann plötzlich eine Bohrmaschine kriegt, wird er nicht mehr mit dem Handbohrer arbeiten, auch wenn offiziell noch niemand “Bohrmaschine” genehmigt hat.

Das Problem ist nicht, dass dein Team KI nutzt. Das Problem ist, dass es ohne Spielregeln passiert.

Was tatsächlich schief gehen kann

Wenn Mitarbeitende KI-Tools ohne Richtlinien nutzen, ist das eigentliche Risiko nicht, dass sie schlecht arbeiten. Das Risiko ist, dass sie unbewusst Fehler machen, die du nicht siehst und für die du trotzdem haftest.

Datenschutz: Kundendaten, Vertragsdetails, personenbezogene Informationen: was in ein öffentliches KI-System eingespeist wird, verlässt unter Umständen den EU-Datenschutzraum. ChatGPT wird standardmäßig mit dem eingespeisten Text trainiert, wenn keine Enterprise-Lizenz mit entsprechenden Datenschutzvereinbarungen vorliegt. Das ist in vielen Fällen ein DSGVO-Verstoß. Und du als Unternehmer haftest dafür.

Ich habe Fälle erlebt, in denen Mitarbeitende vollständige Kundenangebote in ChatGPT eingegeben haben, um sie “besser zu formulieren”. Mit Kundennamen, Zahlen, vertraulichen Konditionen. Sie hatten keine böse Absicht. Sie wussten schlicht nicht, was das bedeutet.

Qualitätssicherung und Haftung: KI-generierte Inhalte, die ungeprüft nach außen gehen (falsche Zahlen, fehlerhafte Zitate, ungenaue Rechtsauslegungen), sind rechtlich dein Problem. Nicht das von OpenAI oder Google. Deins.

Wissens-Asymmetrie: Wer KI nutzt, wird schneller und effizienter. Wer es nicht darf oder nicht kann, verliert den Anschluss. Das erzeugt stille Ungleichheit im Team. Und Frust auf beiden Seiten.

Warum ein Verbot nicht funktioniert

Manche Führungskräfte reagieren auf diese Erkenntnis mit einem Verbot. “KI ist bei uns nicht erlaubt. Fertig.”

Das funktioniert nicht. Und ich sage das nicht als Meinung, sondern als Beobachtung.

Die Nutzung geht nicht zurück. Sie geht tiefer in die Stille. Mitarbeitende, die schon vorher heimlich ChatGPT genutzt haben, werden das weiter tun. Nur noch vorsichtiger. Nur noch unsichtbarer. Und damit noch unkontrollierbarer.

Ein Verbot löst kein Problem. Es verschiebt das Problem in den Bereich, in dem du gar keinen Einfluss mehr hast.

Was stattdessen funktioniert

Der Weg ist nicht Kontrolle, sondern Kanalisierung. Nicht “verboten”, sondern “so machen wir das”.

Schritt 1: Bestandsaufnahme, anonym, wenn nötig. Frag dein Team: Wer nutzt welche KI-Tools, wozu, wie oft? Nicht um zu kontrollieren. Um zu verstehen. Nur wenn du weißt, was passiert, kannst du sinnvolle Spielregeln entwickeln.

Schritt 2: KI-Policy schreiben, kurz und klar. Keine 30-seitige Compliance-Bibel. Zwei Seiten, die die wesentlichen Fragen beantworten: Welche Tools sind offiziell freigegeben? Welche Daten dürfen nicht eingespeist werden? Was gilt für KI-generierte Inhalte nach außen? Wer ist Ansprechpartner bei Unsicherheiten?

Diese Policy schützt dich rechtlich. Und sie gibt deinem Team Orientierung, statt Angst.

Schritt 3: Freigegebene Tools aktiv kommunizieren. Wenn du weißt, welche Tools sicher sind, also mit Datenschutzverträgen, Enterprise-Konditionen, DSGVO-Konformität, dann kommuniziere das. Empfiehl diese Tools aktiv. Dann greifen Mitarbeitende zur sicheren Variante, weil sie die kennen und vertrauen.

Schritt 4: Schulung auf das Minimum. Deine Leute müssen nicht KI-Experten werden. Aber sie brauchen die Basics: Was darf rein in ein KI-System, was nicht? Wie bewertet man KI-Ergebnisse kritisch? Wann ist ein Output nicht verlässlich?

Zwei Stunden im Team reichen für den Anfang. Mit einem konkreten Fallbeispiel aus eurem Arbeitsalltag.

Der eigentliche Gedanke

Dein Team nutzt KI, weil es ihnen hilft. Das ist ein gutes Zeichen. Es zeigt, dass du Menschen beschäftigst, die ihr Handwerk besser machen wollen.

Deine Aufgabe ist nicht, das zu verbieten. Deine Aufgabe ist, das sicher und offiziell zu machen, bevor jemand unabsichtlich einen Fehler begeht, der Konsequenzen hat.

Die Unternehmen, die diese Kurve kriegen, werden in zwei Jahren nicht über KI-Einführung reden. Die werden schon in der zweiten Runde sein.


Brauchst du Hilfe, eine KI-Policy für dein Unternehmen zu entwickeln? Das machen wir im Erstgespräch gemeinsam: pragmatisch und in unter einer Stunde.

Olga Reyes-Busch
Sonnige Grüße, Olga

Fragen? Einfach melden — oder direkt ein kurzes Gespräch buchen.

Kurzes Gespräch buchen →