Ihre Mitarbeiter nutzen KI. Sie wissen es nur noch nicht.
Ich meine das wörtlich. Nicht als LinkedIn-Clickbait. In Ihrem Unternehmen gibt es gerade jetzt Mitarbeiter, die ChatGPT, Gemini oder andere KI-Tools nutzen. Ohne Freigabe, ohne Richtlinie, ohne dass Sie davon wissen.
Woher ich das so sicher weiß? Weil die Zahlen das ziemlich deutlich zeigen. Und weil ich bei jedem Unternehmen, dessen IT-Infrastruktur ich mir anschaue, dasselbe Bild sehe.
Die Zahlen
Software AG hat 6.000 Arbeitnehmer in Deutschland befragt. Ergebnis: 50% nutzen nicht genehmigte KI-Tools im Arbeitsalltag. Bitkom kommt in einer separaten Studie auf einen ähnlichen Befund: 34% der befragten Beschäftigten nutzen private Accounts für geschäftliche KI-Anwendungen.
Und hier wird es interessant: 57% geben an, ihre KI-Nutzung vor dem Arbeitgeber zu verbergen.
Das sind keine Einzelfälle. Das ist ein Muster. Ihre Mitarbeiter haben ein Tool entdeckt, das ihnen die Arbeit erleichtert. Und weil es keine offizielle Lösung gibt, nehmen sie die inoffizielle.
Was da reingeht
Stellen Sie sich vor, was Mitarbeiter täglich in diese Tools eingeben. E-Mails an Mandanten, die sie „professioneller” formulieren wollen. Vertragsentwürfe, die zusammengefasst werden sollen. Finanzdaten, die aufbereitet werden. Kundennamen in Kombination mit deren Anfragen.
Ich beschreibe hier kein hypothetisches Szenario. Das passiert genau so. Eine Assistenz in einer Steuerkanzlei, die einen Mandantenbrief in die kostenlose Version von ChatGPT kopiert, um die Formulierung zu verbessern. Ein Finanzberater, der Kundendaten in ein KI-Tool eingibt, um eine Präsentation vorzubereiten. Eine Anwaltskanzlei, in der ein Referendar einen Vertragsentwurf zusammenfassen lässt, weil die Frist drängt.
Die meisten Mitarbeiter denken sich nichts dabei. Für sie ist ChatGPT ein besseres Google. Sie sehen ein Eingabefeld, tippen etwas ein, bekommen eine Antwort. Dass diese Eingabe auf einem Server in Virginia landet und dort möglicherweise in Trainingsdaten einfließt, ist den wenigsten bewusst.
Bei der kostenlosen Version von ChatGPT werden Eingaben standardmäßig zum Trainieren des Modells verwendet. Das steht in den Nutzungsbedingungen, aber wer liest die schon. Die Daten landen auf Servern in den USA, ohne Auftragsverarbeitungsvertrag, ohne Rechtsgrundlage nach DSGVO. Wenn Sie wissen wollen, was genau das bedeutet: Ich habe die verschiedenen ChatGPT-Lizenzen und ihre DSGVO-Implikationen hier ausführlich aufgeschlüsselt.
Und das Problem geht über ChatGPT hinaus. Google Gemini, Perplexity, Claude in der Free-Version, DeepL Write, diverse Browser-Erweiterungen, die „KI-gestützt” Texte umschreiben. Der Markt ist voll mit Tools, die Daten verarbeiten, ohne dass ein AVV existiert. Viele Mitarbeiter wissen nicht einmal, dass die Browser-Erweiterung, die sie für Grammatikprüfung nutzen, den gesamten Text an einen externen Server schickt.
Für Kanzleien und Steuerbüros kommt noch etwas dazu: §203 StGB, die berufliche Schweigepflicht. Mandantendaten in einem US-amerikanischen KI-Tool ohne vertragliche Absicherung, das ist nicht nur ein DSGVO-Problem. Das ist ein Straftatbestand. Die Strafe steht im Gesetz: bis zu einem Jahr Freiheitsstrafe oder Geldstrafe. Und der Berufsgeheimnisschutz gilt unabhängig davon, ob der Mandant von der Weitergabe weiß oder nicht.
Warum Verbote nicht funktionieren
Die naheliegende Reaktion: KI verbieten. Kein ChatGPT, kein Gemini, kein Claude im Unternehmen. Problem gelöst.
Nur dass es nicht funktioniert.
Bitkom hat auch danach gefragt: 46% der Befragten sagen, sie würden KI-Tools weiter nutzen, selbst wenn der Arbeitgeber es verbietet. Fast die Hälfte. Und das sind die, die es offen zugeben.
Samsung hat es versucht. Nach einem Vorfall, bei dem Mitarbeiter vertraulichen Quellcode in ChatGPT eingegeben hatten, kam im Mai 2023 das firmenweite Verbot. Ein paar Monate später die Kehrtwende: Samsung entwickelte eine eigene interne KI-Lösung, weil die Produktivitätsverluste zu groß wurden. Apple hatte ein ähnliches Verbot, dann kam Apple Intelligence. JPMorgan Chase verbot ChatGPT, entwickelte dann LLM Suite für 200.000 Mitarbeiter. Deutsche Bank, Amazon, Verizon: die Liste ist lang. Alle haben erkannt, dass ein Verbot das Problem nicht löst. Es treibt es nur in den Untergrund.
Das liegt daran, dass KI-Tools tatsächlich nützlich sind. Mitarbeiter nutzen sie, weil sie damit schneller arbeiten und bessere Ergebnisse bekommen. Ein Brief, der sonst 45 Minuten gedauert hat, ist in 10 Minuten fertig. Eine Recherche, die einen halben Tag gefressen hat, liefert in Minuten brauchbare Ergebnisse. Wer das verbietet, bestraft Produktivität. Und Mitarbeiter finden Wege um jedes Verbot herum. Privates Smartphone, persönlicher Browser, Hotspot statt Firmennetzwerk. Shadow AI verschwindet nicht durch Verbote. Sie wird nur unsichtbarer.
Was stattdessen hilft: Eine KI-Nutzungsrichtlinie
Die Alternative zum Verbot ist Regulierung. Nicht im Sinne von Bürokratie, sondern als klare Spielregeln, die Mitarbeitern sagen: Das dürft ihr, und so.
Eine KI-Nutzungsrichtlinie muss drei Fragen beantworten.
Erstens: Welche Tools sind genehmigt? Nicht „KI ist okay,” sondern konkret. ChatGPT Team, Microsoft Copilot mit Enterprise-Lizenz, oder was immer Sie einsetzen. Mit genauer Angabe der Lizenzstufe und dem Hinweis, dass private Accounts für geschäftliche Daten nicht erlaubt sind.
Zweitens: Was darf eingegeben werden? Auch das muss spezifisch sein. Öffentliche Informationen und allgemeine Textentwürfe sind in der Regel kein Problem. Personenbezogene Daten, Mandantendaten, Finanzdaten, Vertragsinhalte: nur in genehmigte Tools mit entsprechendem Auftragsverarbeitungsvertrag. Und manche Daten haben in keinem KI-Tool etwas verloren, egal welche Lizenz.
Drittens: Was passiert bei Verstößen? Nicht als Drohung formuliert, aber klar. Mitarbeiter müssen wissen, dass es einen Prozess gibt. Dass ein versehentlicher Verstoß anders behandelt wird als ein wiederholter. Und dass es eine Meldestelle gibt, wenn jemand versehentlich Daten in ein falsches Tool eingegeben hat.
Das sind keine 50 Seiten. Eine gute Nutzungsrichtlinie passt auf zwei bis drei Seiten und wird in einer 15-Minuten-Teambesprechung vorgestellt. Ich werde in einem kommenden Beitrag ein konkretes Muster für eine solche Richtlinie veröffentlichen.
Was die Aufsichtsbehörde fragen wird
Irgendwann wird es eine Prüfung geben. Vielleicht durch eine Beschwerde, vielleicht durch eine Routinekontrolle, vielleicht durch einen Datenschutzvorfall, den Sie melden müssen. Und dann wird die Aufsichtsbehörde Fragen stellen.
Die erste Frage wird sein: Werden in Ihrem Unternehmen KI-Tools eingesetzt? Wenn ja: Welche? Mit welcher Rechtsgrundlage? Gibt es einen Auftragsverarbeitungsvertrag?
Die zweite Frage: Steht das in Ihrem Verarbeitungsverzeichnis nach Art. 30 DSGVO? Bei den meisten Unternehmen steht es dort nicht. Weil das Verarbeitungsverzeichnis seit 2018 nicht aktualisiert wurde. Oder weil niemand weiß, dass Mitarbeiter KI nutzen.
Die dritte Frage: Gibt es eine Datenschutz-Folgenabschätzung (DSFA)? Art. 35 DSGVO verlangt eine DSFA, wenn die Verarbeitung voraussichtlich ein hohes Risiko birgt. Personenbezogene Daten in einem US-amerikanischen Large Language Model? Das ist hohes Risiko.
Auf keine dieser Fragen lautet die richtige Antwort: „Wir haben es nicht gewusst.” Denn genau das ist das Problem mit Shadow AI. Sie passiert ohne Ihr Wissen, aber die Verantwortung bleibt bei Ihnen.
Die eigentliche Lösung: Genehmigte Tools mit Compliance-Architektur
Eine Richtlinie allein reicht nicht. Sie brauchen auch die Infrastruktur.
Das bedeutet: KI-Tools, die Mitarbeiter tatsächlich nutzen wollen (weil sie gut sind), die gleichzeitig die DSGVO-Anforderungen erfüllen. Das ist kein Widerspruch. Microsoft Copilot mit der richtigen Enterprise-Konfiguration verarbeitet Daten innerhalb der EU, innerhalb Ihres Microsoft-365-Tenants, mit bestehenden Zugriffsrechten und Auftragsverarbeitungsvertrag.
Der Unterschied zu Shadow AI: Die Daten bleiben, wo sie hingehören. In Ihrer Infrastruktur, unter Ihrer Kontrolle, abgedeckt durch bestehende Verträge.
Was dafür nötig ist:
- Die richtige Lizenz. Nicht jede Microsoft-365-Lizenz beinhaltet Copilot. Und nicht jede Copilot-Lizenz hat die gleichen Datenschutzeinstellungen. Die Konfiguration entscheidet.
- Saubere Berechtigungen. Copilot durchsucht alles, worauf ein Benutzer Zugriff hat. Wenn Ihre SharePoint-Berechtigungen ein Durcheinander sind, zeigt Copilot das schonungslos. Das ist kein Bug, das ist ein Feature, das bestehende Probleme sichtbar macht.
- Datenklassifizierung. Sensitivity Labels in Microsoft 365 steuern, welche Dokumente Copilot einbeziehen darf und welche nicht. Ohne Labels gibt es keine Kontrolle.
- Monitoring. Sie müssen sehen können, wie KI-Tools genutzt werden. Nicht um Mitarbeiter zu überwachen, sondern um sicherzustellen, dass die Richtlinie funktioniert und keine Daten in ungenehmigte Kanäle abfließen.
Das ist eine einmalige Einrichtung, kein laufendes Projekt. Wenn Sie Microsoft 365 E3 oder E5 im Einsatz haben, ist ein Großteil der Infrastruktur bereits vorhanden. Die Lizenzen, die Verträge, die Verwaltungsoberfläche. Was fehlt, ist die Konfiguration. Und die ist in den meisten Fällen eine Sache von Tagen, nicht Monaten.
Was Sie jetzt tun sollten
Ignorieren geht nicht. Verbieten funktioniert nicht. Die Frage ist nicht ob Ihre Mitarbeiter KI nutzen, sondern ob sie es mit den richtigen Tools und den richtigen Regeln tun.
Fangen Sie mit einer Bestandsaufnahme an. Finden Sie heraus, welche KI-Tools in Ihrem Unternehmen genutzt werden. Firewall-Logs, anonyme Umfrage, Gespräch im Team. Nicht als Kontrolle, sondern als ehrliche Bestandsaufnahme.
Dann: Nutzungsrichtlinie erstellen. Klare Regeln, welche Tools erlaubt sind und welche Daten hineindürfen. Kurz, verständlich, mit konkreten Beispielen.
Und dann: Eine genehmigte Lösung bereitstellen. Geben Sie Ihren Mitarbeitern ein Tool, das sie nutzen wollen und das gleichzeitig compliant ist. Wenn es das gibt, gibt es keinen Grund mehr für Shadow AI.
Wenn Sie wissen wollen, wie groß das Shadow-AI-Problem in Ihrem Unternehmen ist und welche Schritte sinnvoll wären: Ich biete eine kostenlose 30-Minuten-Einschätzung an. Kein Verkaufsgespräch, sondern eine ehrliche Bewertung, wo Sie stehen und was als Nächstes Sinn ergibt.
Termin buchen: 30 Minuten KI-Compliance-Einschätzung
Jose Lugo ist CISSP-zertifizierter Berater mit Sitz in Deutschland, spezialisiert auf DSGVO-konforme KI-Implementierung für mittelständische Unternehmen. Mehr unter joselugo.de und unter Leistungen.