Jedes große KI-Tool wird mit derselben Grundannahme ausgeliefert: Ihre Daten sind nicht sensibel.
Das funktioniert, wenn Sie Meetingnotizen zusammenfassen oder Marketingideen sammeln. Es funktioniert nicht, wenn Sie Steuerberater, Rechtsanwalt oder Finanzberater in Deutschland sind und Mandantendaten verarbeiten, die unter strafrechtlichem Schutz stehen.
Im letzten Jahr habe ich mir angesehen, wie Kanzleien und Beratungsfirmen in regulierten Branchen KI-Tools einführen. Das Muster ist immer dasselbe: Jemand aktiviert ChatGPT oder Copilot. Niemand ändert die Standardeinstellungen. Mandantendaten fließen in Systeme, die nicht für das Berufsgeheimnis ausgelegt sind. Und niemand bemerkt das Problem, bis jemand die richtige Frage stellt.
Die Standardeinstellungen sind nicht für Sie gemacht
Standard-KI-Tools sind für den breitesten Markt gebaut. OpenAIs ChatGPT, Microsofts Copilot, Googles Gemini. Alles Verbraucherprodukte, die nebenbei Business-Pläne anbieten. Die Standardkonfigurationen spiegeln das wider.
Ab Werk machen die meisten dieser Tools eines oder mehreres der Folgenden:
- Datenverarbeitung außerhalb der EU. ChatGPT Free, Plus und Pro leiten Daten über US-Server. Es gibt bei diesen Lizenzstufen keine EU-Data-Residency-Option.
- Kein Auftragsverarbeitungsvertrag. Art. 28 DSGVO verlangt einen AVV zwischen dem Verantwortlichen (Ihrer Kanzlei) und dem Auftragsverarbeiter (dem KI-Anbieter). Ohne Enterprise-Lizenz bieten die meisten Anbieter keinen an.
- Kein Audit-Trail. Abfragen und Antworten werden nicht so protokolliert, dass Ihre Kanzlei die Kontrolle hat. Wenn eine Aufsichtsbehörde fragt, welche Daten ins System geflossen sind, können Sie nicht antworten.
- Keine Zugriffsbeschränkungen. Copilot durchsucht alles, worauf ein Nutzer Zugriff hat. Wenn SharePoint-Berechtigungen zu offen sind — und das sind sie in den meisten Kanzleien — dann tauchen Mandantenakten in Copilot-Antworten auf, die dort nicht hingehören.
Nichts davon ist geheim. Es steht in den AGB der Anbieter. Das Problem: Die meisten Kanzleien lesen diese AGB nicht, bevor sie das Tool aktivieren.
Was passiert, wenn jemand Copilot ohne Vorbereitung aktiviert
Ein konkretes Szenario: Eine Steuerkanzlei mit 20 Mitarbeitern aktiviert M365 Copilot. Keine Sensitivity Labels konfiguriert. SharePoint-Berechtigungen wurden seit 2019 nicht geprüft. Es gibt eine Bibliothek “Mandantenakten”, auf die alle Mitarbeiter Zugriff haben, weil sie vor Jahren so eingerichtet wurde.
Am ersten Tag fragt eine Sachbearbeiterin Copilot: “Erstelle eine Zusammenfassung der aktuellen Fälle von Mandant Müller.” Copilot durchsucht alle SharePoint-Seiten, auf die sie Zugriff hat. Es findet Dateien in der Mandantenakte von Müller, aber auch eine E-Mail aus dem Partnerpostfach, die an die Sachbearbeiterin weitergeleitet wurde und vertrauliche Informationen über eine Betriebsprüfung enthält. Copilot fasst alles zusammen — einschließlich der Informationen, die die Sachbearbeiterin eigentlich nicht sehen sollte.
Das ist kein hypothetisches Risiko. Es ist das, was passiert, wenn Copilot genau das tut, wofür es gebaut wurde: alle verfügbaren Informationen zusammenführen. Das Problem sind nie die Tools. Es sind immer die Berechtigungen.
Es geht nicht nur um DSGVO-Bußgelder
Die DSGVO bekommt die ganze Aufmerksamkeit, weil die Bußgelder hoch sind und die Schlagzeilen dramatisch. Aber für Berufsgeheimnisträger nach §203 StGB gehen die Risiken über Verwaltungsstrafen hinaus.
§203 StGB stellt es unter Strafe, wenn bestimmte Berufsgruppen, darunter Steuerberater, Rechtsanwälte und Wirtschaftsprüfer, Mandantengeheimnisse unbefugt offenbaren. Die Strafe: bis zu einem Jahr Freiheitsstrafe oder Geldstrafe. Das ist Berufsgeheimnis, gestützt auf Strafrecht.
Wenn ein Steuerberater Mandanten-Finanzdaten in ein KI-Tool eingibt, das diese auf US-Servern ohne AVV verarbeitet, ist das ein potenzieller Verstoß gegen §203. Es spielt keine Rolle, dass die Absicht war, Zeit zu sparen. Es spielt keine Rolle, dass die Daten nicht im klassischen Sinne “geleakt” wurden. Die Offenbarung geschah in dem Moment, als die Daten die kontrollierte Umgebung der Kanzlei verließen.
Art. 9 DSGVO verschärft das Ganze. Gesundheitsdaten, Finanzdaten, Daten zur ethnischen Herkunft. Diese besonderen Kategorien erfordern eine explizite Rechtsgrundlage für die Verarbeitung. Sie in einen generischen KI-Prompt einzugeben, erfüllt diesen Standard nicht.
Die Kombination aus §203 und DSGVO erzeugt eine doppelte Verpflichtung. Sie brauchen sowohl die strafrechtlichen Schutzmaßnahmen als auch den datenschutzrechtlichen Rahmen. Standard-KI erfüllt beides nicht in der Grundkonfiguration.
Durchsetzungspraxis: Was Aufsichtsbehörden tatsächlich tun
Die Durchsetzung im KI-Bereich ist kein theoretisches Szenario mehr. Einige dokumentierte Fälle:
Italien, Dezember 2024: Die Datenschutzbehörde Garante hat OpenAI mit 15 Millionen Euro Bußgeld belegt. Der Hauptvorwurf: fehlende Rechtsgrundlage für die Verarbeitung personenbezogener Trainingsdaten und unzureichende Transparenz gegenüber Nutzern. Das betrifft zwar OpenAI als Anbieter, nicht den einzelnen Kanzleinutzer. Aber es zeigt, dass die Behörden KI-Tools aktiv prüfen.
EDPB ChatGPT Taskforce, Mai 2024: Der Bericht hat die Grundsätze klargestellt. Unternehmen, die ChatGPT einsetzen, sind Verantwortliche im Sinne der DSGVO. Sie können die Verantwortung nicht auf OpenAI abwälzen. Die DSFA-Pflicht liegt beim Unternehmen. Die Wahl der Rechtsgrundlage (Art. 6 DSGVO) liegt beim Unternehmen. Dieser Bericht ist die Messlatte, an der Aufsichtsbehörden prüfen werden.
Bayerisches Landesamt für Datenschutzaufsicht (BayLDA): Das BayLDA hat in seinem Tätigkeitsbericht 2023/2024 KI-Tools als Prüfschwerpunkt benannt. Kanzleien in Bayern müssen damit rechnen, dass Fragen zur KI-Nutzung bei der nächsten anlasslosen Prüfung auftauchen.
Die Botschaft ist nicht Panik. Die Botschaft ist: Dokumentation. Wenn die Aufsichtsbehörde fragt, müssen Sie zeigen können, dass Sie die Risiken bewertet und Maßnahmen ergriffen haben. DSFA, AVV, interne Richtlinie, Berechtigungskonzept. Wer das vorweisen kann, steht gut da. Wer nichts hat, hat ein Problem.
Wo Standard-KI versagt: Ein praktischer Vergleich
| Anforderung | Was regulierte Kanzleien brauchen | Was Standard-KI liefert |
|---|---|---|
| Datenresidenz | Verarbeitung innerhalb der EU (DSGVO Art. 44-49) | US-Verarbeitung als Standard; EU-Option nur bei Enterprise |
| Auftragsverarbeitungsvertrag | Unterschriebener AVV nach DSGVO Art. 28 | Nur bei Team-/Enterprise-Plänen verfügbar |
| Audit-Trail | Protokollierte Abfragen unter Kontrolle der Kanzlei | Kein kanzleikontrolliertes Logging |
| Zugriffskontrollen | Rollenbasierter Zugriff gemäß Berufsgeheimnis | Nutzerberechtigungen aus bestehendem (oft kaputtem) Setup |
| Datenisolierung | Mandantendaten getrennt von Trainingsdaten | Training-Opt-out variiert je nach Plan; bei Free-Varianten nicht garantiert |
| DSFA-Dokumentation | Pflicht nach DSGVO Art. 35 bei KI-Verarbeitung | Nicht mitgeliefert; Kanzlei muss eigene erstellen |
Das ist keine Panikmache-Checkliste. Es ist das, was Compliance in der Praxis bedeutet, wenn Ihre Berufspflichten strafrechtliche Geheimhaltung umfassen. Jeder Punkt auf dieser Liste ist lösbar. Aber keiner wird durch die Standardkonfiguration gelöst.
Was DSGVO-konforme KI wirklich braucht
Konforme KI für regulierte Kanzleien ist kein anderes Produkt. Es ist dieselbe Technologie mit der richtigen Konfiguration. Konkret:
1. Die richtige Lizenzstufe. Bei ChatGPT bedeutet das mindestens Team (AVV verfügbar, kein Training mit Ihren Daten). Bei Copilot bedeutet das M365 E3/E5 mit ordentlicher Konfiguration. Free- und Consumer-Pläne kommen für Mandantendaten nicht in Frage.
2. EU-Datenresidenz. Daten müssen innerhalb der Europäischen Union verarbeitet und gespeichert werden. Microsoft bietet die EU Data Boundary für M365 an. OpenAI bietet EU-Verarbeitung für Enterprise-Kunden. Das muss schriftlich bestätigt sein, nicht angenommen.
3. Zugriffskontrollen, die Ihren Geheimhaltungspflichten entsprechen. Bevor Sie Copilot aktivieren: Prüfen Sie Ihre SharePoint-Berechtigungen. Vergeben Sie Sensitivity Labels für Mandantendaten. Begrenzen Sie den Suchbereich von Copilot, sodass nur Dokumente erscheinen, die ein Nutzer tatsächlich sehen darf — nicht nur technisch erreichen kann.
4. Eine Datenschutz-Folgenabschätzung. Art. 35 DSGVO verlangt eine DSFA bei KI-gestützter Verarbeitung personenbezogener Daten. Sie dokumentiert, welche Daten durch das System fließen, welche Risiken bestehen und wie Sie diese mindern. Microsoft und OpenAI stellen Vorlagen bereit, aber die Verantwortung liegt bei Ihrer Kanzlei.
5. Eine interne KI-Richtlinie. Was dürfen Mitarbeiter in KI-Tools eingeben? Was nicht? “Gesunden Menschenverstand nutzen” ist keine Richtlinie. Konkrete Beispiele und klare Grenzen schon.
KI-Richtlinie: Was drinstehen muss
Eine KI-Richtlinie für eine regulierte Kanzlei braucht keine 30 Seiten. Sie braucht Klarheit. Folgende Punkte gehören hinein:
Zugelassene Tools: Welche KI-Tools dürfen genutzt werden? Nur die, für die ein AVV vorliegt und die Konfiguration geprüft wurde. Alle anderen sind verboten. Das schließt die kostenlose ChatGPT-Version, Google Gemini im privaten Browser und jede Browser-Erweiterung ein, die nicht freigegeben wurde.
Datenklassifizierung für KI-Eingaben:
- Erlaubt: Allgemeine Fachfragen ohne Mandantenbezug (“Wie wird eine verdeckte Gewinnausschüttung steuerlich behandelt?”)
- Erlaubt nach Schwärzung: Sachverhalte, bei denen alle identifizierenden Informationen entfernt wurden
- Verboten: Mandantennamen, Steuernummern, IBAN, Aktenzeichen, Vertragsinhalte mit Personenbezug, Gesundheitsdaten, Vorstrafen
Verantwortlichkeiten: Wer ist Ansprechpartner für Fragen zur KI-Nutzung? Wer genehmigt neue Tools? Wer überprüft die Einhaltung?
Konsequenzen: Was passiert bei Verstößen? Nicht als Drohung, sondern als klare Regel. Bei §203-relevanten Verstößen kann die Kammer informiert werden müssen. Das sollte jeder Mitarbeiter verstehen.
Schulungspflicht: Jeder Mitarbeiter, der KI-Tools nutzt, muss geschult werden. Einmal bei Einführung, dann jährlich. Die Schulung muss dokumentiert werden (Teilnehmerliste, Datum, Inhalte).
Lassen Sie jeden Mitarbeiter die Richtlinie unterschreiben. Das ist nicht Bürokratie — es ist Ihr Nachweis, dass Sie Ihre Sorgfaltspflicht erfüllt haben.
Es geht nicht darum, KI zu vermeiden
Kanzleien, die KI komplett vermeiden, sind nicht vorsichtig. Sie fallen zurück. KI-Tools sparen tatsächlich Zeit bei der Dokumentenprüfung, beim Schriftverkehr und bei Recherchen. Die Produktivitätsgewinne sind real.
Aber es gibt einen Unterschied zwischen KI nutzen und KI richtig nutzen. Für Kanzleien mit Berufsgeheimnis bedeutet “richtig”: konfiguriert, dokumentiert, richtige Lizenz. Nicht weil Aufsichtsbehörden prüfen könnten. Sondern weil Ihre Mandanten Ihnen ihre sensibelsten Informationen anvertrauen und dieses Vertrauen dieselbe Sorgfalt verdient, die Sie auf alles andere in Ihrer Kanzlei anwenden.
Der Abstand zwischen Standard-KI und konformer KI ist nicht so groß, wie die meisten denken. Konfiguration, Dokumentation, Lizenz-Upgrade. Die meisten Kanzleien können das in zwei bis vier Wochen umsetzen.
Was am Montagmorgen passiert
Wenn Sie nach dem Lesen dieses Artikels einen konkreten nächsten Schritt suchen, hier ist er:
Woche 1 — Bestandsaufnahme:
- Welche KI-Tools werden in Ihrer Kanzlei bereits genutzt? Prüfen Sie Netzwerk-Logs, fragen Sie die Mitarbeiter, schauen Sie auf die installierten Browser-Erweiterungen.
- Welche Lizenzen haben Sie? Gibt es einen AVV? Wo werden die Daten verarbeitet?
- Wie sehen Ihre SharePoint-Berechtigungen aus? Exportieren Sie die Zugriffsberichte.
Woche 2 — Entscheidungen treffen:
- Welche Tools werden offiziell freigegeben? Lizenz-Upgrade durchführen, wenn nötig.
- Interne KI-Richtlinie schreiben. Eine Seite, klare Regeln, konkrete Beispiele.
- Mitarbeiterschulung planen.
Woche 3 — Technische Konfiguration:
- Sensitivity Labels in Microsoft Purview einrichten. Beginnen Sie mit drei Stufen: Intern, Vertraulich, Streng vertraulich.
- SharePoint-Berechtigungen bereinigen. Entfernen Sie “Everyone”-Gruppen von Mandanten-Sites.
- DLP-Regeln für Copilot aktivieren.
Woche 4 — Dokumentation:
- DSFA fertigstellen. DSB konsultieren.
- Verarbeitungsverzeichnis aktualisieren.
- AVV und §203-Vereinbarung ablegen.
- Mitarbeiterschulung durchführen und dokumentieren.
Vier Wochen. Kein externes Projekt, keine Beratungsfirma nötig. Die meisten Kanzleien haben intern das Wissen, um das umzusetzen. Was oft fehlt, ist nicht die Kompetenz — es ist der strukturierte Ablauf.
Nicht sicher, wo Ihre Kanzlei steht? Der KI-Compliance-Check dauert 2 Minuten und zeigt, wo Handlungsbedarf besteht.
Lieber direkt sprechen? Buchen Sie ein kostenloses 30-Minuten-Gespräch — kein Verkaufsgespräch, nur eine ehrliche Einschätzung.
Jose Lugo ist CISSP-zertifizierter KI-Compliance-Berater mit Sitz in Deutschland. Er berät Steuerberater, Kanzleien und Finanzberater bei der DSGVO-konformen Einführung von KI-Tools.