Die kurze Antwort: Ja. Aber nicht mit jeder Lizenz, nicht mit jedem Setup und nicht ohne Vorbereitung.
Die Frage kommt in Branchenforen und auf LinkedIn immer wieder auf. Steuerberater wissen, dass KI-Tools Zeit sparen. Gleichzeitig wissen sie, dass Mandantendaten unter strengerem Schutz stehen als gewöhnliche Geschäftsdaten. Also passiert oft nichts.
Das muss nicht so bleiben. Es gibt einen Weg, ChatGPT und Microsoft Copilot in der Kanzlei einzusetzen. Er erfordert die richtige Lizenz, die richtige Konfiguration und ein paar dokumentierte Entscheidungen.
Was §203 StGB für Ihre Kanzlei bedeutet
Steuerberater unterliegen der strafrechtlichen Geheimhaltungspflicht nach §203 StGB. Das geht über die DSGVO hinaus. Während die DSGVO Bußgelder vorsieht, droht bei §203 eine Freiheitsstrafe bis zu einem Jahr oder eine Geldstrafe.
In der Praxis heißt das: Wenn Mandantendaten in ein KI-Tool fließen, das keine ausreichenden Schutzmaßnahmen bietet, riskiert die Kanzlei nicht nur ein Bußgeld. Sie riskiert eine Strafanzeige.
Das betrifft jede Form der Eingabe: Mandantennamen in Prompts, Steuerbescheide als Upload, Vertragstexte zum Zusammenfassen. Sobald personenbezogene Mandantendaten das System der Kanzlei verlassen, greifen §203 und die DSGVO gleichzeitig.
Was “Offenbaren” im KI-Kontext bedeutet
Viele Kanzleien unterschätzen, wie weit der Begriff “Offenbaren” in §203 reicht. Es ist nicht erforderlich, dass ein Mensch die Daten liest. Es reicht, dass ein unbefugter Dritter technisch Zugang erhält. Im KI-Kontext heißt das:
- Eingabe in ein Cloud-KI-Tool = Übermittlung an den Anbieter = potenzielles Offenbaren. Auch wenn der Anbieter die Daten nur maschinell verarbeitet.
- Upload von Dokumenten in ChatGPT oder ähnliche Tools = derselbe Sachverhalt. Ob Sie Text eintippen oder eine PDF hochladen, macht rechtlich keinen Unterschied.
- Kopieren in die Zwischenablage und Einfügen in ein Browser-basiertes Tool = die Daten verlassen die kontrollierte Umgebung der Kanzlei.
Die Reform von 2017 (§203 Abs. 3 StGB) erlaubt zwar die Weitergabe an “sonstige Mitwirkende”, aber nur unter strengen Voraussetzungen: vertragliche Geheimhaltungsverpflichtung, Belehrung über strafrechtliche Konsequenzen, Erforderlichkeit der Weitergabe und fortlaufende Aufsicht. Ein Standard-AVV mit OpenAI erfüllt diese Anforderungen nicht automatisch. Sie brauchen eine separate Vereinbarung, die §203 explizit adressiert.
Welche ChatGPT-Lizenz funktioniert?
OpenAI bietet den Auftragsverarbeitungsvertrag (AVV), den Art. 28 DSGVO vorschreibt, nur für bestimmte Lizenzen an:
- Free, Plus, Pro: Kein AVV. Nicht für geschäftliche Nutzung mit personenbezogenen Daten geeignet.
- Team: AVV verfügbar. Kein Training mit Ihren Daten. Einstiegsoption für Kanzleien. Datenverarbeitung in den USA.
- Enterprise: AVV verfügbar. EU Data Residency möglich. Kein Training. Höchster Compliance-Standard.
Ohne AVV fehlt die vertragliche Basis. Das gilt auch dann, wenn Sie das Training per Einstellung deaktivieren. Der Toggle ist eine technische Maßnahme. Der AVV ist die rechtliche Pflicht.
Für Kanzleien mit Mandantendaten ist die Team-Lizenz das Minimum. Alles darunter ist Privatnutzung.
Kosten und Nutzen realistisch einschätzen
Die Lizenzkosten sind ein häufiges Argument gegen den Umstieg. Zur Einordnung: Die ChatGPT Team-Lizenz kostet Stand März 2026 ca. 25 USD pro Nutzer und Monat. Die Enterprise-Lizenz wird individuell verhandelt. M365 Copilot kostet 30 EUR pro Nutzer und Monat zusätzlich zur bestehenden M365-Lizenz.
Die Frage ist nicht, ob das Geld kostet. Die Frage ist, was es kostet, es nicht zu tun. Ein DSGVO-Bußgeld nach Art. 83 kann bis zu 20 Millionen EUR oder 4% des Jahresumsatzes betragen. Ein §203-Verstoß hat strafrechtliche Konsequenzen. Und der Reputationsschaden bei Mandanten, die erfahren, dass ihre Daten in ein nicht-konformes KI-Tool geflossen sind, lässt sich nicht in Euro beziffern.
Für eine Kanzlei mit 10 Mitarbeitern bedeutet die Team-Lizenz ca. 250 USD im Monat. Das ist weniger als eine Stunde Beratungshonorar pro Monat. Die Zeitersparnis durch KI-gestützte Dokumentenverarbeitung übersteigt das in der Regel innerhalb der ersten Woche.
Was ändert Microsoft Copilot?
Viele Kanzleien nutzen bereits Microsoft 365. Copilot-Lizenzen werden zunehmend angeboten. Die Versuchung ist groß, einfach zu aktivieren.
Copilot sitzt in Ihrer M365-Umgebung und hat Zugriff auf SharePoint, OneDrive, E-Mails und Teams. Das ist ein anderes Risiko als ein externes Tool wie ChatGPT. Copilot durchsucht alles, worauf ein Nutzer Zugriff hat. Wenn Mandantenakten in SharePoint liegen und die Berechtigungen nicht stimmen, werden diese Akten in Copilot-Antworten auftauchen.
Drei Dinge müssen vor der Aktivierung stehen:
- Sensitivity Labels: Mandantendaten müssen als vertraulich klassifiziert sein. Ohne Labels behandelt Copilot alle Dokumente gleich.
- Berechtigungsaudit: Wer hat Zugriff auf welche SharePoint-Ordner? Die meisten Kanzleien haben das seit Jahren nicht überprüft.
- DSFA: DSGVO Art. 35 verlangt eine Datenschutz-Folgenabschätzung für KI-gestützte Verarbeitung. Microsoft stellt eine Vorlage bereit, sagt aber ausdrücklich, dass der Verantwortliche seine eigene Bewertung durchführen muss.
Copilot-Konfiguration: Die kritischen Einstellungen
Wenn Sie Copilot in der Kanzlei einsetzen wollen, müssen diese Einstellungen vor der Aktivierung stehen:
Im Microsoft 365 Admin Center:
- Copilot-Lizenzen nur an Mitarbeiter zuweisen, die geschult wurden. Nicht pauschal an alle.
- Unter “Settings” > “Microsoft 365 Copilot” die Datenzugriffseinstellungen prüfen. Copilot kann so konfiguriert werden, dass es nur auf bestimmte SharePoint-Seiten zugreift.
Im Microsoft Purview Compliance Center:
- DLP-Richtlinien aktivieren, die verhindern, dass Copilot vertrauliche Daten in ungeschützte Kontexte überträgt. Beispiel: Eine DLP-Regel, die erkennt, wenn eine Copilot-Antwort Steuernummern oder Mandantenreferenzen enthält und die Weitergabe blockiert.
- Sensitivity Labels für alle Mandantenordner in SharePoint setzen. Ohne Labels hat Copilot keinen Kontext, welche Dokumente besonders schützenswert sind.
In SharePoint:
- Berechtigungen auf Site-Ebene prüfen. Nicht auf Bibliotheks- oder Ordnerebene, sondern ganz oben anfangen. Wer ist Mitglied welcher Site? Gibt es Sites mit “Everyone” oder “Everyone except external users” als Mitglied?
- Sharing-Einstellungen verschärfen. Unter “SharePoint Admin Center” > “Policies” > “Sharing” sollte die Standardeinstellung mindestens auf “Only people in your organization” stehen.
Brauche ich eine DSFA?
Ja. DSGVO Art. 35 verlangt eine Datenschutz-Folgenabschätzung, wenn eine Verarbeitung voraussichtlich ein hohes Risiko birgt. KI-gestützte Verarbeitung von Mandantendaten erfüllt dieses Kriterium.
Das EDPB hat in seinem ChatGPT-Taskforce-Bericht (Mai 2024) klargestellt: Unternehmen können die Verantwortung nicht über AGB an OpenAI oder Microsoft abgeben. Die Kanzlei bleibt Verantwortlicher.
Eine DSFA für die Kanzlei deckt ab:
- Welche Daten durch das KI-Tool verarbeitet werden
- Welche Risiken für Mandanten bestehen (Offenlegung, Zugriff Unbefugter, Drittlandtransfer)
- Welche Schutzmaßnahmen diese Risiken mindern
- Ob der Datenschutzbeauftragte konsultiert wurde
Das Finanzamt oder die BaFin kann dieses Dokument jederzeit anfordern. Wenn es nicht existiert, fehlt der Nachweis.
DSFA-Inhalte für Kanzleien: Was konkret hineingehört
Eine DSFA für KI-Einsatz in der Steuerkanzlei sollte mindestens diese Punkte abdecken:
Beschreibung der Verarbeitung:
- Welches KI-Tool wird eingesetzt (ChatGPT Team, M365 Copilot, etc.)?
- Welche Datenarten werden verarbeitet (Mandantennamen, Steuernummern, Finanzdaten)?
- Wie fließen die Daten (Eingabe durch Mitarbeiter, automatische Verarbeitung durch Copilot)?
- Wo werden die Daten verarbeitet (EU, USA, andere)?
Risikobewertung:
- Risiko der unbeabsichtigten Offenlegung von Mandantendaten (Wahrscheinlichkeit: mittel bis hoch, wenn Berechtigungen nicht bereinigt sind)
- Risiko des Drittlandtransfers (Wahrscheinlichkeit: hoch bei allen Nicht-Enterprise-Lizenzen)
- Risiko der Zweckänderung (Wahrscheinlichkeit: gering bei Team/Enterprise, hoch bei Free/Plus)
- Risiko der fehlenden Löschung (abhängig von Lizenz und Konfiguration)
Maßnahmen:
- Für jedes identifizierte Risiko: Welche technische oder organisatorische Maßnahme mindert es? Sensitivity Labels, Berechtigungseinschränkungen, DLP-Regeln, Mitarbeiterschulung, interne KI-Richtlinie.
Stellungnahme des DSB:
- Der Datenschutzbeauftragte muss konsultiert werden und seine Bewertung dokumentieren. Auch “Ich stimme der Bewertung zu, unter der Voraussetzung, dass die genannten Maßnahmen umgesetzt werden” ist eine gültige Stellungnahme.
Rechnen Sie mit einem Arbeitstag für die Erstellung, wenn die Grundlagen (Berechtigungsübersicht, Label-Struktur) bereits stehen. Ohne diese Grundlagen dauert es länger, weil Sie erst die Ist-Situation dokumentieren müssen.
Was Ihre Kanzlei jetzt tun sollte
Fünf konkrete Schritte:
- Bestandsaufnahme: Welche KI-Tools nutzen Ihre Mitarbeiter bereits? Auch privat installierte Apps und Browser-Erweiterungen zählen. Shadow-KI ist das größte Risiko.
- Lizenz prüfen: Ist ein AVV vorhanden? Werden Daten zum Training verwendet? Wo werden die Daten verarbeitet?
- Interne Richtlinie: Was darf in KI-Tools eingegeben werden, was nicht? Konkret und mit Beispielen, nicht nur “bitte gesunden Menschenverstand verwenden.”
- DSFA erstellen: Dokumentieren Sie die Verarbeitung, die Risiken und die Schutzmaßnahmen. Kein Projekt, ein Dokument.
- Copilot-Konfiguration: Falls M365 Copilot eingesetzt wird: Sensitivity Labels einrichten, Berechtigungen prüfen, DLP-Richtlinien aktivieren.
Keiner dieser Schritte erfordert Monate. Die meisten Kanzleien können das in zwei bis vier Wochen erledigen, wenn sie wissen, was zu tun ist.
Was am Montagmorgen passiert
Wenn Sie diesen Artikel gelesen haben und am Montag etwas tun wollen, fangen Sie hier an:
Tag 1: Shadow-KI-Bestandsaufnahme. Fragen Sie in der Kanzlei herum, welche KI-Tools bereits genutzt werden. Nicht als Kontrolle, sondern als ehrliche Bestandsaufnahme. Die Antwort wird Sie wahrscheinlich überraschen. Mindestens ein Mitarbeiter nutzt bereits die kostenlose Version von ChatGPT. Das ist kein Vorwurf — die Tools sind nützlich. Aber Sie müssen wissen, was passiert.
Tag 2-3: Lizenz-Entscheidung. Wenn Sie ChatGPT nutzen wollen: Team-Lizenz abschließen, AVV akzeptieren und dokumentieren. Wenn Sie Copilot nutzen wollen: Klären Sie, ob Ihre M365-Lizenz Copilot unterstützt (E3/E5) und welche Konfiguration nötig ist.
Tag 4-5: Interne Richtlinie schreiben. Kein 20-seitiges Dokument. Eine Seite reicht. Was darf eingegeben werden, was nicht? Konkrete Beispiele: “Mandantenname + Steuernummer = Nein. Allgemeine steuerrechtliche Frage ohne Mandantenbezug = Ja.” Lassen Sie die Richtlinie von allen Mitarbeitern unterzeichnen.
Woche 2-3: Berechtigungsaudit und DSFA. Parallel laufen lassen. SharePoint-Berechtigungen prüfen und bereinigen, DSFA erstellen, DSB einbeziehen.
Woche 4: Labels und DLP. Sensitivity Labels für Mandantendaten konfigurieren, DLP-Regeln aktivieren, Copilot freigeben.
Dieser Zeitplan ist realistisch für eine Kanzlei mit 10-30 Mitarbeitern. Größere Kanzleien brauchen möglicherweise einen Monat länger. Kleinere schaffen es schneller.
Nicht sicher, wo Ihre Kanzlei steht? Der KI-Compliance-Check dauert 2 Minuten und zeigt, wo Handlungsbedarf besteht.
Lieber direkt sprechen? Kostenloses 30-Minuten-Erstgespräch buchen — kein Verkaufsgespräch, nur eine ehrliche Einschätzung.
Jose Lugo ist CISSP-zertifizierter KI-Compliance-Berater mit M365 Endpoint Administrator-Zertifizierung. Er berät Steuerberater und Kanzleien in Deutschland bei der DSGVO-konformen Nutzung von KI-Tools.