DSFA für Microsoft 365 Copilot: Was das Dokument enthalten muss

Art. 35 DSGVO verlangt eine DSFA für Copilot. Microsofts Vorlage reicht nicht. Was konkret drinstehen muss, Schritt für Schritt.

DSGVO Art. 35 verlangt eine Datenschutz-Folgenabschätzung für Verarbeitungen, die ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen darstellen. KI-gestützte Dokumentenverarbeitung durch Microsoft 365 Copilot fällt darunter.

Das BayLDA (Bayerisches Landesamt für Datenschutzaufsicht) führt KI-Systeme auf seiner Positivliste für verpflichtende DSFAs. Wenn Sie Copilot nutzen und keine DSFA haben, fehlt Ihnen ein gesetzlich vorgeschriebenes Dokument.

Die Frage ist nicht, ob Sie eine DSFA brauchen. Die Frage ist, was dort drinstehen muss. Denn die meisten DSFAs, die ich sehe, sind entweder Microsofts Vorlage ohne Anpassung oder interne Dokumente, denen wesentliche Elemente fehlen. Dieser Beitrag geht jeden Bestandteil durch, den Art. 35 verlangt, und zeigt, was das für Copilot konkret bedeutet.

Microsofts DSFA-Vorlage: Ausgangspunkt, nicht Ergebnis

Microsoft stellt eine DSFA-Vorlage für Office 365 bereit. In der Vorlage steht ausdrücklich, dass der Verantwortliche seine eigene Bewertung durchführen muss. Microsoft ist der Auftragsverarbeiter. Ihre Kanzlei oder Ihr Unternehmen ist der Verantwortliche. Die Pflicht liegt bei Ihnen.

Die Vorlage deckt ab, was Microsoft auf seiner Seite tut. Welche Sicherheitsmaßnahmen Microsoft implementiert hat. Wie Microsoft Daten verarbeitet und speichert. Das ist hilfreich als Referenz.

Was die Vorlage nicht abdeckt: Ihre spezifischen Daten. Ihre SharePoint-Struktur. Ihre Berechtigungskonfiguration. Ihre Branchenanforderungen. Ihre Risiken.

Ich nutze Microsofts Vorlage als Unterbau. Aber das fertige Dokument sieht anders aus, weil es Ihre Umgebung beschreiben muss, nicht Microsofts.

Systematische Beschreibung der Verarbeitung

Art. 35 Abs. 7 lit. a verlangt eine systematische Beschreibung der geplanten Verarbeitungsvorgänge. Für Copilot bedeutet das: Welche Datenquellen greift Copilot zu? Welche Verarbeitungen führt es durch?

Die Datenquellen in einer typischen M365-Umgebung sind SharePoint-Seiten und Bibliotheken, OneDrive-Ordner, Exchange-Postfächer und Teams-Kanäle samt Chat-Verläufe. Copilot durchsucht alles, worauf der jeweilige Nutzer Zugriff hat. Das ist keine Einschränkung, sondern das Designprinzip.

Die Verarbeitungen umfassen Zusammenfassen von Dokumenten und E-Mails, Entwürfe erstellen auf Basis vorhandener Inhalte, Suche und Analyse über mehrere Datenquellen und Beantwortung von Fragen zu gespeicherten Daten.

Für die DSFA müssen Sie das auf Ihre Umgebung herunterbrechen. Nicht “SharePoint”, sondern welche SharePoint-Seiten. Nicht “E-Mails”, sondern welche Postfächer welcher Abteilungen. Je konkreter die Beschreibung, desto aussagekräftiger die Risikobewertung, die darauf aufbaut.

Dokumentieren Sie auch, welche Mitarbeitergruppen Copilot-Lizenzen haben. In vielen Unternehmen wird Copilot zunächst für eine Pilotgruppe aktiviert. Die DSFA muss den tatsächlichen Nutzungsumfang widerspiegeln, nicht den maximal möglichen.

Zweck und Rechtsgrundlage

Art. 35 Abs. 7 lit. a verlangt auch die Zwecke der Verarbeitung und gegebenenfalls die berechtigten Interessen. Warum nutzen Sie Copilot? Was soll es leisten?

Die Rechtsgrundlage ist typischerweise Art. 6 Abs. 1 lit. f DSGVO (berechtigtes Interesse) oder Art. 6 Abs. 1 lit. b (Erfüllung eines Vertrags), abhängig vom Kontext. Wenn Copilot bei der Erstellung von Mandantendokumenten hilft, kann die Vertragserfüllung als Grundlage dienen. Wenn es für interne Effizienzsteigerung genutzt wird, kommt das berechtigte Interesse in Frage.

Dokumentieren Sie die Rechtsgrundlage für jeden Verarbeitungszweck separat. “Wir nutzen Copilot zur Steigerung der Produktivität” ist zu vage. “Copilot wird eingesetzt, um Mandantenkorrespondenz zusammenzufassen (Art. 6 Abs. 1 lit. b) und interne Arbeitsdokumente zu erstellen (Art. 6 Abs. 1 lit. f)” ist konkreter.

Notwendigkeit und Verhältnismäßigkeit

Art. 35 Abs. 7 lit. b verlangt eine Bewertung der Notwendigkeit und Verhältnismäßigkeit. Ist Copilot für den angegebenen Zweck notwendig? Gibt es weniger eingriffsintensive Alternativen?

Das klingt formalistisch, hat aber praktische Bedeutung. Sie müssen begründen können, warum Sie ein KI-Tool einsetzen, das auf den gesamten Datenbestand eines Nutzers zugreift, statt gezielter Lösungen. Die Antwort kann sein, dass Copilot durch die Integration in M365 effizienter arbeitet als ein externes Tool, das Daten erst exportieren müsste. Oder dass die Alternative (manuelle Suche und Zusammenfassung) unverhältnismäßig viel Zeit kostet.

Wichtig: Die Verhältnismäßigkeitsprüfung ist kein Hindernis. Sie zwingt Sie, den Einsatz bewusst zu begründen. Wenn die Begründung schlüssig ist, stärkt sie Ihre Position bei einer Prüfung.

Risiken für betroffene Personen

Art. 35 Abs. 7 lit. c ist der Kern der DSFA. Was kann schiefgehen? Welche Risiken bestehen für die Personen, deren Daten verarbeitet werden?

Für Copilot gibt es mehrere konkrete Risikokategorien.

Das Oversharing-Risiko ist das am häufigsten unterschätzte. Copilot zeigt Nutzern Inhalte, auf die sie laut Berechtigungsstruktur Zugriff haben, die sie aber unter normalen Umständen nie gefunden hätten. Vertrauliche Mandantenakten, Personalunterlagen, Strategiepapiere. Nicht weil Copilot Berechtigungen umgeht, sondern weil die bestehenden Berechtigungen zu breit sind.

Datenweitergabe durch Prompts ist ein weiteres Risiko. Wenn ein Mitarbeiter Copilot bittet, ein Dokument zusammenzufassen, wird der Inhalt an Microsofts KI-Infrastruktur übermittelt. Seit Januar 2026 gehört Anthropic als Unterauftragsverarbeiter zu dieser Infrastruktur. Daten, die über Anthropic verarbeitet werden, sind von der EU Data Boundary ausgenommen.

Sensitivity Label-Versagen ist ein dokumentiertes Risiko. EchoLeak (Juni 2025) und der Vorfall CW1226324 (Januar 2026) haben gezeigt, dass Labels unter bestimmten Bedingungen umgangen werden konnten. Labels sind eine Schutzschicht, aber keine unfehlbare.

Für Berufsgeheimnisträger kommt das § 203 StGB-Risiko hinzu. Wenn Copilot Mandantendaten verarbeitet, die der strafrechtlichen Geheimhaltungspflicht unterliegen, muss die DSFA dieses Risiko separat bewerten.

Bewerten Sie jedes Risiko nach Eintrittswahrscheinlichkeit und Schwere. Nutzen Sie eine Matrix, die für die Datenschutzbehörde nachvollziehbar ist. Die BayLDA empfiehlt eine vierstufige Skala (gering, mittel, hoch, sehr hoch) für beide Dimensionen.

Schutzmaßnahmen und Risikominderung

Art. 35 Abs. 7 lit. d verlangt die Maßnahmen, die zur Bewältigung der Risiken vorgesehen sind. Jedes identifizierte Risiko braucht mindestens eine dokumentierte Gegenmaßnahme.

Gegen Oversharing: SharePoint-Berechtigungen auditieren und bereinigen. “Jeder”-Freigaben entfernen. Gruppen nach dem Least-Privilege-Prinzip aufbauen. Das ist die Grundlage. Ohne saubere Berechtigungen sind alle anderen Maßnahmen Flickwerk.

Sensitivity Labels konfigurieren. Eine Struktur mit vier Stufen (Öffentlich, Intern, Vertraulich, Streng vertraulich) deckt die meisten regulierten Unternehmen ab. Auto-Labeling-Regeln für Steuernummern, IBAN-Nummern und Mandantenreferenzen ergänzen die manuelle Klassifizierung. Seit September 2025 können Sie Copilot explizit von bestimmten Label-Stufen ausschließen.

DLP-Richtlinien verhindern, dass vertrauliche Inhalte extern geteilt werden. Für Mandantendaten unter § 203 StGB sind DLP-Richtlinien Teil der dokumentierten Schutzarchitektur.

Mitarbeiterschulung gehört ebenfalls in die DSFA. Wissen Ihre Mitarbeiter, welche Daten sie in Copilot-Prompts verwenden dürfen? Verstehen sie, dass Copilot-Ergebnisse vertrauliche Informationen enthalten können, die nicht weitergegeben werden dürfen?

Logging und Monitoring: Nutzen Sie die Copilot-Audit-Logs im Microsoft Purview Compliance Center. Dokumentieren Sie, welche Aktivitäten protokolliert werden und wer die Logs regelmäßig auswertet.

Konsultation des Datenschutzbeauftragten

Art. 35 Abs. 2: Der Rat des Datenschutzbeauftragten muss bei der Durchführung der DSFA eingeholt werden. Das ist keine Empfehlung. Das ist eine gesetzliche Pflicht.

Dokumentieren Sie, wann der DSB konsultiert wurde, welche Stellungnahme er abgegeben hat und ob seine Empfehlungen umgesetzt wurden. Auch wenn der DSB keine Einwände hat, gehört das in die DSFA. “DSB wurde am [Datum] konsultiert. Keine Einwände.” ist besser als gar nichts.

Wenn Sie einen externen DSB haben, planen Sie einen Termin für die gemeinsame Durchsprache der DSFA ein. Der DSB kennt Ihre Umgebung möglicherweise nicht im Detail. Geben Sie ihm die technischen Informationen, die er für seine Einschätzung braucht.

Was die DSFA unternehmensspezifisch macht

Hier scheitern die meisten Template-Lösungen. Ihre Datenflüsse sind einzigartig. Ihre SharePoint-Struktur ist einzigartig. Ihre Branchenregulierung ist spezifisch.

Ein Steuerberater hat andere Datenflüsse als eine Rechtsanwaltskanzlei. Eine Kanzlei mit 10 Mitarbeitern hat eine andere Berechtigungsstruktur als eine mit 50. Ein Unternehmen, das nur Word und Outlook nutzt, hat ein anderes Risikoprofil als eines, das SharePoint intensiv für Mandantenakten einsetzt.

Die DSFA muss Ihre Umgebung beschreiben. Nicht eine theoretische M365-Standardumgebung.

Der Subunternehmer-Abschnitt

Seit Januar 2026 muss der Subunternehmer-Abschnitt Microsoft als Auftragsverarbeiter und Anthropic als Unterauftragsverarbeiter aufführen. Für jeden Subunternehmer gehören die Verarbeitungsorte, die Rechtsgrundlage für Datenübermittlungen und die Sicherheitsmaßnahmen in die Dokumentation.

Dieser Abschnitt ist nicht statisch. Wenn Microsoft weitere Subunternehmer hinzufügt, muss die DSFA aktualisiert werden. Richten Sie ein Monitoring ein: Abonnieren Sie Microsofts Subunternehmer-Benachrichtigungen und definieren Sie intern, wer Änderungen bewertet.

Häufige Fehler

Microsofts Vorlage als fertiges Dokument behandeln, ohne die unternehmensspezifischen Abschnitte zu ergänzen. Das ist der häufigste Fehler. Die Vorlage deckt Microsofts Verarbeitung ab. Ihre Verarbeitung, Ihre Risiken und Ihre Maßnahmen müssen Sie selbst dokumentieren.

Die DSFA nicht aktualisieren, wenn sich die Verarbeitungsumstände ändern. Neue Subunternehmer, neue Funktionen, geänderte Berechtigungsstrukturen. Eine DSFA von 2024, die nie aktualisiert wurde, hat bei einer Prüfung 2026 wenig Wert.

Den DSB nicht einbeziehen. Art. 35 Abs. 2 ist eindeutig. Ohne dokumentierte DSB-Konsultation fehlt ein Pflichtbestandteil.

Den Risikobewertungsprozess nicht dokumentieren. Es reicht nicht, die Risiken aufzulisten. Sie müssen nachvollziehbar zeigen, wie Sie zu Ihrer Bewertung gekommen sind. Welche Kriterien haben Sie angewandt? Welche Informationsquellen? Wer war beteiligt?

Nächster Schritt

Die DSFA ist Bestandteil jedes Copilot Compliance Audits. Ich erstelle unternehmensspezifische DSFAs, keine Template-Kopien. Das Dokument beschreibt Ihre Umgebung, Ihre Risiken und Ihre Maßnahmen, nicht die einer generischen M365-Installation.

Wie in den 5 DSGVO-Fragen vor dem Copilot-Rollout beschrieben: Die DSFA ist ein zentrales Compliance-Dokument. Und wie der Oversharing-Beitrag zeigt, hängt die Qualität der DSFA direkt davon ab, wie gut Sie Ihre eigene Umgebung kennen.

30-Minuten-Erstgespräch buchen. Ich schaue mir an, was Sie haben, und sage Ihnen, was fehlt. Kein Verkaufsgespräch.


Jose Lugo ist CISSP-zertifizierter KI-Compliance-Berater mit M365 Endpoint Administrator-Zertifizierung. Er erstellt Datenschutz-Folgenabschätzungen für regulierte Unternehmen in Deutschland.