Anthropic, das Unternehmen hinter Claude, hat seit Januar 2026 eine Doppelrolle. Sie verkaufen ihr eigenes KI-Tool. Und sie verarbeiten Daten für Microsoft 365 Copilot als Subprozessor.
Das klingt erstmal abstrakt. Ist es aber nicht. Wenn Ihre Organisation Copilot nutzt, ist Anthropic bereits in Ihrem Datenfluss. Wenn Mitarbeiter zusätzlich Claude direkt nutzen, haben Sie zwei separate Expositionspfade. Und Ihre DSFA muss beide abdecken.
Claude als direktes Tool
Fangen wir mit dem einfachen Teil an. Claude gibt es in mehreren Varianten, und die DSGVO-Bedingungen unterscheiden sich erheblich.
Die kostenlose Version nutzt Ihre Eingaben zum Trainieren des Modells. Das steht in den Nutzungsbedingungen. Ein AVV gibt es nicht. Für den geschäftlichen Einsatz mit personenbezogenen Daten ist diese Version nicht geeignet.
Claude Pro (20 Dollar/Monat) bietet ein Opt-out für das Training. Besser, aber: Kein Standard-AVV. Die vertragliche Grundlage nach Art. 28 DSGVO fehlt auch hier.
Ab Claude Team und bei der API sieht es anders aus. Anthropic stellt einen AVV bereit. Daten werden nicht zum Training verwendet. Das ist vertraglich zugesichert, nicht nur per Toggle.
Die Frage der EU-Datenresidenz ist allerdings nur teilweise gelöst. Anthropic betreibt keine eigene Infrastruktur in der EU. Die Verarbeitung erfolgt über Cloud-Anbieter in den USA, abgesichert über Standardvertragsklauseln.
Ich habe Claude und die anderen KI-Tools im DSGVO-Vergleich gegenübergestellt. Dort finden Sie die vollständige Übersicht.
Der Microsoft-Subprozessor-Winkel
Hier wird es für die meisten Unternehmen relevant, auch wenn sie Claude nie direkt genutzt haben.
Seit Januar 2026 steht Anthropic auf der offiziellen Subprozessorliste von Microsoft. Das bedeutet: Microsoft leitet bestimmte Copilot-Anfragen an Anthropic-Modelle weiter. Nicht alle. Aber einen Teil.
Und jetzt der entscheidende Punkt: Anthropic ist explizit von der EU Data Boundary ausgenommen. Microsoft hat eine EU Data Boundary eingerichtet, in der Daten innerhalb der EU bleiben sollen. Aber für Subprozessoren wie Anthropic gilt diese Grenze nicht.
Wenn ein Mitarbeiter in Ihrer Kanzlei Copilot in Word öffnet und einen Text zusammenfassen lässt, kann es sein, dass diese Anfrage an ein Anthropic-Modell geroutet wird. Die Daten verlassen dann die EU. Nicht weil Microsoft das so wollte, sondern weil der Subprozessor keine EU-Infrastruktur anbietet.
Das ist kein hypothetisches Szenario. Das ist die aktuelle technische Architektur.
Zwei Pfade, eine DSFA
Jetzt wird es in der Praxis kompliziert. Stellen Sie sich eine mittelgroße Kanzlei vor.
Pfad eins: Die Kanzlei hat Microsoft 365 Copilot ausgerollt. Über die Subprozessorkette fließen Daten an Anthropic. Das ist der offizielle Pfad, über den Microsoft-Vertrag abgedeckt, aber mit der EU-Data-Boundary-Ausnahme.
Pfad zwei: Einige Mitarbeiter nutzen Claude direkt im Browser. Weil sie es privat kennen, weil ein Kollege es empfohlen hat, weil es für bestimmte Aufgaben bessere Ergebnisse liefert. Das ist der Shadow-AI-Pfad. Kein Vertrag, kein AVV, möglicherweise mit Trainingsdatennutzung.
Zwei verschiedene Rechtsgrundlagen. Zwei verschiedene Risikobewertungen. Und beide müssen in einer DSFA dokumentiert sein.
In der Praxis sehe ich das so: Die meisten DSFAs für Copilot berücksichtigen den Anthropic-Subprozessor nicht. Und Shadow AI wird sowieso selten erfasst. Beides zusammen ergibt eine DSFA, die auf dem Papier existiert, aber die tatsächlichen Datenflüsse nicht abbildet.
Was in Ihrer DSFA stehen muss
Wenn Sie eine DSFA für Copilot haben (und die brauchen Sie), dann müssen seit Januar 2026 folgende Punkte ergänzt werden.
Datenflussdiagramm: Zeichnen Sie den Anthropic-Pfad ein. Microsoft 365 Copilot verarbeitet eine Anfrage. Ein Teil wird an Anthropic weitergeleitet. Die Daten verlassen die EU. Das muss im Diagramm sichtbar sein.
Risikobewertung: Bewerten Sie das Risiko der Nicht-EU-Verarbeitung durch Anthropic. Welche Datentypen könnten betroffen sein? Wie hoch ist die Eintrittswahrscheinlichkeit? Welche Schutzmaßnahmen gibt es (SCCs im Microsoft-Vertrag)?
Subprozessorregister: Anthropic muss in Ihrem internen Verzeichnis stehen. Nicht nur auf der Microsoft-Liste, sondern in Ihrer eigenen Dokumentation. Art der Verarbeitung, Standort, vertragliche Grundlage.
TOM-Dokumentation: Welche technischen und organisatorischen Maßnahmen gelten für die Anthropic-Verarbeitung? Diese Frage müssen Sie beantworten können. Auch wenn die Maßnahmen primär von Microsoft kommen.
Für den Shadow-AI-Pfad (Mitarbeiter nutzen Claude direkt) brauchen Sie zusätzlich eine Aussage in Ihrer KI-Nutzungsrichtlinie. Ist Claude Free/Pro für geschäftliche Nutzung erlaubt oder nicht? Wenn ja, unter welchen Bedingungen? Wenn nein, wie stellen Sie sicher, dass die Regel eingehalten wird?
Meine Einschätzung zu Claude
Ich sage das offen: Claude ist ein leistungsfähiges Tool. Anthropic hat bei den höheren Tarifen (Team, API) solide Datenschutzpraktiken. Kein Training mit Kundendaten, AVV verfügbar, transparente Dokumentation.
Aber die kostenlose Version und Pro ohne AVV sind für den geschäftlichen Einsatz mit personenbezogenen Daten nicht geeignet. Das gilt für Claude genauso wie für ChatGPT Free oder Gemini Consumer. Kein AVV, kein Geschäftseinsatz. Die Regel ist bei jedem Tool dieselbe.
Und der Subprozessor-Winkel betrifft Sie auch dann, wenn Sie Claude nie aktiv eingesetzt haben. Wenn Sie Copilot nutzen, ist Anthropic bereits Teil Ihrer Verarbeitungskette. Das ist kein Argument gegen Copilot. Es ist ein Argument dafür, Ihre DSFA aktuell zu halten.
Was bei Copilot und Oversharing dazukommt
Das Oversharing-Thema und das Subprozessor-Thema hängen zusammen. Wenn Copilot zu viele Daten durchsucht (weil die SharePoint-Berechtigungen zu breit sind) und ein Teil dieser Anfragen an Anthropic geroutet wird (weil Anthropic Subprozessor ist), dann verlassen möglicherweise Daten die EU, auf die der Nutzer eigentlich keinen Zugriff haben sollte.
Das ist nicht Anthropics Problem. Das ist ein Konfigurationsproblem auf Ihrer Seite. Aber es verdeutlicht, warum ein Berechtigungsaudit vor dem Copilot-Rollout keine optionale Maßnahme ist.
Nächster Schritt
Ihre DSFA muss die aktuelle Subprozessorkette abbilden. Microsoft ändert diese Liste regelmäßig. Anthropic kam im Januar 2026 dazu. Wer als nächstes kommt, ist nicht vorhersehbar.
Mein Managed Compliance Service beinhaltet quartalsweise DSFA-Reviews. Subprozessoränderungen wie diese fangen wir dabei auf, bevor sie zum Audit-Problem werden.
30-Minuten-Erstgespräch buchen | Mehr zu meinen Leistungen
Jose Lugo ist CISSP-zertifizierter KI-Compliance-Berater und konfiguriert Microsoft 365-Umgebungen für regulierte Unternehmen in Deutschland. Er kennt sowohl die Copilot-Architektur als auch die DSGVO-Anforderungen an Subprozessorketten.