Microsofts Copilot für Microsoft 365 verspricht enorme Produktivitätssprünge und bringt zugleich eine komplexe Verarbeitung quer durch E‑Mails, Dokumente, Chats und Kalender mit sich. Ob daraus ein Wettbewerbsvorteil oder eine Datenschutz‑Großbaustelle wird, entscheidet nicht die KI, sondern die Governance: tragfähige Rechtsgrundlagen, strenge Konfigurationen und lückenlose Dokumentation.
Ein Copilot ist nicht gleich Copilot
Unter dem Label „Copilot“ bietet Microsoft unterschiedliche Produkte an. Für die DSGVO‑Beurteilung steht Copilot für Microsoft 365 im Mittelpunkt (u. a. Word, Excel, Outlook, Teams, OneNote, Loop).
Daneben existieren GitHub Copilot, Copilot für Dynamics oder „Copilot Free“. Relevanz und Risiko hängen vom Kontext ab. Im Privatgebrauch ist der Anwendungsbereich des Datenschutzrechts begrenzt, im Unternehmen unterliegt der Einsatz vollumfänglich der DSGVO und etwaigen nationalen Sonderregeln.
So arbeitet Microsoft 365 Copilot
Microsoft 365 Copilot ist weit mehr als ein smarter Textgenerator. Technisch betrachtet handelt es sich um eine komplexe Orchestrierung verschiedener Komponenten. Im Hintergrund läuft ein großes Sprachmodell (aktuell ein GPT von OpenAI), das über Microsofts Azure-Cloud angesteuert wird. Den Kontext erhält Copilot nicht zufällig, sondern – je nach Konfiguration – direkt aus den Unternehmensdaten. Dazu gehören E-Mails, Dokumente, Kalendereinträge, Chatverläufe, Notizen und andere Inhalte, die über Microsoft Graph zugänglich sind.
Wenn ein Nutzer Copilot in Outlook beispielsweise nach einer Zusammenfassung einer langen E-Mail-Konversation fragt, analysiert das System die Mails, erstellt die Zusammenfassung und spielt sie in die Benutzeroberfläche zurück. Ähnlich funktioniert es in Word, Excel oder Teams. Damit greift Copilot aktiv auf Inhalte zu, verarbeitet sie in Echtzeit und erzeugt neue Informationen – häufig mit Personenbezug. Entscheidend ist: Copilot verarbeitet nicht nur die aktuell geöffneten Inhalte, sondern alles, worauf ein Nutzer Zugriff hat.
Wo entstehen Datenschutzrisiken?
Befindet sich etwa ein SharePoint-Ordner mit Kundendaten im Lesebereich, kann Copilot diese Informationen in Antworten einfließen lassen. Genau an diesem Punkt beginnen die zentralen Risiken. Denn die Grenzen zwischen „eigenen“ und „fremden“ Daten verschwimmen schnell. Microsoft stellt zwar verschiedene Einstellungen zur Verfügung, um Zugriffe zu begrenzen – etwa das Ausschließen bestimmter SharePoint-Seiten oder OneDrive-Ordner, DLP-Regeln oder Sensitivity Labels. Unternehmen sind dennoch gut beraten, personenbezogene Daten strikt von allgemeinen Wissensinhalten zu trennen.
Ein zusätzlicher Risikofaktor sind optionale Plugins wie die Bing-Suche oder Drittanbieter-Apps. Werden sie aktiviert, verlassen Anfragen die geschützte Microsoft-365-Umgebung, wodurch personenbezogene Daten an externe Dienste gelangen können. In solchen Fällen ist Microsoft nicht mehr nur Auftragsverarbeiter, sondern andere Anbieter treten als eigenständig Verantwortliche auf.
Weitere Gefahren liegen im möglichen Over-Sharing: Copilot kann Informationen sichtbar machen, die zwar formal freigegeben, aber nicht für breite Nutzung gedacht sind. Auch Zweckänderungen sind möglich, wenn Daten für Analysen genutzt werden, die über den ursprünglichen Erhebungszweck hinausgehen. Hinzu kommt das Risiko fehlerhafter oder halluzinierter Inhalte, die personenbezogene Daten verfälschen können, sowie Bias-Effekte aus Trainingsdaten. Besonders kritisch ist der Einsatz für automatisierte Bewertungen ohne menschliche Kontrolle – ein klarer Konflikt mit Art. 22 DSGVO.
Die Verantwortung liegt letztlich immer beim Unternehmen: Es muss sicherstellen, dass Konfigurationen und tatsächlicher Datenumgang übereinstimmen. Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage, muss im Umfang begrenzt und durch Schutzmaßnahmen abgesichert sein.
Was Unternehmen dokumentieren müssen
Sobald Microsoft 365 Copilot im Unternehmen eingesetzt wird, verarbeitet das System personenbezogene Daten – zum Beispiel Inhalte aus E-Mails, Kalendereinträgen oder Dokumenten. Damit gelten automatisch die Pflichten der DSGVO. Besonders zwei Punkte sind zentral:
Verzeichnis der Verarbeitungstätigkeiten (Art. 30 DSGVO)
- Jede regelmäßige Verarbeitung muss dokumentiert werden.
- Einzutragen sind u. a. die verarbeiteten Daten, der Zweck, die Rechtsgrundlage und die eingesetzten Schutzmaßnahmen.
Wichtig: Es reicht nicht aus, „Copilot“ pauschal aufzuführen. Wird Copilot in Outlook genutzt, um E-Mails zusammenzufassen, muss genau dieser Vorgang mit allen Details beschrieben werden.
Datenschutz-Folgenabschätzung (Art. 35 DSGVO)
Die Datenschutz-Folgenabschätzung ist kein reiner Formalakt, sondern ein zentrales Werkzeug, um Probleme frühzeitig zu erkennen.
- Pflicht, wenn eine Verarbeitung ein hohes Risiko für die Rechte und Freiheiten der Betroffenen mit sich bringt.
- Bei Copilot meist erforderlich, da die KI auf große Datenmengen zugreift, Inhalte automatisch analysiert und neue Informationen generiert.
Risiken: Sensible Informationen können in automatisch generierte Texte einfließen und Mitarbeiter können Zugriff auf Daten erhalten, die sie im Normalfall nicht sehen dürften.
Ziel: Risiken systematisch identifizieren, bewerten und durch Schutzmaßnahmen reduzieren – und zwar vor dem produktiven Einsatz.
Auch für Mitarbeitende braucht es klare Regeln. Sie müssen sich darauf verlassen können, dass der Umgang mit Copilot dokumentiert, begründet und abgesichert ist. Arbeitgeber sollten dies in Form einer Datenschutz- oder KI-Richtlinie verbindlich festlegen.
Datenstandorte und Auftragsverarbeitung
Microsoft verarbeitet die Daten, die Copilot nutzt, in der Regel im Auftrag des Unternehmens. Das ist nach DSGVO nur erlaubt, wenn ein gültiger Vertrag zur Auftragsverarbeitung (Art. 28 DSGVO) vorliegt. Microsoft stellt diesen Vertrag über das Data Protection Addendum (DPA/AVV) bereit. Unternehmen sollten in der Admin-Oberfläche prüfen, ob dieses Addendum aktiv ist und Copilot abdeckt – sonst wäre der Einsatz nicht rechtmäßig.
Grundsätzlich verspricht Microsoft, Daten europäischer Kunden in EU-Rechenzentren zu verarbeiten. Trotzdem können Übermittlungen in Drittländer stattfinden, z. B. bei Supportfällen oder wenn OpenAI-Dienste im Hintergrund laufen. In solchen Fällen greift das EU-US Data Privacy Framework: Da Microsoft zertifiziert ist, sind Datentransfers in die USA grundsätzlich erlaubt. Dennoch müssen Unternehmen dokumentieren, welche Daten betroffen sind, wann Übermittlungen erfolgen und wie sensible Inhalte geschützt bleiben.
Offen bleibt zudem die Frage einer gemeinsamen Verantwortlichkeit nach Art. 26 DSGVO. Denn Microsoft nutzt bestimmte Daten auch für eigene Zwecke, etwa für Sicherheitsanalysen oder Produktverbesserungen. Ob und wie Copilot hiervon betroffen ist, ist noch unklar. Unternehmen sollten dieses Risiko in ihrer Datenschutz-Folgenabschätzung berücksichtigen und gegebenenfalls zusätzliche Regelungen prüfen.
Transparenzpflichten nach DSGVO
Wer nachvollziehen kann, welche personenbezogenen Daten zu welchem Zweck verarbeitet werden, kann seine Rechte wahrnehmen oder widersprechen. Deshalb erhebt die DSGVO Transparenz zum Grundprinzip (Art. 5 Abs. 1 lit. a) und verankert sie in den Informationspflichten nach Art. 13 und 14.
Unternehmen müssen klar und verständlich erklären, dass Copilot auf E-Mails, Chats, Dokumente oder Kalender zugreift, um automatisiert Zusammenfassungen, Entwürfe oder Analysen zu erzeugen. Diese Informationen dürfen nicht im Kleingedruckten verschwinden, sondern müssen deutlich erkennbar machen:
- welche Datenkategorien betroffen sind,
- zu welchem Zweck die Verarbeitung erfolgt,
- auf welcher Rechtsgrundlage sie basiert,
- und welche Schutzmaßnahmen greifen.
Nur so können Betroffene ihre Rechte nach Kapitel III DSGVO wahrnehmen. Dazu zählen insbesondere:
- Auskunftsrecht (Art. 15): Welche Daten wurden verarbeitet, zu welchem Zweck, welche Empfänger hatten Zugriff? Auch Protokolle von Prompts und KI-Antworten sind einzubeziehen.
- Recht auf Berichtigung (Art. 16): Fehlerhafte Inhalte müssen korrigiert werden.
- Recht auf Löschung (Art. 17): Betroffene können verlangen, dass personenbezogene Daten gelöscht werden, sofern keine Aufbewahrungspflichten entgegenstehen.
- Recht auf Einschränkung (Art. 18): Bestimmte Dokumente oder Daten dürfen nicht durch Copilot verarbeitet werden.
- Recht auf Datenübertragbarkeit (Art. 20): Daten müssen in einem maschinenlesbaren Format bereitgestellt werden können.
- Widerspruchsrecht (Art. 21): Betroffene können der Verarbeitung widersprechen, wenn sie auf Interessenabwägung beruht.
- Recht auf menschliche Entscheidung (Art. 22): Copilot darf keine allein automatisierten Entscheidungen mit rechtlicher Wirkung treffen.
DSGVO-Auskunft und Microsoft Purview
Geht bei einem Unternehmen, das Copilot nutzt, ein Auskunftsersuchen ein, beginnt der Prozess wie üblich mit der Identitätsprüfung. Danach müssen alle personenbezogenen Daten zusammengetragen werden – auch jene, die Copilot verarbeitet hat.
Am einfachsten gelingt dies mit Microsoft Purview Information Protection (früher „Compliance Center“). Purview speichert sowohl Prompts als auch KI-Antworten in Audit-Logs und erlaubt eine zentrale Suche in Copilot-Protokollen, Teams-Chats und anderen M365-Inhalten.
Allerdings ist Purview kein kostenloses Feature:
- Bestandteil der Microsoft 365 E5 Compliance-Lizenz oder
- als separates Add-on erhältlich.
Unternehmen, die nur E3- oder Business-Pläne nutzen, müssen die Erweiterung nachrüsten. Diese Lizenzkosten sollten frühzeitig einkalkuliert werden.
DEINE KI-FORTBILDUNG
- Praxisnah & Umsetzungsorientiert
- Für schnellere & bessere Ergebnisse in jedem Bürojob
- Ideal auch für Selbständige
Mitarbeiterschulungen
Mitarbeitende sollten gezielt geschult werden, um Chancen und Risiken beim Umgang mit KI-gestützten Funktionen zu verstehen. Schulungen sollten insbesondere vermitteln, wie mit KI-generierten Inhalten umzugehen ist, welche Verantwortung bei der Prüfung von Vorschlägen besteht und wie Datenschutzverletzungen vermieden werden können.
Auch konkrete Anwendungsgrenzen, etwa beim Zugriff auf vertrauliche Informationen oder der Nutzung von Copilot für personenbezogene Auswertungen, müssen klar kommuniziert werden. Nur durch fundierte Schulungen lässt sich sicherstellen, dass Copilot verantwortungsbewusst und regelkonform genutzt wird.
Einbindung des Betriebsrats
Wird Copilot im Unternehmen eingeführt, ist der Betriebsrat frühzeitig einzubeziehen. Nach § 87 Abs. 1 Nr. 6 BetrVG hat der Betriebsrat ein Mitbestimmungsrecht, wenn technische Einrichtungen eingeführt werden, die geeignet sind, das Verhalten oder die Leistung der Mitarbeitenden zu überwachen. Da Copilot auf Kommunikationsinhalte zugreift und deren Analyse vereinfacht, kann ein Überwachungscharakter entstehen, etwa bei der Auswertung von E-Mails oder bei der automatisierten Zusammenfassung von Projektfortschritten.
Unternehmen sollten daher gemeinsam mit dem Betriebsrat klare Nutzungsrichtlinien festlegen, um Transparenz und Vertrauen zu schaffen. Eine Betriebsvereinbarung kann helfen, den zulässigen Rahmen der Copilot-Nutzung verbindlich zu regeln und datenschutzrechtliche Anforderungen mit den Interessen der Mitarbeitenden in Einklang zu bringen.
Was Aufsichtsbehörden sagen und was noch kommt
Bislang gibt es noch keine konkreten Entscheidungen oder Verbote speziell zum Einsatz von Microsoft 365 Copilot durch deutsche oder europäische Datenschutzaufsichtsbehörden. Dennoch beobachten viele Behörden das Thema sehr aufmerksam. Schon vor der Einführung von Copilot wurde Microsoft 365, insbesondere im öffentlichen Sektor, aufgrund mangelnder Transparenz und unklarer Verarbeitungszwecke kritisiert.
Die Datenschutzkonferenz stellte 2022 fest, dass Microsofts damalige Auftragsverarbeitungsverträge nicht vollständig den Anforderungen des Art. 28 DSGVO entsprachen. Auch der Europäische Datenschutzbeauftragte bemängelte Ende 2023, dass bei Microsoft 365 unklar sei, welche personenbezogenen Daten zu welchen Zwecken verarbeitet werden. Diese Kritik ist auch auf Copilot übertragbar, da die KI-Funktion eine noch umfassendere und automatisierte Datenverarbeitung ermöglicht.
ICO-Entwurf in Großbritannien
Ein Blick nach Großbritannien zeigt, wie aufwendig eine Datenschutz-Folgenabschätzung für Microsoft 365 Copilot ausfallen kann. Dort hat die Datenschutzaufsichtsbehörde ICO für einen internen Pilotversuch mit nur rund 30 Mitarbeitenden einen Entwurf für eine Datenschutz-Folgenabschätzung (Data Protection Impact Assessment, DPIA) zu Microsoft 365 Copilot erstellt, stolze 169 Seiten stark. Zwar gilt in UK seit dem Brexit nicht mehr die europäische DSGVO, sondern die nahezu wortgleiche UK GDPR.
Inhaltlich bestehen aber kaum Unterschiede, sodass die Anforderungen an Transparenz, Risikobewertung und Dokumentation vergleichbar sind. Auffällig ist, dass wesentliche Abschnitte, etwa Maßnahmen zur Risikominderung, im Dokument geschwärzt wurden, um interne Schutzstrategien nicht öffentlich preiszugeben. Schon bei kleinen Nutzergruppen reicht eine oberflächliche Risikoeinschätzung nicht aus. Eine DSFA muss detailliert darlegen, welche Gefahren bestehen und wie diese kontrolliert werden.
Fazit
Copilot ist nicht automatisch DSGVO-konform, sondern nur, wenn das Unternehmen Konfiguration, Dokumentation und Schutzmaßnahmen sauber umsetzt.
Gerade im Rahmen einer Datenschutz-Folgenabschätzung ist zu hinterfragen, ob für den vorgesehenen Zweck mildere Mittel zur Verfügung stehen, also Alternativen, mit denen sich die gleiche Aufgabe ohne KI oder mit weniger Eingriff in personenbezogene Daten lösen lässt. Wenn z. B. eine strukturierte Schulung oder ein Workflow-Tool dieselbe Wirkung erzielt wie die automatisierte Zusammenfassung durch Copilot, könnte der Einsatz unverhältnismäßig sein.
Ein verantwortungsvoller Einsatz setzt daher nicht nur Konfigurationen und Verträge voraus, sondern auch die bewusste Entscheidung für Copilot als geeignetstes und datenschutzverträglichstes Mittel. Unternehmen sollten den Einsatz klar begrenzen, dokumentieren, den Betriebsrat einbinden und Mitarbeitende schulen und regelmäßig prüfen, ob Nutzen und Eingriffsintensität weiterhin im Gleichgewicht stehen. Sonst droht aus einem hilfreichen Tool ein klarer Verstoß gegen das Datenschutzprinzip der Verhältnismäßigkeit zu werden.
eBook
Besser arbeiten mit KI
Das KI Handbuch: Dein Leitfaden für KI in der Arbeitswelt. Expertentipps & Use Cases inklusive!

Max Seiter