Microsoft Copilot und Datenschutz: Kann die KI jetzt alles sehen?

    Ehrliche Antworten auf die häufigsten Datenschutz-Fragen rund um Microsoft 365 Copilot – für Endanwender und Entscheider.

    Zuletzt aktualisiert: 28. Februar 2026

    Schnellantwort

    Nein, Copilot kann nicht „alles sehen". Er hat exakt die gleichen Zugriffsrechte wie Sie selbst – nicht mehr, nicht weniger. Ihre Daten werden nicht zum KI-Training verwendet und seit der EU Data Boundary in der EU verarbeitet. Microsoft kann Ihre Inhalte nicht lesen. Ihre Kollegen sehen durch Copilot nichts, was sie nicht auch ohne Copilot sehen könnten. Allerdings macht Copilot bestehende Berechtigungsprobleme sichtbarer – und genau deshalb sollten Organisationen vor dem Rollout ihre Hausaufgaben machen.

    Wenn Unternehmen Microsoft 365 Copilot einführen, kommen immer dieselben Fragen auf – von der Geschäftsführung, vom Betriebsrat, von der IT-Abteilung und von den Mitarbeitenden selbst. „Kann die KI jetzt meine E-Mails lesen?" „Sieht Microsoft, was ich prompte?" „Landen unsere Daten in den USA?" Diese Fragen sind berechtigt. Und sie verdienen ehrliche, differenzierte Antworten – nicht das übliche „Ist alles sicher, vertrauen Sie uns."

    Dieser Artikel beantwortet die häufigsten Datenschutz-Fragen rund um Microsoft 365 Copilot. Vieles davon ist gut gelöst – besser, als die meisten erwarten. Aber es gibt echte Risiken, wenn Organisationen ihre Hausaufgaben nicht machen. Beides gehört auf den Tisch.

    Kann Copilot alle Dateien im Unternehmen sehen?

    Kurze Antwort: Nein. Copilot kann exakt das sehen, was Sie selbst sehen können – und keinen Byte mehr. Das ist das Grundprinzip: Copilot erbt Ihre persönlichen Zugriffsrechte aus Microsoft 365. Wenn Sie keinen Zugriff auf die SharePoint-Seite der Personalabteilung haben, hat Copilot das auch nicht. Wenn Sie die E-Mails Ihres Chefs nicht lesen können, kann Copilot das auch nicht.

    Technisch funktioniert das so: Wenn Sie Copilot eine Frage stellen, durchsucht er über den Microsoft Graph Ihre E-Mails, Chats, Dateien und Meeting-Transkripte. Der Graph prüft bei jeder Abfrage Ihre Berechtigungen – in Echtzeit. Das ist dasselbe Berechtigungssystem, das auch greift, wenn Sie manuell in SharePoint nach einer Datei suchen.

    Aber – und das ist der kritische Punkt: Copilot macht bestehende Berechtigungsprobleme sichtbar, die vorher unbemerkt blieben. Wenn eine HR-Excel mit Gehaltsdaten „versehentlich" für die gesamte Organisation freigegeben ist, konnte theoretisch schon immer jeder darauf zugreifen. Nur hat niemand gezielt danach gesucht. Copilot sucht gezielt – und findet. Das ist kein Sicherheitsproblem von Copilot. Es ist ein bestehendes Berechtigungsproblem, das Copilot schonungslos aufdeckt.

    Kann Microsoft meine Daten lesen?

    Nein. Microsoft hat keinen inhaltlichen Zugriff auf Ihre Unternehmensdaten in Microsoft 365. Das gilt auch für Copilot: Ihre Prompts, die Antworten von Copilot und die zugrunde liegenden Daten aus dem Microsoft Graph werden nicht von Microsoft-Mitarbeitenden eingesehen. Die Daten sind verschlüsselt – sowohl bei der Übertragung (TLS 1.3) als auch bei der Speicherung (AES-256) – und durch die Tenant-Isolation strikt von anderen Kunden getrennt.

    Was viele besonders beschäftigt: Werden meine Daten zum Training von KI-Modellen verwendet? Auch hier ein klares Nein. Microsoft hat sich vertraglich verpflichtet, dass Unternehmensdaten aus Microsoft 365 nicht zum Training der zugrunde liegenden Large Language Models verwendet werden. Das ist im Data Protection Addendum (DPA) festgehalten, das für alle kommerziellen Kunden gilt. Ihre Gehaltsdaten, Ihre Vertragsentwürfe, Ihre internen Diskussionen – nichts davon fließt in das Training von GPT-Modellen ein.

    Werden meine Daten in den USA verarbeitet?

    Diese Frage kommt in jedem zweiten Gespräch – verständlicherweise, nach Schrems II und der ganzen Debatte um Datentransfers in die USA. Die Antwort ist differenzierter, als ein einfaches Ja oder Nein.

    Microsoft hat mit der EU Data Boundary eine verbindliche Zusage gemacht: Alle Kundendaten europäischer Unternehmen – einschließlich der Daten, die durch Copilot verarbeitet werden – werden innerhalb der EU gespeichert und verarbeitet. Die EU Data Boundary umfasst Rechenzentren in den Niederlanden, Irland, Frankreich, Deutschland und weiteren EU-Standorten. Das betrifft die Kerndienste von Microsoft 365: Exchange, SharePoint, OneDrive, Teams – und eben auch Copilot.

    Eine Einschränkung gibt es: Wenn Sie in Copilot die Web-Suche aktiviert haben (Bing-Integration), können Suchanfragen die EU verlassen. Für die meisten Unternehmens-Use-Cases ist die Web-Suche ohnehin nicht relevant – Copilot arbeitet primär mit Ihren internen Daten. Falls Ihre Organisation auf Nummer sicher gehen will, kann die Bing-Integration durch den IT-Administrator deaktiviert werden.

    Können Kollegen jetzt meine E-Mails und Chats sehen?

    Nein. Copilot ändert nichts an den bestehenden Zugriffsrechten. Ihre E-Mails sind Ihre E-Mails. Ihre 1:1-Chats in Teams sind Ihre 1:1-Chats. Kein Kollege kann über seinen Copilot auf Ihre persönlichen Daten zugreifen – genau so wenig, wie er sich in Ihr Outlook einloggen könnte.

    Das Prinzip funktioniert in beide Richtungen: Ihr Copilot zeigt Ihnen nichts aus den Postfächern oder privaten Chats Ihrer Kollegen. Er zeigt Ihnen nur das, worauf Sie bereits Zugriff haben: Ihre eigenen E-Mails, Chats in Gruppen-Channels, an denen Sie teilnehmen, Dateien auf SharePoint-Seiten, für die Sie berechtigt sind, und Meeting-Transkripte aus Meetings, an denen Sie teilgenommen haben.

    Allerdings gibt es eine Grauzone, die Organisationen im Blick haben sollten: Geteilte Postfächer und breite SharePoint-Freigaben. Wenn Ihr Unternehmen ein geteiltes Postfach für den Kundenservice hat, auf das zwanzig Personen Zugriff haben, dann kann Copilot für jede dieser zwanzig Personen Inhalte aus diesem Postfach verwenden. Das ist korrekt und gewollt – aber man sollte sich dessen bewusst sein.

    Kann mein Chef sehen, was ich Copilot frage?

    Das ist eine der häufigsten Fragen von Endanwendern – und die Antwort ist zweigeteilt.

    Die konkreten Inhalte Ihrer Prompts – also was genau Sie Copilot fragen – sind standardmäßig nicht für Vorgesetzte oder die IT-Abteilung einsehbar. Ihre Copilot-Chats sind Ihre persönlichen Chats. Es gibt kein Dashboard, auf dem Ihr Chef nachlesen kann, dass Sie Copilot um eine Zusammenfassung Ihres Lebenslaufs gebeten haben.

    Was hingegen sichtbar sein kann: Nutzungsstatistiken. Über das Microsoft 365 Admin Center und Microsoft Viva Insights können Administratoren aggregierte Daten einsehen – zum Beispiel wie viele Mitarbeitende Copilot nutzen, wie oft, und in welchen Apps. Das sind Nutzungszahlen, keine Inhalte. Die Granularität reicht bis auf Nutzerebene: Die IT kann sehen, dass Sie Copilot 47 Mal in dieser Woche in Teams verwendet haben. Aber nicht, was Sie gefragt haben.

    Eine Ausnahme existiert: Über Microsoft Purview und das Audit Log können bei berechtigtem Interesse (z.B. einem Compliance-Vorfall) auch einzelne Copilot-Interaktionen nachvollzogen werden. Das ist vergleichbar mit der Möglichkeit, E-Mails bei einem Verdachtsfall zu prüfen – es erfordert spezifische Berechtigungen und ist in den meisten Organisationen an strenge Prozesse gebunden. Niemand schaut „mal eben" in Ihre Prompts.

    Betriebsrat und Mitbestimmung

    In vielen deutschen Unternehmen ist die Einführung von Microsoft Copilot mitbestimmungspflichtig. Das liegt daran, dass Copilot als technische Einrichtung gelten kann, die geeignet ist, das Verhalten oder die Leistung von Arbeitnehmern zu überwachen (§ 87 Abs. 1 Nr. 6 BetrVG). Die Nutzungsstatistiken, die über Viva Insights und das Admin Center verfügbar sind, können als Leistungsüberwachung interpretiert werden.

    In der Praxis bedeutet das: Binden Sie den Betriebsrat frühzeitig ein – nicht als Pflichtübung, sondern als strategischen Partner. Klären Sie gemeinsam, welche Nutzungsdaten erhoben werden, wer darauf Zugriff hat, und wie mit den Daten umgegangen wird. Eine Betriebsvereinbarung zur Copilot-Nutzung schafft Klarheit für alle Beteiligten und vermeidet Konflikte nach dem Rollout.

    Viele Betriebsräte haben weniger Bedenken, wenn sie verstehen, wie Copilot tatsächlich funktioniert. Transparenz ist hier der Schlüssel: Zeigen Sie dem Betriebsrat, was Copilot kann, was er nicht kann, welche Daten erhoben werden und welche nicht. In unserer Erfahrung wandeln sich Blockaden in konstruktive Zusammenarbeit, sobald die Informationslage stimmt.

    Fünf Hausaufgaben vor dem Copilot-Rollout

    Copilot ist technisch gut abgesichert – aber er kann nicht reparieren, was in Ihrer Organisation seit Jahren falsch konfiguriert ist. Bevor Sie Copilot an Ihre Mitarbeitenden ausrollen, sollten Sie diese fünf Punkte abarbeiten:

    1

    Zugriffsrechte und Freigaben prüfen

    Machen Sie einen Access Review für SharePoint und OneDrive. Suchen Sie nach Dateien und Ordnern, die für „Jeder" oder „Alle Mitarbeiter" freigegeben sind. Besonders kritisch: HR-Dokumente, Finanzdaten, Vertragsentwürfe. Was Copilot findet, konnte vorher auch jeder manuell finden – aber jetzt fällt es auf.

    2

    Datenschutz-Folgenabschätzung erstellen

    Nutzen Sie die offiziellen DSFA-Vorlagen aus dem M365-Kit, die Microsoft in Abstimmung mit deutschen Datenschutzbehörden entwickelt hat. Stimmen Sie die Ergebnisse mit Ihrem Datenschutzbeauftragten ab.

    3

    Betriebsrat einbinden

    Informieren Sie den Betriebsrat frühzeitig über die geplante Einführung. Klären Sie Fragen zur Leistungsüberwachung und erarbeiten Sie eine Betriebsvereinbarung, die regelt, welche Nutzungsdaten erhoben werden und wer darauf Zugriff hat.

    4

    Nutzungsrichtlinien kommunizieren

    Definieren Sie klare Regeln: Was darf in Copilot-Prompts eingegeben werden, was nicht? Wie wird mit Copilot-generierten Inhalten umgegangen? Wer ist Ansprechpartner bei Fragen? Kurz, verständlich, verbindlich.

    5

    Pilotgruppe starten, nicht sofort für alle

    Rollen Sie Copilot zunächst an eine begrenzte Nutzergruppe aus. Sammeln Sie Erfahrungen, identifizieren Sie Probleme bei Berechtigungen oder Prozessen, und rollen Sie erst dann breiter aus. Das reduziert Risiken und schafft interne Fürsprecher.

    Häufig gestellte Fragen

    Unser Datenschutzbeauftragter blockiert die Copilot-Einführung – wie überzeugen wir ihn?

    In den meisten Fällen fehlt dem DSB nicht der Wille, sondern die Dokumentation. Microsoft bietet seit November 2025 das offizielle M365-Kit mit DSFA-Vorlagen, die in Abstimmung mit deutschen Datenschutzbehörden entwickelt wurden. Damit hat Ihr DSB eine belastbare Grundlage. Die ChatGPT-Trainings unterstützt bei der Aufbereitung und Kommunikation gegenüber dem Datenschutzbeauftragten – in unseren Compliance-Workshops klären wir genau diese Fragen.

    Wir haben historisch gewachsene SharePoint-Berechtigungen – ist Copilot dann gefährlich?

    Nicht gefährlich, aber entlarvend. Copilot zeigt schonungslos, was in Ihrer Organisation schon immer falsch berechtigt war – nur hat es vorher niemand gemerkt, weil niemand gezielt danach gesucht hat. Das ist kein Copilot-Problem, sondern ein bestehendes Berechtigungsproblem, das Sie ohnehin lösen sollten. Die ChatGPT-Trainings empfiehlt, vor dem Rollout einen Access Review durchzuführen und bietet Beratung an, wie Sie das pragmatisch angehen.

    Können wir Copilot nur für bestimmte Abteilungen freischalten und andere ausschließen?

    Ja, absolut. Sie können Copilot-Lizenzen gezielt an einzelne Nutzer oder Gruppen vergeben. Viele Unternehmen starten mit einer Pilotgruppe – zum Beispiel Marketing und Vertrieb – und rollen erst nach einem erfolgreichen Piloten breiter aus. In den Copilot-Trainings der ChatGPT-Trainings arbeiten wir mit genau solchen Pilotgruppen und helfen bei der schrittweisen Einführung.

    Was passiert, wenn ein Mitarbeiter versehentlich vertrauliche Informationen in Copilot eingibt?

    Copilot-Prompts und -Antworten bleiben innerhalb Ihres Microsoft-365-Tenants und werden nicht zum Training von KI-Modellen verwendet. Trotzdem sollten Sie klare Nutzungsrichtlinien kommunizieren, was in Prompts gehört und was nicht. Besonders sensible Daten wie Passwörter oder Kreditkartennummern können durch DLP-Richtlinien in Microsoft Purview automatisch erkannt und blockiert werden. Die ChatGPT-Trainings unterstützt bei der Erstellung solcher Richtlinien.

    Martin Lang

    Martin Lang

    Gründer & Microsoft Copilot Experte

    Martin Lang ist Gründer der Yellow-Boat Consulting (2011) und der chatgpt-trainings.de (2025). Seit über einem Jahrzehnt realisiert er Agile Trainings und Digitalisierungsprojekte in Konzernen und im Mittelstand. Als Microsoft Copilot Experte befähigt er Wissensarbeiter, Teams und Organisationen, Microsoft Copilot produktiv, sicher und wertschöpfend im Arbeitsalltag einzusetzen. Sein praxisorientierter Trainingsansatz verbindet reale Arbeitsprozesse mit direkt anwendbaren Workflows.