Microsoft Copilot als Sicherheitsrisiko?

Sicherheitsrisiko MS Copilot - care4IT-1

Ob Microsoft Copilot als Sicherheitsrisiko einzustufen ist, hängt vom Umgang damit ab. So konzentrieren sich viele KMU zunächst auf Richtlinien zur Formulierung «sicherer» Prompts, die das Risiko für Datenabflüsse reduzieren sollen. Doch diese Fokussierung greift zu kurz: Viel wichtiger sind die dahinterliegenden Zugriffs­berechtigungen. 



Die meisten KMU setzen  Microsoft Copilot ein, weil sich damit E-Mails schneller bearbeiten, Besprechungen zusammenfassen und Informationen aus verschiedenen Quellen einfacher aufbereiten lassen. Copilot sorgt als integrales Tool für eine effektive Vernetzung alle im Unternehmen vorliegenden Informationen und Prozesse. Genau darin liegt die Stärke dieser KI-Lösung. Was im Alltag bisher nur mit Suchaufwand sichtbar war, lässt sich mit Copilot deutlich schneller finden und zusammen­führen.

Microsoft Copilot als Sicherheitsrisiko: Welche Gefahr steckt in einem Prompt? 

Für Geschäftsführer oder IT-Verantwortliche in KMU stellt sich eine zentrale Frage: Welche Risiken stecken in einem Prompt an Microsoft Copilot? Denn je nach Formulierung des Prompts als Anfrage an die Copilot-KI kommt die jeweilige Mitarbeiterin oder der Mitarbeiter zu den gewünschten Daten. Entscheidend ist jedoch, ob die Person überhaupt berechtigt ist, diese Information zu sehen oder zu verarbeiten. Das löst die Frage aus, auf welche Unternehmensdaten Microsoft Copilot für diese Person im Hintergrund zugreifen darf. Wenn die Berechtigungen in SharePoint, OneDrive, Teams oder Outlook zu breit gesetzt sind, kann auch ein harmloser Prompt zu unerwünschten Ergebnissen führen.

Weshalb Berechtigungen wichtiger sind als Prompt-Richtlinien

Die eigentliche Schwachstelle liegt somit nicht im Prompt selbst, sondern in historisch gewachsenen Freigaben, unklaren Rollen und fehlender Governance. Denn ein Prompt ist letztlich nur eine Eingabe. Er sagt Microsoft Copilot, welche Aufgabe das Modell ausführen soll, die sonst eine Mitarbeiterin oder ein Mitarbeiter umsetzen würde. Dazu gehören eine Zusammenfassung erstellen, Informationen suchen oder einen Text entwerfen. Das eigentliche Sicherheitsrisiko entsteht nicht durch diese Eingabe, sondern dadurch, dass Copilot mit denjenigen Daten arbeitet, auf welche die anfragende Benutzerin bereits durch die Einstellungen in Microsoft 365 Zugriff hat.

Wenn ein Mitarbeiter versehentlich oder gezielt nach sensiblen Informationen fragt, prüft Copilot nicht, ob diese Anfrage organisatorisch sinnvoll ist. Die Lösung orientiert sich an den vorhandenen Zugriffsrechten. Sobald ein Benutzer aufgrund historischer Freigaben oder zu breiter Gruppen­rechte Zugriff auf sensible Inhalte hat, kann auch Copilot diese Inhalte in Antworten berücksichtigen.

Welche Unternehmensdaten sieht Microsoft Copilot tatsächlich?

Copilot für Microsoft 365 arbeitet nach dem Prinzip der Rechtevererbung. Die KI sieht exakt jene Daten, auf die der anfragende Benutzer bereits Zugriff hat. Das klingt zunächst nach einem sinnvollen Sicherheitskonzept, wird jedoch dann proble­matisch, wenn Zugriffsrechte zu grosszügig vergeben wurden oder alte Freigaben nie bereinigt wurden.


Datenquelle Was Copilot einbeziehen kann Kritischer Punkt
Outlook E-Mails, Anhänge, Termine Vertrauliche Kommuni­kation wird leichter auffindbar
SharePoint Dokumente, Bibliotheken, Projekt­bereiche Historische Freigaben bleiben oft bestehen
OneDrive Persönliche und geteilte Dateien Vergessene Freigaben sind schwer erkennbar
Teams Chats, Kanalinhalte, Dateien Mitglieder­listen von Teams und Channels stimmen häufig nicht mehr
OneNote Notizen und Besprechungs­inhalte Auch informelle Inhalte können sensibel sein


Welche versteckten Risiken entstehen bei Copilot durch alte Freigaben?

Die grösste Gefahr liegt in den sogenannten Schatten-Berechtigungen: Zugriffsrechten, die über Jahre gewachsen sind, ohne dass diese systematisch dokumentiert oder überprüft wurden. In vielen KMU haben Mitarbeitende Zugriff auf Daten, die für ihre aktuelle Funktion nicht mehr relevant sind, etwa weil sie die Abteilung gewechselt haben oder die Projekte in denen sie aktiv waren, abgeschlossen sind.

Mit der Einführung von Copilot entwickeln sich solche ungeordneten Strukturen zum akuten Sicherheitsrisiko. Die KI macht verborgene Daten sichtbar, indem sie unternehmensweite Suchen durchführt und Zusammenhänge herstellt, die vorher nur schwer zu finden waren. Eine Mitarbeiterin könnte versehentlich auf vertrauliche Verhandlungsdokumente stossen oder sensible Kundendaten einsehen, ohne dass dies beabsichtigt war.

Hinzu kommt das Risiko der Datenaggregation. Copilot kombiniert Informationen aus verschiedenen Quellen und kann dadurch ein umfassenderes Bild erstellen, als es durch manuelle Recherche möglich wäre. Einzelne, scheinbar harmlose Datenpunkte ergeben in der Zusammenführung ein vollständiges, möglicherweise vertrauliches Gesamtbild.

Zugriffsberechtigungen: Typische Risikosituationen im KMU-Alltag

  • Mitarbeitende behalten nach einem Rollenwechsel alte Berechtigungen

  • Projektfreigaben bleiben nach Abschluss bestehen

  • Externe Partner behalten länger Zugriff als vorgesehen

  • Gruppenrechte sind zu breit gefasst

  • Sensible Daten liegen in zu offen zugänglichen Bereichen
Risiko­situation Beispiel Mögliche Folge
Alte Projekt­freigaben Ehemalige Projektmit­glieder sehen weiterhin vertrauliche Unterlagen Ungewollte Einsicht in sensible Dokumente
Zu breite Gruppen­rechte Ganze Abteilungen greifen auf Spezial­bereiche zu Vertrauliche Daten sind unnötig breit zugänglich
Fehlende Bereinigung nach Austritt von Mitar­beitenden Offboarding-Prozess entfernt nicht alle Rechte Ehemalige Mitarbeitende behalten Zugriff
Daten­aggregation Mehrere harmlose Informationen ergeben zusammen ein sensibles Bild Erhöhtes Datenschutz- und Compliance-Risiko


Welche Schutzmechanismen bringt Microsoft Copilot bereits mit?

Microsoft hat beim Design von Copilot mehrere Sicherheitsebenen implementiert. Der wichtigste Schutzmechanismus ist das bereits erwähnte Berechtigungsmodell. Copilot respektiert die bestehenden Zugriffsrechte in Microsoft 365. Wenn ein Benutzer keinen Zugriff auf ein Dokument hat, kann auch Copilot diese Information nicht in Antworten einbeziehen.

Zusätzlich verfügt Copilot über integrierte Datenschutzfunktionen. Die Daten verlassen die Microsoft-365-Umgebung des Unternehmens nicht. Es findet keine Vermischung von Daten verschiedener Mandanten statt. Die Prompts und Antworten werden nicht für das Training des zugrunde liegenden Sprachmodells verwendet. Für KMU mit sensiblen Geschäftsdaten ist dieser Punkt besonders wichtig.

Microsoft bietet zudem Audit-Funktionen und Compliance-Tools, mit denen sich nachvollziehen lässt, welche Daten Copilot abgerufen hat. Diese Protokollierung ist entscheidend für die Einhaltung regulatorischer Anforderungen und ermöglicht es IT-Verantwortlichen oder dem externen IT-Dienstleister, verdächtige Aktivitäten zu identifizieren.

Schutz­mechanismus Nutzen Voraus­setzung
Bestehende Berechti­gungen Copilot zeigt nur Inhalte mit vorhandenem Zugriff Rechte müssen korrekt gesetzt sein
Mandanten­trennung Daten bleiben im eigenen Unternehmens­kontext Microsoft 365 muss sauber verwaltet sein
Kein Modell­training mit Kundendaten Sensible Inhalte fliessen nicht in das Grundmodell ein Governance und Nutzung müssen geregelt sein
Audit-Funktionen Zugriffe lassen sich nachvollziehen Protokolle müssen aktiv geprüft werden
Compliance-Tools Unter­stützung regulatori­scher Anforde­rungen Verantwort­lich­keiten und Prozesse müssen definiert sein

 

Wie KMU Microsoft 365 Copilot sicher vorbereiten


Welche Massnahmen gehören vor den Rollout?

Vor der Einführung von Microsoft 365 Copilot sollten KMU eine umfassende Berechtigungs­analyse durchführen. Der erste Schritt besteht darin, alle SharePoint-Sites, Teams und OneDrive-Freigaben systematisch zu erfassen und zu dokumentieren. Dabei gilt es heraus­zufinden, wer auf welche Daten zugreifen kann und ob dieser Zugriff noch berechtigt ist.

Eine bewährte Methode ist das Prinzip der minimalen Berechtigung (Least Privilege Access). Jeder Mitarbeitende erhält nur Zugriff auf jene Daten, die für die aktuelle Funktion zwingend erforderlich sind. Breite Freigaben wie «Jeder im Unternehmen» sollten kritisch hinterfragt und durch rollenbasierte Zugriffskonzepte ersetzt werden. Besonders sensible Daten, etwa Finanzdokumente, Personaldaten oder strategische Planungen, gehören in geschützte Bereiche mit restriktiven Zugriffsrechten. 

Ebenso wichtig ist die regelmässige Überprüfung und Bereinigung von Berechtigungen. Mitarbeitende, die die Abteilung wechseln oder das Unternehmen verlassen, sollten zeitnah aus entsprechenden Verteilergruppen und Zugriffsrechten entfernt werden.
  

Best Practices für sichere Berechtigungskonzepte

Massnahme Ziel Nutzen für KMU
Berechtigungs­analyse Transparenz über bestehende Zugriffe schaffen Schwach­stellen früh erkennen
Minimale Berechtigung Nur notwendige Zugriffe erlauben (Least Privilege Access) Reduziert unnötige Einsicht in sensible Daten
Rollen­basierte Zugriffe Rechte nach Funktion statt nach Personen steuern Erleichtert Verwaltung und Skalierung
Offboarding-Prozess Rechte bei Austritt konsequent entfernen Verhindert Altlasten
Regelmässige Reviews Freigaben laufend prüfen Erhöht die Sicherheit langfristig

 

Sensitivity Labels gezielt einsetzen

Die Implementierung von Sensitivity Labels ist ein weiterer wichtiger Schritt. Durch die Klassifizierung von Dokumenten nach Vertraulichkeitsstufen lässt sich steuern, welche Informationen Copilot verwenden darf. 

Vertraulich­keitsstufe Typische Inhalte Empfohlene Schutz­massnahme
Intern Allgemeine Betriebsinformationen Zugriff auf interne Gruppen begrenzen
Vertraulich Kundendaten, Vertrags­unter­lagen, Finanzinformationen Zusätzliche Einschrän­kungen und Kenn­zeichnung
Streng vertraulich HR-Daten, strategische Unterlagen, Geschäftsgeheimnisse Stark begrenzter Zugriff und enges Monitoring


Soll ein KMU externe Unterstützung bei der Einführung von Copilot in Anspruch nehmen?

Die Einstufung von Microsoft Copilot als Sicherheitsrisiko ist daher nicht richtig, denn die Gefahr eines unerlaubten Datenzugriffs lauert in den gewährten und nicht bereinigten Zugriffs­berechtigungen. Deshalb lohnt es sich besonders für KMU ohne eigene IT-Abteilung auf die Unterstützung eines erfahrenen IT-Dienstleister zu setzen.  Ist dieser für M365 und Copilot zertifiziert, so kann er die Grundlagen für eine sichere Einführung von Microsoft Copilot  schaffen. Ein spezialisierter IT-Partner kann die bestehende Berechtigungslandschaft in SharePoint, OneDrive, Teams und Outlook systematisch analysieren. Er ist in der Lage Rollen- und Zugriffskonzepte gemeinsam mit dem Unternehmen zu strukturieren sowie  die notwendigen Sicherheits- und Governance-Massnahmen technisch sauber umzusetzen. Unternehmen wie care4IT begleiten KMU dabei von der Bestandsaufnahme über die Bereinigung historischer Freigaben bis hin zur laufenden Überwachung der Zugriffsrechte – damit Copilot produktiv genutzt werden kann, ohne die Datensicherheit zu gefährden.

Häufige Fragen zu Microsoft Copilot und Berechtigungen


Ist der Prompt selbst ein Sicherheitsrisiko?

Ein Prompt alleine ist nicht in erster Linie ein Sicherheitsrisiko. Der Prompt ist nur die Anfrage. Entscheidend ist, auf welche Daten Copilot im Hintergrund zugreifen darf.

Sieht Copilot mehr Daten als der Benutzer selbst?

Nein. Copilot sieht grundsätzlich nur jene Daten, auf die der Benutzer bereits Zugriff hat. Problematisch ist deshalb nicht Copilot an sich , sondern eine zu grosszügige Berechtigungsstruktur.

Warum sind alte Freigaben in SharePoint und Teams so kritisch?

Weil alte Freigaben oft über Jahre bestehen bleiben und im Alltag kaum sichtbar sind. Copilot kann vergessen gegangene Inhalte schneller finden, zusammenführen und in Antworten einbeziehen.

Welche Datenquellen sollten KMU vor der Einführung besonders prüfen?

Vor allem SharePoint, OneDrive, Teams, Outlook und Gruppenmitgliedschaften sind vor der Eiführung von Copilot zu prüfen. Dort liegen häufig sensible Informationen und historisch gewachsene Rechte.

Welche Abteilungen sollten besonders geschützt sein?

Besonders relevant und daher schützenswert vor Zugriffen sind HR, Finance, Geschäftsleitung, Legal und alle Bereiche mit sensiblen Kunden- oder Projektdaten.

Reichen die eingebauten Schutzmechanismen von Microsoft aus?

Die von Microsoft in Copilot eingebauten Schutzmechanismen bilden eine wichtige Grundlage. Ohne saubere Rechte, Governance und regelmässige Kontrolle reichen sie jedoch nicht aus.

Welche erste Massnahme ist für KMU vor der Einführung von Copilot sinnvoll?

Eine strukturierte Berechtigungsanalyse ist der entscheidende erste Schritt vor der Einführung von Copilot. Dabei sollte das Unternehmen bzw. mit dem IT-Dienstleister prüfen, wer auf welche Daten zugreifen kann und ob diese Zugriffe heute noch erforderlich sind.



Mehr zum Thema Copilot im KMU-Umfeld liefert auch unser folgender Beitrag: Microsoft Copilot mit PowerPoint: Zeit sparen, Wirkung steigern. 

 Titelbild: jigsawstocker /Freepik 

Call-To-Action für den Leitfaden Microsoft Teams Apps

 

Themen: Copilot
Autor: Philipp Hollerer | 20.04.2026 | 14:44
Philipp Hollerer
Besuchen Sie mich auf Social Media:
  • Blog-Beitrag teilen:
  • Share on Linkedin
  • Share on Facebook
  • Blog-Beitrag teilen:
  • Share on Linkedin
  • Share on Facebook

Jetzt IT-Blog für KMU als E-Mail abonnieren.