
Ob Microsoft Copilot als Sicherheitsrisiko einzustufen ist, hängt vom Umgang damit ab. So konzentrieren sich viele KMU zunächst auf Richtlinien zur Formulierung «sicherer» Prompts, die das Risiko für Datenabflüsse reduzieren sollen. Doch diese Fokussierung greift zu kurz: Viel wichtiger sind die dahinterliegenden Zugriffsberechtigungen.
Die meisten KMU setzen Microsoft Copilot ein, weil sich damit E-Mails schneller bearbeiten, Besprechungen zusammenfassen und Informationen aus verschiedenen Quellen einfacher aufbereiten lassen. Copilot sorgt als integrales Tool für eine effektive Vernetzung alle im Unternehmen vorliegenden Informationen und Prozesse. Genau darin liegt die Stärke dieser KI-Lösung. Was im Alltag bisher nur mit Suchaufwand sichtbar war, lässt sich mit Copilot deutlich schneller finden und zusammenführen.
Microsoft Copilot als Sicherheitsrisiko: Welche Gefahr steckt in einem Prompt?
Für Geschäftsführer oder IT-Verantwortliche in KMU stellt sich eine zentrale Frage: Welche Risiken stecken in einem Prompt an Microsoft Copilot? Denn je nach Formulierung des Prompts als Anfrage an die Copilot-KI kommt die jeweilige Mitarbeiterin oder der Mitarbeiter zu den gewünschten Daten. Entscheidend ist jedoch, ob die Person überhaupt berechtigt ist, diese Information zu sehen oder zu verarbeiten. Das löst die Frage aus, auf welche Unternehmensdaten Microsoft Copilot für diese Person im Hintergrund zugreifen darf. Wenn die Berechtigungen in SharePoint, OneDrive, Teams oder Outlook zu breit gesetzt sind, kann auch ein harmloser Prompt zu unerwünschten Ergebnissen führen.
Weshalb Berechtigungen wichtiger sind als Prompt-Richtlinien
Die eigentliche Schwachstelle liegt somit nicht im Prompt selbst, sondern in historisch gewachsenen Freigaben, unklaren Rollen und fehlender Governance. Denn ein Prompt ist letztlich nur eine Eingabe. Er sagt Microsoft Copilot, welche Aufgabe das Modell ausführen soll, die sonst eine Mitarbeiterin oder ein Mitarbeiter umsetzen würde. Dazu gehören eine Zusammenfassung erstellen, Informationen suchen oder einen Text entwerfen. Das eigentliche Sicherheitsrisiko entsteht nicht durch diese Eingabe, sondern dadurch, dass Copilot mit denjenigen Daten arbeitet, auf welche die anfragende Benutzerin bereits durch die Einstellungen in Microsoft 365 Zugriff hat.
Wenn ein Mitarbeiter versehentlich oder gezielt nach sensiblen Informationen fragt, prüft Copilot nicht, ob diese Anfrage organisatorisch sinnvoll ist. Die Lösung orientiert sich an den vorhandenen Zugriffsrechten. Sobald ein Benutzer aufgrund historischer Freigaben oder zu breiter Gruppenrechte Zugriff auf sensible Inhalte hat, kann auch Copilot diese Inhalte in Antworten berücksichtigen.
Welche Unternehmensdaten sieht Microsoft Copilot tatsächlich?
Copilot für Microsoft 365 arbeitet nach dem Prinzip der Rechtevererbung. Die KI sieht exakt jene Daten, auf die der anfragende Benutzer bereits Zugriff hat. Das klingt zunächst nach einem sinnvollen Sicherheitskonzept, wird jedoch dann problematisch, wenn Zugriffsrechte zu grosszügig vergeben wurden oder alte Freigaben nie bereinigt wurden.
| Datenquelle | Was Copilot einbeziehen kann | Kritischer Punkt |
|---|---|---|
| Outlook | E-Mails, Anhänge, Termine | Vertrauliche Kommunikation wird leichter auffindbar |
| SharePoint | Dokumente, Bibliotheken, Projektbereiche | Historische Freigaben bleiben oft bestehen |
| OneDrive | Persönliche und geteilte Dateien | Vergessene Freigaben sind schwer erkennbar |
| Teams | Chats, Kanalinhalte, Dateien | Mitgliederlisten von Teams und Channels stimmen häufig nicht mehr |
| OneNote | Notizen und Besprechungsinhalte | Auch informelle Inhalte können sensibel sein |
Welche versteckten Risiken entstehen bei Copilot durch alte Freigaben?
Die grösste Gefahr liegt in den sogenannten Schatten-Berechtigungen: Zugriffsrechten, die über Jahre gewachsen sind, ohne dass diese systematisch dokumentiert oder überprüft wurden. In vielen KMU haben Mitarbeitende Zugriff auf Daten, die für ihre aktuelle Funktion nicht mehr relevant sind, etwa weil sie die Abteilung gewechselt haben oder die Projekte in denen sie aktiv waren, abgeschlossen sind.
Mit der Einführung von Copilot entwickeln sich solche ungeordneten Strukturen zum akuten Sicherheitsrisiko. Die KI macht verborgene Daten sichtbar, indem sie unternehmensweite Suchen durchführt und Zusammenhänge herstellt, die vorher nur schwer zu finden waren. Eine Mitarbeiterin könnte versehentlich auf vertrauliche Verhandlungsdokumente stossen oder sensible Kundendaten einsehen, ohne dass dies beabsichtigt war.
Hinzu kommt das Risiko der Datenaggregation. Copilot kombiniert Informationen aus verschiedenen Quellen und kann dadurch ein umfassenderes Bild erstellen, als es durch manuelle Recherche möglich wäre. Einzelne, scheinbar harmlose Datenpunkte ergeben in der Zusammenführung ein vollständiges, möglicherweise vertrauliches Gesamtbild.
Zugriffsberechtigungen: Typische Risikosituationen im KMU-Alltag
- Mitarbeitende behalten nach einem Rollenwechsel alte Berechtigungen
- Projektfreigaben bleiben nach Abschluss bestehen
- Externe Partner behalten länger Zugriff als vorgesehen
- Gruppenrechte sind zu breit gefasst
- Sensible Daten liegen in zu offen zugänglichen Bereichen
| Risikosituation | Beispiel | Mögliche Folge |
|---|---|---|
| Alte Projektfreigaben | Ehemalige Projektmitglieder sehen weiterhin vertrauliche Unterlagen | Ungewollte Einsicht in sensible Dokumente |
| Zu breite Gruppenrechte | Ganze Abteilungen greifen auf Spezialbereiche zu | Vertrauliche Daten sind unnötig breit zugänglich |
| Fehlende Bereinigung nach Austritt von Mitarbeitenden | Offboarding-Prozess entfernt nicht alle Rechte | Ehemalige Mitarbeitende behalten Zugriff |
| Datenaggregation | Mehrere harmlose Informationen ergeben zusammen ein sensibles Bild | Erhöhtes Datenschutz- und Compliance-Risiko |
Welche Schutzmechanismen bringt Microsoft Copilot bereits mit?
Microsoft hat beim Design von Copilot mehrere Sicherheitsebenen implementiert. Der wichtigste Schutzmechanismus ist das bereits erwähnte Berechtigungsmodell. Copilot respektiert die bestehenden Zugriffsrechte in Microsoft 365. Wenn ein Benutzer keinen Zugriff auf ein Dokument hat, kann auch Copilot diese Information nicht in Antworten einbeziehen.
Zusätzlich verfügt Copilot über integrierte Datenschutzfunktionen. Die Daten verlassen die Microsoft-365-Umgebung des Unternehmens nicht. Es findet keine Vermischung von Daten verschiedener Mandanten statt. Die Prompts und Antworten werden nicht für das Training des zugrunde liegenden Sprachmodells verwendet. Für KMU mit sensiblen Geschäftsdaten ist dieser Punkt besonders wichtig.
Microsoft bietet zudem Audit-Funktionen und Compliance-Tools, mit denen sich nachvollziehen lässt, welche Daten Copilot abgerufen hat. Diese Protokollierung ist entscheidend für die Einhaltung regulatorischer Anforderungen und ermöglicht es IT-Verantwortlichen oder dem externen IT-Dienstleister, verdächtige Aktivitäten zu identifizieren.
| Schutzmechanismus | Nutzen | Voraussetzung |
|---|---|---|
| Bestehende Berechtigungen | Copilot zeigt nur Inhalte mit vorhandenem Zugriff | Rechte müssen korrekt gesetzt sein |
| Mandantentrennung | Daten bleiben im eigenen Unternehmenskontext | Microsoft 365 muss sauber verwaltet sein |
| Kein Modelltraining mit Kundendaten | Sensible Inhalte fliessen nicht in das Grundmodell ein | Governance und Nutzung müssen geregelt sein |
| Audit-Funktionen | Zugriffe lassen sich nachvollziehen | Protokolle müssen aktiv geprüft werden |
| Compliance-Tools | Unterstützung regulatorischer Anforderungen | Verantwortlichkeiten und Prozesse müssen definiert sein |
Wie KMU Microsoft 365 Copilot sicher vorbereiten
Welche Massnahmen gehören vor den Rollout?
Vor der Einführung von Microsoft 365 Copilot sollten KMU eine umfassende Berechtigungsanalyse durchführen. Der erste Schritt besteht darin, alle SharePoint-Sites, Teams und OneDrive-Freigaben systematisch zu erfassen und zu dokumentieren. Dabei gilt es herauszufinden, wer auf welche Daten zugreifen kann und ob dieser Zugriff noch berechtigt ist.
Eine bewährte Methode ist das Prinzip der minimalen Berechtigung (Least Privilege Access). Jeder Mitarbeitende erhält nur Zugriff auf jene Daten, die für die aktuelle Funktion zwingend erforderlich sind. Breite Freigaben wie «Jeder im Unternehmen» sollten kritisch hinterfragt und durch rollenbasierte Zugriffskonzepte ersetzt werden. Besonders sensible Daten, etwa Finanzdokumente, Personaldaten oder strategische Planungen, gehören in geschützte Bereiche mit restriktiven Zugriffsrechten.
Ebenso wichtig ist die regelmässige Überprüfung und Bereinigung von Berechtigungen. Mitarbeitende, die die Abteilung wechseln oder das Unternehmen verlassen, sollten zeitnah aus entsprechenden Verteilergruppen und Zugriffsrechten entfernt werden.
Best Practices für sichere Berechtigungskonzepte
| Massnahme | Ziel | Nutzen für KMU |
|---|---|---|
| Berechtigungsanalyse | Transparenz über bestehende Zugriffe schaffen | Schwachstellen früh erkennen |
| Minimale Berechtigung | Nur notwendige Zugriffe erlauben (Least Privilege Access) | Reduziert unnötige Einsicht in sensible Daten |
| Rollenbasierte Zugriffe | Rechte nach Funktion statt nach Personen steuern | Erleichtert Verwaltung und Skalierung |
| Offboarding-Prozess | Rechte bei Austritt konsequent entfernen | Verhindert Altlasten |
| Regelmässige Reviews | Freigaben laufend prüfen | Erhöht die Sicherheit langfristig |
Sensitivity Labels gezielt einsetzen
Die Implementierung von Sensitivity Labels ist ein weiterer wichtiger Schritt. Durch die Klassifizierung von Dokumenten nach Vertraulichkeitsstufen lässt sich steuern, welche Informationen Copilot verwenden darf.
| Vertraulichkeitsstufe | Typische Inhalte | Empfohlene Schutzmassnahme |
|---|---|---|
| Intern | Allgemeine Betriebsinformationen | Zugriff auf interne Gruppen begrenzen |
| Vertraulich | Kundendaten, Vertragsunterlagen, Finanzinformationen | Zusätzliche Einschränkungen und Kennzeichnung |
| Streng vertraulich | HR-Daten, strategische Unterlagen, Geschäftsgeheimnisse | Stark begrenzter Zugriff und enges Monitoring |
Soll ein KMU externe Unterstützung bei der Einführung von Copilot in Anspruch nehmen?
Die Einstufung von Microsoft Copilot als Sicherheitsrisiko ist daher nicht richtig, denn die Gefahr eines unerlaubten Datenzugriffs lauert in den gewährten und nicht bereinigten Zugriffsberechtigungen. Deshalb lohnt es sich besonders für KMU ohne eigene IT-Abteilung auf die Unterstützung eines erfahrenen IT-Dienstleister zu setzen. Ist dieser für M365 und Copilot zertifiziert, so kann er die Grundlagen für eine sichere Einführung von Microsoft Copilot schaffen. Ein spezialisierter IT-Partner kann die bestehende Berechtigungslandschaft in SharePoint, OneDrive, Teams und Outlook systematisch analysieren. Er ist in der Lage Rollen- und Zugriffskonzepte gemeinsam mit dem Unternehmen zu strukturieren sowie die notwendigen Sicherheits- und Governance-Massnahmen technisch sauber umzusetzen. Unternehmen wie care4IT begleiten KMU dabei von der Bestandsaufnahme über die Bereinigung historischer Freigaben bis hin zur laufenden Überwachung der Zugriffsrechte – damit Copilot produktiv genutzt werden kann, ohne die Datensicherheit zu gefährden.
Häufige Fragen zu Microsoft Copilot und Berechtigungen
Ist der Prompt selbst ein Sicherheitsrisiko?
Ein Prompt alleine ist nicht in erster Linie ein Sicherheitsrisiko. Der Prompt ist nur die Anfrage. Entscheidend ist, auf welche Daten Copilot im Hintergrund zugreifen darf.
Sieht Copilot mehr Daten als der Benutzer selbst?
Nein. Copilot sieht grundsätzlich nur jene Daten, auf die der Benutzer bereits Zugriff hat. Problematisch ist deshalb nicht Copilot an sich , sondern eine zu grosszügige Berechtigungsstruktur.
Warum sind alte Freigaben in SharePoint und Teams so kritisch?
Weil alte Freigaben oft über Jahre bestehen bleiben und im Alltag kaum sichtbar sind. Copilot kann vergessen gegangene Inhalte schneller finden, zusammenführen und in Antworten einbeziehen.
Welche Datenquellen sollten KMU vor der Einführung besonders prüfen?
Vor allem SharePoint, OneDrive, Teams, Outlook und Gruppenmitgliedschaften sind vor der Eiführung von Copilot zu prüfen. Dort liegen häufig sensible Informationen und historisch gewachsene Rechte.
Welche Abteilungen sollten besonders geschützt sein?
Besonders relevant und daher schützenswert vor Zugriffen sind HR, Finance, Geschäftsleitung, Legal und alle Bereiche mit sensiblen Kunden- oder Projektdaten.
Reichen die eingebauten Schutzmechanismen von Microsoft aus?
Die von Microsoft in Copilot eingebauten Schutzmechanismen bilden eine wichtige Grundlage. Ohne saubere Rechte, Governance und regelmässige Kontrolle reichen sie jedoch nicht aus.
Welche erste Massnahme ist für KMU vor der Einführung von Copilot sinnvoll?
Eine strukturierte Berechtigungsanalyse ist der entscheidende erste Schritt vor der Einführung von Copilot. Dabei sollte das Unternehmen bzw. mit dem IT-Dienstleister prüfen, wer auf welche Daten zugreifen kann und ob diese Zugriffe heute noch erforderlich sind.
Mehr zum Thema Copilot im KMU-Umfeld liefert auch unser folgender Beitrag: Microsoft Copilot mit PowerPoint: Zeit sparen, Wirkung steigern.
Titelbild: jigsawstocker /Freepik





