Zum Inhalt springen
Microsoft 11 Min. Lesezeit

Microsoft 365 Copilot: Technisch erklärt

Microsoft 365 Copilot ist ein RAG-System aus LLM, Microsoft Graph und Semantic Index. So funktioniert die Architektur, für IT-Verantwortliche erklärt.

Microsoft 365 Copilot: Technisch erklärt

Microsoft 365 Copilot sieht auf der Oberfläche aus wie ein Chatbot. Technisch ist es das nicht. Microsoft 365 Copilot ist kein Chatbot mit Internetzugang, sondern ein RAG-System, das bei jeder Anfrage automatisch Daten aus dem eigenen Microsoft-365-TenantGlossarEin Tenant (deutsch: Mandant) ist die isolierte Microsoft-365-Umgebung eines Unternehmens. Alle Nutzer, Daten, Lizenzen und Konfigurationen eines Kunden sind in einem eigenen Tenant getrennt von anderen Organisationen. abruft und als Kontext in das Sprachmodell einspeist. Retrieval-Augmented Generation (RAGGlossarRAG ist eine Technik, bei der ein KI-Modell vor dem Antworten gezielt relevante Dokumente aus einer Wissensdatenbank abruft. So entstehen aktuelle, quellenbasierte Antworten statt ausgedachter Informationen.) ist eine Technik, bei der ein Sprachmodell vor dem Antworten automatisch relevante Dokumente aus einer Wissensdatenbank abruft und als Kontext in den Prompt einfügt. Unter der Haube orchestriert Copilot dabei drei Schichten: ein Sprachmodell auf Azure-Basis, eine API-Schicht über Ihre gesamte Microsoft-365-Umgebung und einen Vektorindex Ihrer Unternehmensdaten.

Dieser Artikel erklärt, wie Microsoft 365 Copilot technisch funktioniert: von der Architektur über die Prompt-Verarbeitung bis zum Datenschutz.

Laut Microsoft Work Trend Index 2024 nutzen bereits 75 % der Wissensarbeiter KI am Arbeitsplatz, der Großteil davon mit eigenen, nicht unternehmensgesteuerten Tools (Microsoft Work Trend Index 2024). Die Frage ist also nicht mehr, ob KI im Unternehmen ankommt. Die Frage ist, ob IT-Verantwortliche die Architektur dahinter verstehen, bevor sie ausrollen.

Dieser Artikel erklärt, wie Copilot intern arbeitet. Kein Marketing, keine Buzzword-Liste. Nur die Technik.

Die drei Bausteine

Copilot besteht aus drei unabhängigen Komponenten, die bei jeder Anfrage zusammenarbeiten (Microsoft Docs Architektur 2026).

Azure OpenAI LLM

Das Fundament ist ein großes Sprachmodell (LLM). Standardmäßig läuft ein GPT-basiertes Modell auf Azure-OpenAI-Infrastruktur, nicht auf der öffentlichen OpenAI-API. Administratoren können im Microsoft-365-Admin-Center zusätzlich Drittmodelle aktivieren: Anthropic Claude ist seit Januar 2026 für die meisten kommerziellen Tenants standardmäßig aktiviert. Für US-Tenants steht außerdem xAI als Option zur Verfügung. Welches Modell tatsächlich läuft, ist für den Endnutzer nicht sichtbar.

Das LLMGlossarEin Large Language Model ist ein KI-System, das auf Basis riesiger Textmengen trainiert wurde und menschliche Sprache versteht, generiert und verarbeitet. Die technische Grundlage für Chatbots, Copilot und KI-Agenten. ist zuständig für Sprachverständnis und Textgenerierung. Es kennt Ihre Unternehmensdaten nicht aus dem Training, sondern erhält sie als Kontext in den Prompt injiziert.

Microsoft Graph

Microsoft Graph ist die API-Schicht über alle Microsoft-365-Dienste. Copilot ruft über Graph auf Mails, SharePoint-Dokumente, Teams-Chats, OneDrive-Dateien und Kalendereinträge zu.

Entscheidend: Graph arbeitet ausschließlich im Rahmen der bestehenden RBAC-Berechtigungen des Nutzers. Copilot kann nichts sehen, was der Nutzer selbst nicht sehen darf. Eine Copilot-Anfrage überschreibt keine Zugriffsrechte.

Semantic Index

Der Semantic Index ist ein Vektorindex, der als Ergänzung zur klassischen Keyword-Suche funktioniert. Statt nach exakten Worttreffern zu suchen, berechnet er semantische Ähnlichkeiten zwischen Anfrage und Dokumentinhalten (Microsoft Docs Semantic Index 2025).

Der Index ermöglicht es, Dokumente zu finden, in denen der gesuchte Begriff nicht wörtlich vorkommt. Eine Suche nach “Kündigungsfristen Lieferant” findet auch ein Dokument, das “Vertragsauflösung Zulieferer” enthält, wenn der semantische Kontext stimmt.

Microsoft 365 Copilot Architektur: Azure OpenAI LLM, Microsoft Graph und Semantic Index verbunden mit dem zentralen Copilot Orchestrator
Die drei Schichten von Microsoft 365 Copilot: Sprachmodell, Graph-API und Vektorindex arbeiten über den Orchestrator zusammen.

Wie Microsoft 365 Copilot einen Prompt verarbeitet

Zwischen Ihrer Eingabe und der Antwort laufen fünf Schritte ab. Das dauert in der Praxis zwei bis fünf Sekunden (Microsoft Docs Architektur 2026).

Schritt 1: Nutzerprompt aus der M365-App

Sie tippen eine Anfrage in Word, Teams, Outlook oder Copilot Chat. Die App sendet den Prompt an den Copilot-Orchestrator.

Schritt 2: Grounding (Pre-Processing)

Grounding bezeichnet den Prozess, bei dem Copilot einen Nutzerprompt vor der LLM-Verarbeitung mit kontextrelevanten Daten aus Microsoft Graph und dem Semantic Index anreichert. Bevor der Prompt das LLM erreicht, reichert der Orchestrator ihn mit Kontext an. Dazu ruft er gleichzeitig Microsoft Graph und den Semantic Index ab. Er sucht nach relevanten Mails, Dokumenten, Meeting-Protokollen und Kalendereinträgen, die zur Anfrage passen.

Die Analogie: Copilot liest schnell die relevanten Akten, bevor es antwortet. Ein Mensch würde dasselbe tun, nur langsamer.

Die gefundenen Inhalte werden als Kontext-Snippets in den Prompt eingefügt. Der Prompt, der das LLM erreicht, ist damit deutlich länger und informativer als Ihre ursprüngliche Eingabe.

Schritt 3: Angereicherter Prompt an Azure OpenAI LLM

Der vollständig angereicherte Prompt verlässt den M365-Service-Perimeter und erreicht die Azure-OpenAI-Infrastruktur. Beide sind Microsoft-Dienste, aber technisch getrennte Komponenten.

Schritt 4: Antwort-Generierung

Das LLM generiert eine Antwort auf Basis des angereicherten Prompts. Es nutzt dabei seine Sprachfähigkeiten, nicht sein Vortraining als Informationsquelle. Die Fakten kommen aus Ihren Dokumenten, die Formulierung liefert das Modell.

Schritt 5: Post-Processing

Die generierte Antwort durchläuft einen zweiten Grounding-Call: Copilot prüft, welche Inhalte als Quellen belegt werden können, und fügt Zitierungslinks ein. Responsible-AI-Checks filtern schädliche oder unangemessene Inhalte. Erst dann erscheint die Antwort in Ihrer App (Zenity Labs 2024).

Konkretes Beispiel: Sie fragen in Outlook: “Fasse mir die letzten E-Mails mit Müller GmbH zusammen.”

Der Orchestrator ruft über Graph alle E-Mails mit dem Absender- und Empfängerfeld “Müller GmbH” der letzten 30 Tage ab. Er extrahiert Betreffzeilen, Datumsangaben und Schlüsselpassagen. Diese Snippets werden in den Prompt eingefügt. Das LLM generiert eine strukturierte Zusammenfassung mit Datumsangaben und Kernaussagen. Zitierungslinks zeigen auf die Original-Mails.

Microsoft 365 Copilot Prompt-Pipeline: 5 Schritte von Nutzerprompt über Grounding und LLM bis zur Antwort mit Quellenangaben
Die fünf Verarbeitungsschritte eines Copilot-Prompts: von der Eingabe bis zur zitierten Antwort in 2–5 Sekunden.

Der Semantic Index

Der Semantic Index ist die wichtigste Erweiterung gegenüber klassischer Microsoft Search. Er wandelt Dokumente in mathematische Vektoren um, sogenannte Embeddings. Diese Vektoren repräsentieren den semantischen Gehalt eines Textes als Koordinaten im mehrdimensionalen Raum (Microsoft Docs Semantic Index 2025).

Ähnliche Texte liegen im Vektorraum nah beieinander. Das ermöglicht Ähnlichkeitssuche: Copilot findet Dokumente, die inhaltlich passen, auch wenn die exakten Suchbegriffe nicht vorkommen.

Was wird indexiert?

Der Semantic Index besteht aus zwei Ebenen:

Tenant-Level-Index: SharePoint-Dateien im gesamten Tenant werden indexiert. Unterstützte Formate: DOCX, PPTX, PDF bis 512 MB. Neue Dokumente werden täglich nachindexiert. Änderungen an bestehenden Dokumenten lösen eine sofortige Nachindexierung aus.

User-Level-Index: Persönliche Daten jedes Nutzers werden separat indexiert. Dazu gehören die eigene Mailbox in Exchange Online, eigene OneDrive-Dateien und Inhalte, in denen der Nutzer direkt erwähnt wird.

Was nicht indexiert werden kann

Der Semantic Index kann nicht deaktiviert werden. Er ist ein integraler Bestandteil von Microsoft Search. Einzelne SharePoint-Sites lassen sich jedoch explizit aus dem Index ausschließen. Das ist relevant für Standorte mit besonders sensiblen Inhalten, die nicht über Copilot zugänglich sein sollen.

Datenschutz und Tenant-Isolation

Die Datenschutz-Architektur von Copilot ist eine der häufigsten Fragen beim Rollout. Die relevanten Fakten (Microsoft Docs Privacy 2026):

Service-Boundary: Kundendaten verlassen nie die Microsoft-365-Service-Boundary des eigenen Tenants. Die Datenverarbeitung findet innerhalb des mandantenspezifischen Perimeters statt.

Kein Caching: Azure OpenAI cached keine Copilot-Prompts. Nach der Antwortgenerierung werden Prompts und Antworten nicht gespeichert.

Kein Training: Microsoft verwendet Prompts und Antworten nicht für das Training von KI-Modellen. Das gilt für alle M365-Copilot-Interaktionen.

EU Data BoundaryGlossarDie EU Data Boundary ist Microsofts Zusage, Kundendaten und personenbezogene Daten europäischer Microsoft-365-, Power-Platform-, Dynamics-365- und Azure-Kunden ausschließlich innerhalb der EU und EFTA zu speichern und zu verarbeiten.: Für EU-Kunden verbleibt Traffic innerhalb der EU. Microsoft hat diese Regelung zum 1. März 2024 in Kraft gesetzt. Rechenzentren in der EU verarbeiten die Daten, ohne dass sie in die USA übertragen werden.

Sensitivity Labels: Copilot respektiert Microsoft-Purview-Sensitivity-Labels vollständig. Ein Dokument mit dem Label “Vertraulich” wird im Copilot-Kontext entsprechend behandelt. Der Inhalt wird nicht in Antworten eingebettet, wenn der Nutzer keinen Zugriff darauf hat.

Compliance: M365 Copilot ist zertifiziert nach DSGVO, ISO 27001, HIPAA und ISO 42001.

Microsoft 365 Copilot Tenant-Isolation: Jeder Tenant hat seinen eigenen isolierten Semantic Index. Das Azure OpenAI LLM ist geteilte, aber stateless Infrastruktur ohne Cross-Tenant-Zugriff.
Jeder Tenant bekommt eine eigene, isolierte Semantic-Index-Instanz. Das LLM ist geteilte Infrastruktur, stateless: kein Caching, keine Datenweitergabe zwischen Tenants.

Wenn Sie Copilot DSGVO-konform ausrollen und Sensitivity Labels konfigurieren wollen, begleitet die KI Automatisierung diesen Prozess Schritt für Schritt.

Wichtiger Hinweis zu Drittmodellen: Ab Januar 2026 ist Anthropic als Subprozessor in den M365-Copilot-Diensten gelistet. Anthropic-Modelle (Claude-Familie) sind nicht im EU Data Boundary enthalten. Wenn ein Administrator Anthropic-basierte Modelle im Copilot-Admin-Center aktiviert, verlassen EU-Kundendaten bei der Verarbeitung potenziell die EU. Die Einstellung ist standardmäßig deaktiviert und muss explizit aktiviert werden.

Warum Copilot trotzdem halluzinieren kann

Halluzinationen sind keine Fehler im Sinne eines Bugs, sondern eine strukturelle Eigenschaft von LLMs. Drei Ursachen sind bei Copilot relevant:

1. Retrieval-Fehler

Der Semantic Index findet nicht immer das relevanteste Dokument. Wenn ein Dokument schlecht strukturiert ist, wenig Text enthält oder in einem Format vorliegt, das nicht optimal indexiert wird, liefert das Retrieval unvollständige Ergebnisse. Das LLM füllt die entstandenen Lücken mit Wissen aus dem Vortraining, das für Ihren spezifischen Kontext falsch sein kann.

2. Kontext-Overflow

Das LLM hat ein begrenztes Kontextfenster. Bei umfangreichen Abfragen, die viele Dokumente und lange E-Mail-Threads einbeziehen, muss Copilot priorisieren und Snippets kürzen. Informationen, die aus dem Kontext fallen, sind für das Modell nicht mehr sichtbar. Das kann zu unvollständigen oder verkürzten Antworten führen.

3. Strukturelle LLM-Eigenschaft

LLMs sind Wahrscheinlichkeitsmodelle, keine Fakten-Lookup-Systeme. Sie berechnen für jedes Token die wahrscheinlichste Fortsetzung. Das führt zu flüssigem, überzeugend klingendem Text, auch dann, wenn die zugrundeliegenden Fakten fehlen oder falsch sind.

Copilot begegnet diesem Problem mit Zitierungslinks und Responsible-AI-Checks. Beide Mechanismen reduzieren das Halluzinationsrisiko, eliminieren es aber nicht. Für unternehmenskritische Entscheidungen gilt: Copilot-Ausgaben immer gegen die zitierten Quelldokumente prüfen. Copilot ist ein Assistent, kein Auditor.

Copilot in Teams-Meetings

Eine der meistgenutzten Copilot-Funktionen ist die Meeting-Unterstützung in Microsoft Teams. Copilot kann während eines laufenden Meetings Zusammenfassungen liefern, Fragen über den bisherigen Gesprächsverlauf beantworten und nach dem Meeting automatisch Protokoll, Aktionspunkte und offene Fragen generieren.

Technisch funktioniert das über die Meeting-Transkription: Teams wandelt Sprache in Text um. Copilot erhält diesen Transkript-Text als Grounding-Kontext und kann darüber Anfragen wie “Was haben wir bisher zur Budgetfrage beschlossen?” direkt beantworten.

Wichtig zu verstehen: Ohne aktivierte Transkription hat Copilot keinen Zugriff auf den Meeting-Inhalt. Die Funktion muss in der Teams-Admin-Konsole explizit aktiviert werden. Und: Die Transkription startet, sobald das Meeting beginnt. Inhalte, die vor der Aktivierung gesprochen wurden, sind für Copilot nicht verfügbar.

Copilot vs. ChatGPT: Der technische Unterschied

MerkmalM365 CopilotChatGPT Enterprise
RAG-IntegrationSystemseitig, automatischExplizit konfigurierbar
Datenquellen nativMail, SharePoint, Teams, OneDrive, KalenderExterne Konnektoren nötig
M365-App-IntegrationNativNicht nativ
EU Data BoundaryJa (EU-Kunden, seit 1. März 2024)Regionale Optionen
ModellAzure OpenAI GPT + optional Anthropic Claude, xAI (US)OpenAI GPT-Familie

Der entscheidende Unterschied liegt nicht im Modell, sondern in der Architektur. ChatGPT ohne Enterprise-Konfiguration hat kein RAG. Es antwortet aus dem Vortraining, ohne Zugriff auf Ihre Unternehmensdaten. Microsoft 365 Copilot hat RAG als Kerneigenschaft: Jede Antwort basiert auf einem automatischen Retrieval-Schritt aus Ihrem Tenant.

ChatGPT Enterprise erlaubt RAG-Konfigurationen, aber diese müssen explizit eingerichtet werden. Datenquellen werden über externe Konnektoren angebunden. Die M365-App-Integration ist nicht nativ vorhanden, sondern erfordert zusätzliche Entwicklung. Für Unternehmen, die bereits in Microsoft 365 investiert haben, ist der Integrationsaufwand mit Copilot erheblich geringer.

Technische Voraussetzungen

Pflichtvoraussetzungen

Für den Betrieb von Microsoft 365 Copilot sind folgende Voraussetzungen erforderlich (Microsoft Docs Anforderungen 2026):

Lizenz: Als Basislizenz ist M365 Business Standard, M365 Business Premium, Microsoft 365 E3 oder E5 erforderlich. Copilot selbst ist ein separates Add-on mit eigenem Lizenzpreis. Office 2019 oder Office LTSC-Lizenzen reichen nicht aus.

Exchange Online: Die Mailbox des Nutzers muss in Exchange Online liegen. Hybrid-Konfigurationen mit On-Premises-Postfächern werden nicht unterstützt. Reine On-Premises-Exchange-Installationen schließen Copilot aus.

Microsoft Entra IDGlossarMicrosoft Entra ID (ehemals Azure Active Directory) ist der zentrale Identitäts- und Zugriffsverwaltungsdienst in Microsoft 365. Er steuert Benutzer, Gruppen, Berechtigungen und Anmelderichtlinien für alle Cloud-Dienste eines Tenants.: Der Nutzer-Account muss ein Microsoft-Entra-ID-Account sein. Lokale Active-Directory-Accounts ohne Entra-ID-Synchronisierung funktionieren nicht.

Browser: Moderner Browser empfohlen. Microsoft Edge bietet die tiefste Integration. Chrome und Firefox werden unterstützt. Internet Explorer wird nicht unterstützt.

Netzwerk: Spezifische Microsoft-365-Domains dürfen nicht gesperrt sein. WebSocket-Verbindungen (WSS-Protokoll) müssen erlaubt sein, da Copilot für die Echtzeit-Kommunikation auf WebSockets angewiesen ist. Proxy-Konfigurationen, die WSS blockieren, verhindern die Nutzung.

Empfohlene Maßnahmen vor dem Rollout

Diese Punkte sind keine technischen Pflichtvoraussetzungen, aber entscheidend für einen reibungslosen Rollout:

SharePoint-Governance: Vor dem Copilot-Rollout eine Oversharing-Analyse durchführen. Copilot macht sichtbar, was bereits sichtbar war, aber bisher durch mangelnde Suchbarkeit verborgen blieb. Dokumente, die zu breit geteilt sind, werden durch Copilot für mehr Nutzer zugänglich. Eine Berechtigungsprüfung vor dem Rollout adressiert dieses Risiko direkt.

Microsoft Purview Sensitivity Labels: Sensitivity Labels ermöglichen es, Dokumente nach Vertraulichkeitsgrad zu klassifizieren. Copilot respektiert diese Labels automatisch. Wer Labels vor dem Rollout einführt, hat granulare Kontrolle darüber, welche Inhalte Copilot in Antworten einbinden darf.

Meeting-Transkription: Copilot kann nach einem Teams-Meeting eine Zusammenfassung, Aktionspunkte und offene Fragen generieren. Diese Funktion setzt voraus, dass die Meeting-Transkription aktiviert ist. Ohne aktivierte Transkription hat Copilot keinen Zugriff auf den Meeting-Inhalt. Die Aktivierung erfordert eine bewusste Entscheidung in der Teams-Admin-Konsole und im besten Fall eine interne Kommunikation an die Mitarbeiter.

Ob Ihre Umgebung bereit ist, prüfen wir in der KI Beratung: einer strukturierten Readiness-Analyse in einem halben Tag. Für eine kompakte Übersicht der Checkpunkte eignet sich außerdem die Copilot Readiness Checkliste.

Häufige Fragen

01 Sieht Microsoft meine E-Mails und Dokumente, wenn ich Copilot nutze?
Nein. Copilot greift über Microsoft Graph auf Ihre Daten zu, aber nur innerhalb Ihrer Microsoft-365-Service-Boundary. Microsoft-Mitarbeiter sehen Ihre Inhalte nicht. Prompts und Antworten werden nicht für das Training von KI-Modellen verwendet. Für EU-Kunden gilt: Daten bleiben innerhalb der EU Data Boundary (seit 1. März 2024).
02 Warum findet Copilot manchmal nicht die richtigen Dokumente?
Copilot nutzt den Semantic Index, einen Vektorindex Ihrer Unternehmensdaten. Wenn ein Dokument schlecht strukturiert, sehr kurz oder nicht in SharePoint Online abgelegt ist, kann der Index es nicht optimal einordnen. Zusätzlich gilt: Copilot sieht nur Dokumente, auf die Sie persönlich Zugriff haben. Ein fehlender SharePoint-Berechtigungssatz bedeutet, dass das Dokument für Copilot schlicht nicht existiert.
03 Was ist der Unterschied zwischen Copilot und einem normalen ChatGPT-Gespräch?
ChatGPT (ohne Enterprise-Konfiguration) antwortet aus seinem Vortraining, hat aber keinen Zugriff auf Ihre Unternehmensdaten. Microsoft 365 Copilot hat RAG als Kerneigenschaft: Es ruft vor jeder Antwort automatisch relevante Daten aus Ihrem Tenant ab und reichert damit den Prompt an. Das Ergebnis sind Antworten mit Bezug auf Ihre konkreten Dokumente, Mails und Meetings.
04 Kann ich steuern, welche Daten Copilot sieht?
Indirekt ja. Copilot sieht nur, was der jeweilige Nutzer sieht: SharePoint-Berechtigungen, Exchange-Zugriffsrechte und Microsoft Purview Sensitivity Labels werden vollständig respektiert. Einzelne SharePoint-Sites lassen sich aus dem Semantic Index ausschließen. Für granulare Kontrolle auf Dateiebene ist Microsoft Purview (E5-Lizenz) erforderlich.
05 Brauche ich eine E5-Lizenz für Microsoft 365 Copilot?
Nein. Copilot läuft als Add-on auf M365 Business Standard/Premium sowie E3 und E5. Eine E5-Lizenz ist keine Pflicht. Sie wird aber empfohlen, wenn Sie erweiterte Datenschutz-Kontrolle über den Semantic Index benötigen (Microsoft Purview DLP), oder wenn Sie Compliance-Features wie eDiscovery für Copilot-Interaktionen nutzen wollen.
06 Funktioniert Microsoft 365 Copilot mit On-Premises-Exchange?
Nein. Die Mailbox des Nutzers muss in Exchange Online liegen. Hybridkonfigurationen mit On-Premises-Postfächern werden nicht unterstützt. Reine On-Premises-Exchange-Installationen schließen die Nutzung von Copilot aus. Eine Migration der Mailboxen nach Exchange Online ist Voraussetzung.
07 Was kostet Microsoft 365 Copilot?
Microsoft 365 Copilot ist ein kostenpflichtiges Add-on, das eine Basislizenz (M365 Business Standard/Premium oder E3/E5) voraussetzt. Den aktuellen Lizenzpreis veröffentlicht Microsoft auf der offiziellen Produktseite. Für den deutschen Mittelstand empfiehlt sich ein gezielter Einstieg mit einer begrenzten Anzahl von Power-Usern, bevor ein breiter Rollout erfolgt.

Diese Technologie in Ihrem Unternehmen einsetzen?

Im kostenlosen Erstgespräch zeigen wir konkrete Einsatzmöglichkeiten für Ihre Situation.

Kostenloses Erstgespräch buchen