Warum DSGVO und LLMs eine unterschätzte Kombination sind
Wenn ein Mitarbeiter einen Kundennamen, eine Vertragsdetail oder eine Gehaltsangabe in ein Sprachmodell eingibt, ist das datenschutzrechtlich kein Bagatellfall. Es handelt sich um eine Verarbeitung personenbezogener Daten durch einen Dritten — mit allen Konsequenzen, die die DSGVO daran knüpft. Trotzdem zeigen Befragungen aus 2025 und 2026 immer wieder dasselbe Muster: Mitarbeiter nutzen KI-Tools im Berufsalltag, die IT-Abteilung duldet es, und die Rechtsabteilung erfährt es als letztes.
Das Problem ist nicht die Technologie — Sprachmodelle sind in vielen Anwendungsfällen legitim und nützlich. Das Problem ist das fehlende Fundament: kein AVV, keine Nutzungsrichtlinie, keine Dokumentation im Verzeichnis der Verarbeitungstätigkeiten (VVT). Für Unternehmen im deutschen Mittelstand, die unter DSGVO und in manchen Fällen auch unter branchenspezifischen Regularien operieren, ist das ein strukturelles Compliance-Risiko — nicht nur ein theoretisches.
Die drei Kernpflichten: Rechtsgrundlage, AVV und Dokumentation
Wer externe Sprachmodelle im Unternehmenskontext nutzt, muss drei Fragen rechtssicher beantworten können. Diese Fragen sind nicht optional — sie stehen im Zentrum jeder DSGVO-Prüfung durch eine Aufsichtsbehörde.
1. Welche Rechtsgrundlage gilt? Für die Verarbeitung personenbezogener Daten durch ein externes Modell kommen in der Praxis drei Grundlagen in Frage: berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO), Einwilligung (Art. 6 Abs. 1 lit. a) oder Vertragserfüllung (Art. 6 Abs. 1 lit. b). Berechtigtes Interesse ist am häufigsten anwendbar, erfordert aber eine dokumentierte Interessenabwägung — insbesondere wenn Kundendaten betroffen sind.
2. Liegt ein AVV vor? Wenn ein LLM-Anbieter im Auftrag des Unternehmens Daten verarbeitet, ist ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO zwingend erforderlich. OpenAI bietet einen DPA (Data Processing Agreement) für Enterprise-Kunden an; Microsoft schließt ihn im Rahmen des Microsoft Customer Agreement ab. Wer dagegen die Consumer-Variante von ChatGPT nutzt, ohne separaten Vertrag, hat keinen AVV — und damit keine rechtskonforme Auftragsverarbeitung.
3. Ist die Verarbeitung im VVT erfasst? Das Verzeichnis der Verarbeitungstätigkeiten nach Art. 30 DSGVO muss jeden Verarbeitungsvorgang mit Zweck, Kategorien betroffener Personen, Empfängern und Speicherfristen enthalten. Der LLM-Einsatz ist ein eigenständiger Vorgang, der separat dokumentiert werden muss — inklusive der Angabe, welcher Anbieter als Auftragsverarbeiter fungiert und wo die Daten verarbeitet werden.
Data Residency: Wo landen Ihre Prompts wirklich?
Data Residency bezeichnet den physischen und rechtlichen Speicherort von Daten. Bei LLMs ist das nicht trivial: Ein Prompt, den ein Mitarbeiter in München eingibt, kann von einem Rechenzentrum in den USA verarbeitet, in einer Sicherheitskopie in Irland gespeichert und für Sicherheitsaudit-Zwecke bis zu 30 Tage gehalten werden — je nach Anbieter und Produktversion. Drittlandübermittlungen nach Art. 44 ff. DSGVO erfordern entweder Angemessenheitsbeschlüsse (z. B. für US-Anbieter unter dem EU-US Data Privacy Framework), Standarddatenschutzklauseln (SCC) oder Binding Corporate Rules.
Microsoft Copilot for Microsoft 365 verarbeitet Daten im Rahmen des EU Data Boundary — das bedeutet, Verarbeitungs- und Speicherort liegen grundsätzlich in der EU oder im EWR. Das ist ein wesentlicher datenschutzrechtlicher Unterschied zu OpenAIs Consumer-Produkten, bei denen Daten standardmäßig in US-Rechenzentren verarbeitet werden. Unternehmen, die diese Unterscheidung nicht kennen, schließen faktisch identische Technologien unter völlig unterschiedlichen Rahmenbedingungen ab.
Eine pragmatische Anforderung lautet deshalb: Bevor ein LLM-Tool im Unternehmen freigegeben wird, muss der Datenschutzbeauftragte (oder ein externer DSB) die Data-Residency-Angaben des Anbieters schriftlich bestätigt haben — und diese Angaben müssen im VVT dokumentiert sein.
Nutzungsrichtlinie: Das wichtigste sofort umsetzbare Instrument
Selbst wenn alle vertraglichen Grundlagen vorhanden sind, bleibt das größte Risiko das unbewusste Fehlverhalten von Mitarbeitern. Eine interne LLM-Nutzungsrichtlinie definiert klar, welche Datenkategorien niemals in ein externes Sprachmodell eingegeben werden dürfen. Typische Verbotskategorien sind: personenbezogene Daten von Kunden oder Mitarbeitern ohne expliziten Prozessbeschluss, vertrauliche Geschäftsinformationen (Strategiepläne, M&A-Informationen), Gesundheits- und Finanzdaten sowie Zugangsdaten und Passwörter.
Die Richtlinie muss nicht lang sein — zwei DIN-A4-Seiten mit konkreten Beispielen und einer klaren Eskalationskette sind effektiver als ein 40-seitiges Dokument, das niemand liest. Entscheidend ist, dass sie kommuniziert, unterschrieben und in der Onboarding-Dokumentation verankert wird.
Unternehmen, die diese drei Ebenen — Rechtsgrundlage, Vertragswerk und interne Richtlinie — strukturiert adressieren, sind nicht nur DSGVO-konform. Sie schaffen auch die Voraussetzung dafür, LLMs dauerhaft produktiv einzusetzen, ohne bei jeder Aufsichtsbehördenanfrage in Erklärungsnöte zu geraten. Datenschutzkonforme KI-Nutzung ist kein Bremsklotz — sie ist die Grundlage für nachhaltiges Vertrauen von Kunden, Mitarbeitern und Partnern.