US-KI speichert. Europäische KI vergisst. Das ist kein Zufall, sondern Geschäftsmodell. OpenAI, Google, Anthropic verdienen daran, dass sie aus Nutzerdaten lernen. Europäische Anbieter verdienen daran, dass sie es nicht tun.
Was bedeutet Data Retention?
Data Retention heißt: Daten werden nach der Verarbeitung gespeichert. Nicht für immer, aber für eine gewisse Zeit. OpenAI speichert Prompts und Outputs 30 Tage lang. Offiziell für „Safety and Abuse Monitoring“ – um zu prüfen, ob jemand die KI missbraucht. Inoffiziell auch, um die Modelle zu verbessern.
Die OpenAI Data Usage Policy (Stand Februar 2024) formuliert: „We retain API data for 30 days for abuse and misuse monitoring purposes.“ Das klingt harmlos. Aber 30 Tage sind lang genug, um Muster zu erkennen, Nutzungsverhalten zu analysieren, Schwachstellen zu identifizieren. Und lang genug, dass im Falle einer Datenpanne oder einer behördlichen Anfrage diese Daten existieren.
Aleph Alpha: Zero Data Retention als Architektur
Aleph Alpha speichert nichts. Keine Prompts, keine Outputs, keine Metadaten. Wenn ein User eine Anfrage stellt, läuft sie durch das Modell, die Antwort wird generiert, beides wird gelöscht. Technisch heißt das Ephemeral Processing: Die Daten existieren nur im Arbeitsspeicher (RAM), nie auf Festplatten.
Jonas Andrulis erklärte das Prinzip in einem Interview mit der FAZ 2023: „Wir können Daten nicht herausgeben, weil wir sie nicht haben. Das ist kein Datenschutz-Feature, das man aktivieren kann. Es ist die Architektur. Das System ist nicht dafür gebaut, Daten zu speichern.“
Das hat einen entscheidenden Vorteil: Selbst wenn deutsche Behörden oder europäische Datenschützer bei Aleph Alpha vor der Tür stehen und Einsicht in gespeicherte Daten verlangen – es gibt nichts zu zeigen. Die Daten existieren nicht mehr.
Für Branchen mit Verschwiegenheitspflicht – Anwälte, Ärzte, Steuerberater – ist das entscheidend. Sie können Aleph Alpha nutzen, ohne gegen § 203 StGB (Verletzung von Privatgeheimnissen) zu verstoßen. Die Daten verlassen nie das Unternehmen in speicherbarer Form.
LightOn: Privacy-First für französische Behörden
LightOn aus Paris entwickelt KI speziell für öffentliche Verwaltungen und regulierte Branchen. Ihr Paradigm-Modell arbeitet nach demselben Prinzip: Zero Data Retention. Keine Speicherung, keine Logs, keine Nachvollziehbarkeit nach der Verarbeitung.
Das Unternehmen arbeitet eng mit der französischen Regierung zusammen. Die französische Datenschutzbehörde CNIL (Commission Nationale de l’Informatique et des Libertés) hat das System geprüft und als DSGVO-konform eingestuft – gerade wegen der Zero-Data-Retention-Architektur.
Ein Sprecher der CNIL sagte 2024: „Zero Data Retention ist die sauberste Form des Datenschutzes. Was nicht gespeichert wird, kann nicht missbraucht werden, kann nicht geleakt werden, kann nicht von Dritten angefordert werden.“
Warum US-Anbieter nicht vergessen können
OpenAI, Google, Anthropic basieren auf einem anderen Geschäftsmodell: Sie verbessern ihre Modelle kontinuierlich durch Nutzerdaten. Jede Interaktion liefert Feedback. Was funktioniert gut? Was führt zu Fehlern? Wo brechen Nutzer ab? Diese Daten fließen zurück ins Training.
Das macht die Modelle besser. GPT-4 ist so gut, weil Millionen Nutzer es täglich trainieren. Aber es macht Datenlöschung unmöglich. Wenn die Architektur auf kontinuierlichem Lernen basiert, kann man nicht einfach „Speichern ausschalten“. Das würde das Geschäftsmodell zerstören.
ChatGPT Enterprise bietet eine Option: „Data Retention opt-out“. Kunden können beantragen, dass ihre Daten nicht gespeichert werden. Aber auch dann bleiben Metadaten: Wann wurde die Anfrage gestellt? Wie lange hat die Verarbeitung gedauert? Welches Modell wurde genutzt? Diese Informationen reichen, um Nutzungsmuster zu erkennen.
Der EU AI Act verschärft die Regeln
Ab August 2026 verlangt der EU AI Act für Hochrisiko-KI: „Daten dürfen nur so lange gespeichert werden, wie für den Verarbeitungszweck erforderlich.“ Bei KI-Inferenz (also der Anwendung, nicht dem Training) ist der Zweck mit der Antwort erfüllt. Jede Speicherung darüber hinaus braucht eine zusätzliche Rechtsgrundlage.
OpenAIs 30-Tage-Speicherung erfüllt diese Anforderung nicht automatisch. „Safety Monitoring“ ist ein legitimes Interesse, aber es muss gegen die Rechte der Nutzer abgewogen werden (Art. 6 Abs. 1 lit. f DSGVO). Bei hochsensiblen Daten – Gesundheit, Anwaltsgeheimnis, Steuerberatung – überwiegen die Nutzerrechte. Die Speicherung wäre unzulässig.
Europäische Anbieter mit Zero Data Retention haben dieses Problem nicht. Sie speichern nie, also brauchen sie keine Rechtsgrundlage für Speicherung.
Was das für Unternehmen bedeutet
Wenn Sie US-KI nutzen, müssen Sie dokumentieren: Was wird gespeichert? Wie lange? Wo? Wer hat Zugriff? Was passiert nach 30 Tagen? Wird es wirklich gelöscht oder archiviert? Diese Fragen müssen Sie in Ihrer Datenschutz-Folgenabschätzung beantworten.
Wenn Sie europäische Zero-Data-Retention-KI nutzen, sind diese Fragen obsolet. Es wird nichts gespeichert, also gibt es nichts zu dokumentieren. Die Datenschutz-Folgenabschätzung wird um Seiten kürzer.
Ein Hamburger Datenschutzberater berichtet: „Bei Mandanten, die von OpenAI zu Aleph Alpha wechseln, reduziert sich der Dokumentationsaufwand um etwa 40%. Allein bei der Datenschutz-Folgenabschätzung sparen sie 15-20 Seiten. Das sind Stunden Arbeit – jedes Jahr.“
Technische Umsetzung: Wie funktioniert Ephemeral Processing?
Technisch ist Zero Data Retention einfach: Die Daten werden nur im RAM verarbeitet, nie auf Festplatten geschrieben. RAM ist flüchtiger Speicher. Sobald der Strom weg ist, sind die Daten weg. Sobald die Verarbeitung abgeschlossen ist, wird der RAM-Bereich freigegeben und überschrieben.
Das hat einen Nachteil: Wenn der Server abstürzt während der Verarbeitung, ist die Anfrage verloren. Der Nutzer bekommt keine Antwort. Aber die Daten sind auch nicht mehr rekonstruierbar. Für Datenschutz ist das ein Vorteil.
US-Anbieter schreiben Daten auf Festplatten, bevor sie verarbeitet werden. Das garantiert: Wenn etwas schiefgeht, kann die Anfrage wiederholt werden. Aber es bedeutet auch: Die Daten sind persistent. Sie existieren, bis sie aktiv gelöscht werden. Und selbst dann: Gelöschte Daten auf Festplatten können oft wiederhergestellt werden.
Die Frage der Prüfbarkeit
Kritiker von Zero Data Retention sagen: Wenn nichts gespeichert wird, kann man Missbrauch nicht nachverfolgen. Wenn jemand die KI nutzt, um illegale Inhalte zu generieren, gibt es keine Beweise.
Die Antwort europäischer Anbieter: Das ist Absicht. Datenschutz bedeutet, dass nicht jede Handlung nachverfolgbar sein muss. Der Staat darf nicht jede Kommunikation überwachen, nur weil theoretisch Straftaten begangen werden könnten. Dasselbe gilt für KI-Nutzung.
Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit stellte 2024 klar: „Zero Data Retention ist mit der DSGVO vereinbar. Die DSGVO verlangt Datenminimierung. Was nie gespeichert wird, ist maximal minimiert.“
