Zurück zum Blog
DSGVO-konforme KI: LLM-Features für den europäischen Markt bauen

DSGVO-konforme KI: LLM-Features für den europäischen Markt bauen

Dennis Reinkober28. März 20263 Min. Lesezeit

Jedes Mal, wenn ein Nutzer eine Nachricht in deinen KI-Chatbot tippt, verarbeitest du personenbezogene Daten. Die Nachricht könnte einen Namen, eine E-Mail, ein Gesundheitsanliegen oder eine Beschwerde enthalten. Unter der DSGVO sind das personenbezogene Daten — und du brauchst eine Rechtsgrundlage für die Verarbeitung.

Die meisten Engineering-Teams behandeln Compliance als Post-Launch-Problem. „Kümmern wir uns später drum." Das funktioniert, bis eine Datenschutzbehörde einen Fragebogen schickt oder ein Nutzer sein Recht auf Löschung ausübt und du feststellst, dass du seine Daten nicht wirklich aus deiner Vektordatenbank löschen kannst.

So baust du LLM-Features, die von Tag eins compliant sind.

Die zwei Gesetze, die du kennen musst

DSGVO (seit 2018)

Kernanforderungen für KI:

  • Rechtsgrundlage für die Verarbeitung (Einwilligung, berechtigtes Interesse oder Vertragserfüllung)
  • Datenminimierung — schick nicht mehr Daten zum LLM als nötig
  • Recht auf Löschung — Nutzer können die Löschung ihrer Daten verlangen
  • Auskunftsrecht — Nutzer können fragen, warum eine automatisierte Entscheidung getroffen wurde
  • Auftragsverarbeitungsverträge mit allen Sub-Prozessoren (einschließlich deines LLM-Anbieters)

EU AI Act (High-Risk-Deadline: August 2026)

Der AI Act fügt Anforderungen auf die DSGVO drauf:

  • Risikoklassifizierung deines KI-Systems
  • Transparenz — Nutzer müssen wissen, dass sie mit KI interagieren
  • Menschliche Aufsicht für Hochrisiko-Entscheidungen
  • Bias-Testing und Monitoring

Für die meisten Startups, die Chatbots, Suche oder Content-Generation bauen, fällt man in die Kategorie minimales Risiko unter dem AI Act. Aber die DSGVO gilt in jedem Fall.

Wohin gehen die Nutzerdaten?

Wenn ein Nutzer eine Nachricht an dein KI-Feature sendet:

Nutzer → Dein Backend → LLM API (OpenAI/Anthropic/etc.) → Antwort → Nutzer

Jeder Schritt ist ein Datenverarbeitungsvorgang.

OpenAI API

  • Daten werden an US-Server gesendet (oder EU via Azure OpenAI)
  • OpenAI trainiert nicht auf API-Daten
  • Aber: Daten durchqueren US-Infrastruktur → CLOUD Act gilt
  • Aufbewahrung: 30 Tage für Missbrauchsüberwachung (kann auf 0 reduziert werden)

Self-Hosted Modelle (Llama, Mistral)

  • Daten bleiben auf deinen Servern
  • Volle Kontrolle über Aufbewahrung und Löschung
  • Keine Sub-Prozessor-Probleme
  • Höhere Infrastrukturkosten
Die einfache Regel

Wenn personenbezogene Daten die EU verlassen, um einen LLM-Anbieter zu erreichen, brauchst du: (1) einen Auftragsverarbeitungsvertrag, (2) Standardvertragsklauseln und (3) eine Transfer-Folgenabschätzung. Self-Hosting eliminiert alle drei.

DSGVO-Checkliste für KI-Features

1. Rechtsgrundlage festlegen

Einwilligung: Nutzer stimmt explizit der KI-Verarbeitung zu. Granulares Opt-in nötig.

Berechtigtes Interesse: Du argumentierst, dass das KI-Feature im beiderseitigen Interesse liegt. Erfordert eine dokumentierte Interessenabwägung.

2. Datenminimierung umsetzen

Schick nicht das gesamte Nutzerprofil zum LLM. Strip unnötige personenbezogene Daten vor dem API-Call:

def sanitize_for_llm(user_message: str, user_context: dict) -> str:
    """PII vor dem Senden zum LLM strippen."""
    context = {
        "subscription_tier": user_context.get("tier"),
        "language": user_context.get("language"),
        # NICHT inkludieren: email, name, adresse, telefon
    }
    return f"Context: {json.dumps(context)}\n\nNutzerfrage: {user_message}"

3. Recht auf Löschung handhaben

Wenn du RAG mit einer Vektordatenbank nutzt, könnten Nutzerdaten existieren in:

  • Chat-Verlauf (PostgreSQL) — einfach zu löschen
  • Vektor-Embeddings (Pinecone, Qdrant, pgvector) — schwieriger
  • LLM-Anbieter-Logs — abhängig von deren Aufbewahrungsrichtlinie
  • Anwendungs-Logs — oft übersehen

4. Transparenz gewährleisten

Nutzer müssen wissen, dass sie mit KI sprechen. Klarer Hinweis, nicht versteckt.

5. AVV mit dem LLM-Anbieter abschließen

Sowohl OpenAI als auch Anthropic bieten Auftragsverarbeitungsverträge an. Vor dem Produktivgang abschließen.

EU-gehostete Alternativen

OptionModellqualitätEU-HostingKosten
Azure OpenAI (EU-Region)GPT-4-NiveauJa (EU West)Pay-per-Token
Mistral (La Plateforme)ExzellentJa (Frankreich)Pay-per-Token
Self-hosted Llama 3Sehr gutVolle Kontrolle200-500 €/Monat
Ollama auf HetznerGut-ExzellentJa (Deutschland)50-200 €/Monat

Unsere Standard-Empfehlung für EU-Startups: Mistral API für Produktion, Ollama auf Hetzner für Entwicklung und Testing.

Häufige Fehler

  1. Gesamte Konversationen loggen ohne Aufbewahrungsrichtlinie. 90-Tage-Auto-Delete setzen.
  2. Nutzer-PII in RAG-Dokumenten einbetten. Nutzerdaten von der Wissensbasis trennen.
  3. Kein Consent-Management für KI-Features. Einen Toggle hinzufügen.
  4. Sub-Prozessor-Ketten ignorieren. OpenAI nutzt Azure. Azure nutzt... du musst die gesamte Kette kennen.
  5. Keine Datenschutz-Folgenabschätzung. Erforderlich bei KI-Verarbeitung personenbezogener Daten im großen Maßstab.

Du baust KI-Features für den europäischen Markt? Wir kümmern uns von Tag eins um Compliance. Erfahre mehr über unsere KI- & LLM-Integration.

Quellen

Ähnliche Beiträge