Krypto/Alert
AI · Praxis-Guide

Datenschutz bei AI-Tools — Was passiert mit deinen Daten?

Datenschutz bei AI-Tools — Was passiert mit deinen Daten?. Praktischer Guide mit Schritt-für-Schritt-Anleitung, Prompts und Tool-Vergleich.

Stand 08. Mai 2026

Was du wissen musst

AI-Tools wie ChatGPT, Gemini oder Copilot verarbeiten deine Eingaben auf Servern, die oft außerhalb der EU liegen. Das ist die zentrale Datenschutz-Herausforderung. Bei kostenlosen Versionen werden deine Prompts typischerweise zur Modellverbesserung verwendet – deine Fragen und Antworten landen in Trainingsdaten. Bei kostenpflichtigen Versionen (z.B. ChatGPT Plus) deaktivieren Anbieter diese Nutzung oft automatisch. Wichtig: DSGVO-Anforderungen gelten auch für AI-Tool-Nutzung. Sensible Daten wie Kundennamen, Adressen, Kreditkartennummern oder Geschäftsgeheimnisse gehören grundsätzlich nicht in öffentliche AI-Tools. Unternehmen müssen Datenschutz-Folgenabschätzungen durchführen und Mitarbeiter schulen. Es gibt aber Lösungen: Enterprise-Versionen mit Datenschutz-Zusicherungen, On-Premise-Modelle oder EU-gehostete Alternativen bieten höhere Kontrolle. Besonders kritisch: Datenübermittlungen in die USA sind rechtlich komplex. Der Standardvertragsklauseln-Mechanismus ist umstritten. Deshalb prüfen Datenschutzbeauftragte immer öfter auch AI-Tool-Verträge. Für Privatanwender: Vermeide sensible Daten in kostenlosen Tools. Für Unternehmen: Nutze nur Tools mit ausreichenden Datenschutz-Garantien, geklärt in Verträgen und Datenschutz-Erklärungen.

§02Schritt-für-Schritt-Anleitung

Schritt 1: Datenschutzerklärung prüfen. Öffne die Datenschutzerklärung des AI-Tools. Achte besonders auf: Wo werden Daten gespeichert? Wie lange? Werden sie für Training verwendet? Wer sind Subunternehmer? Schritt 2: Konfigurationsoptionen nutzen. In den Kontoeinstellungen (z.B. bei OpenAI, Google) deaktivierst du oft die Datennutzung für Modell-Training. Diese Option heißt oft 'Chat History' oder 'Training Preference'. Schritt 3: Vertrag abschließen (für Unternehmen). Mit professionellen Tools unterzeichnest du einen Datenverarbeitungsvertrag (Data Processing Addendum). Dieser regelt Verantwortlichkeiten bei Datenpannen. Schritt 4: Daten anonymisieren vor Eingabe. Statt echter Kundendaten nutze Platzhalter: statt 'Max Müller' schreib 'Kunde_123'. Schritt 5: Interne Richtlinien festlegen. Dokumentiere für dein Team, welche Daten in welche Tools dürfen. Beispiel: ChatGPT nur für Brainstorming, nicht für Kundendaten. Schritt 6: Regelmäßig überprüfen. Tools ändern ihre Bedingungen. Checke halbjährlich die aktuellen Datenschutzerklärungen. Schritt 7: Bei Datenpannen handeln. Melde Vorfälle dem Datenschutzbeauftragten und ggf. der Aufsichtsbehörde.

§03Konkrete Beispiele und Prompts

Beispiel 1 – Datengefährdung: Ein Mitarbeiter fragt ChatGPT kostenlos: 'Schreibe eine E-Mail an Kundin Petra Schmidt (petra.schmidt@example.de) mit ihrer Bestellnummer 4521-AB.' Problem: Name, E-Mail und Bestellnummer sind jetzt in OpenAIs Trainingsdaten sichtbar. Besser: Anonymisiert fragen und ChatGPT Plus nutzen: 'Schreibe eine professionelle Bestätigung-E-Mail mit Platzhaltern [KUNDENNAME], [EMAIL], [ORDERNUMMER].' Beispiel 2 – Sichere Anwendung: Ein Freiberufler nutzt ChatGPT Plus (mit Datenschutz-Einstellung 'Training deaktiviert') für Portfolio-Optimierung: 'Verbessere mein CV-Text zu Fähigkeiten: [generische Tätigkeitsbeschreibung].' Hier okay, weil: bezahlte Version, keine persönlichen Identifikatoren, Training deaktiviert. Beispiel 3 – EU-Alternative: Ein deutsches Startup nutzt statt ChatGPT das Modell 'LLaMA via Hugging Face' (EU-gehostet) für Firmendokumentation. Vorteil: Daten verlassen nicht die EU, volle DSGVO-Compliance. Beispiel 4 – Unternehmens-Checkliste: Bevor deine Firma ein Tool einsetzt, frag: Ist ein Data Processing Agreement vorhanden? Werden Daten außerhalb der EU übermittelt? Wer ist Datenschutzverantwortlicher? Kann ich Daten löschen? Diese Fragen klären vor der ersten Nutzung.

Werbeplatz · konfiguriere NEXT_PUBLIC_ADSENSE_CLIENT_ID + NEXT_PUBLIC_ADSENSE_SLOT_ID

§04Tools im Vergleich (kostenlos vs. kostenpflichtig)

ChatGPT (OpenAI) – Kostenlos: Daten für Training verwendbar, kein formaler Support. Kostenpflichtig (Plus/Enterprise): Training optional deaktivierbar, Datenverarbeitungsvertrag möglich. Datenschutz-Risiko kostenlos: Mittel bis Hoch. Google Gemini – Kostenlos: Verknüpfung mit Google-Konto, Datenschutzerklärung unklar bei Trainingsnutzung. Business: Data Processing Agreement, Zusicherungen zur Nicht-Nutzung für Training. Datenschutz-Risiko kostenlos: Hoch (Google-Ökosystem). Copilot/Microsoft – Kostenlos: Integration mit Microsoft-Produkten, US-Hosting. Copilot Pro / Copilot in Microsoft 365: DPA möglich, EU-Datenzentren optional. Datenschutz-Risiko kostenlos: Mittel bis Hoch. Claude (Anthropic) – Kostenlos: Begrenzte Datennutzung, transparente Richtlinien. Claude for Enterprise: Volles DPA, keine Modell-Trainierung mit Kunddaten. Datenschutz-Risiko kostenlos: Mittel. Hugging Face / Open-Source-Modelle (z.B. Llama 2, Mistral) – Kostenlos (selbst gehostet): Maximale Kontrolle, Daten bleiben lokal oder in deinem Rechenzentrum. Kostenpflichtig (verwaltete Versionen): EU-Hosting möglich, volle Compliance. Datenschutz-Risiko selbst gehostet: Sehr Niedrig. Llama 2 on-premise oder Ollama lokal: Null Übermittlung, höchste Sicherheit, aber technische Anforderungen höher. Empfehlung: Privatanwender – Claude kostenlos oder ChatGPT Plus. Unternehmen – Open-Source lokal oder Copilot in Microsoft 365 mit DPA.

§05Häufige Fehler vermeiden

Fehler 1: Annahme 'Kostenlos = Keine Datenschutzprobleme'. Falsch. Kostenlose Tools finanzieren sich oft durch Datennutzung. Immer Datenschutzerklärung prüfen. Fehler 2: Sensible Daten in öffentliche Tools eingeben ohne Anonymisierung. Beispiel: 'Patient Hans Müller, Diagnose: Diabetes' in ChatGPT kostenlos. Das verstößt gegen Datenschutz und Berufsgeheimnis. Lösung: Anonymisieren oder nur bezahlte Versionen. Fehler 3: Vergessen, dass Prompts speichert werden. Viele Nutzer denken, die Eingabe ist sofort gelöscht. Tatsächlich: Bei Kostenlos-Versionen oft 30 Tage gespeichert, für Training verwendet. Fehler 4: Keine Verträge für Unternehmenseinsatz. Fehler: Ein Büro nutzt ChatGPT kostenlos für alle Mitarbeiter, ohne Datenschutz-Vereinbarungen mit OpenAI. Konsequenz: Bußgelder bei Kontrollen. Lösung: Business-Verträge abschließen. Fehler 5: Konfigurationsoptionen ignorieren. Viele Tools haben Privacy-Settings, die deaktiviert sind. Beispiel: 'Chat History teilen' – diese Option sollte AUS sein. Fehler 6: Keine Schulung der Mitarbeiter. Mitarbeiter wissen oft nicht, was in AI-Tools darf. Fehler 7: Datenpannen nicht melden. Wenn ein Leak passiert, müssen Datenschutzbehörden innerhalb 72 Stunden informiert werden. Viele Unternehmen tun das nicht. Fehler 8: Unkontrollierte Cloud-Dienste. Einige Teams nutzen parallele Tools (ChatGPT privat + Copilot beruflich), ohne dass der Arbeitgeber weiß. Lösung: Zentrale Genehmigung und Kontrolle.

Häufige Fragen
  • Ja, typischerweise. Bei ChatGPT kostenlos, Google Gemini kostenlos und anderen kostenlosen Versionen werden deine Eingaben (Prompts) standardmäßig zur Verbesserung der Modelle verwendet. Das ist in den Datenschutzerklärungen dokumentiert. Du kannst dies oft deaktivieren, wenn du auf ein kostenpflichtiges Abo wechselst oder bestimmte Einstellungen (z.B. 'Chat History') ausschließt. Wichtig: Das bedeutet, dass sensible Daten – Kundennamen, private Informationen, Geschäftsgeheimnisse – nicht in kostenlose Tools gehören.
Weitere AI-Praxis-Guides