ChatGPT und Datenschutz: Wie Unternehmen den wichtigsten KI-Bot rechtssicher nutzen
Firmendaten in den Prompt, Enter drücken, Antwort lesen – und dabei still und leise OpenAIs Modelle trainieren. Willkommen im Alltag der meisten ChatGPT-User.
Was dabei kaum jemand im Blick hat: was die Entwicklerfirma OpenAI mit diesen Eingaben machen darf. Die meisten überlassen das den Voreinstellungen. Und die sind nicht neutral. Sie sind auf maximale Datennutzung ausgelegt, weil OpenAI auf die Art die eigenen Sprachmodelle trainieren und weiter verbessern möchte.
In unseren Audits sehen wir das immer wieder: ChatGPT-Free-Accounts, über die Firmendaten unbemerkt ins Modelltraining fließen. Business-Lizenzen, bei denen noch nie jemand die Data-Controls-Seite aufgemacht hat, was die professionelle Nutzung konterkariert. Und überall dieselbe stille Annahme, dass das schon irgendwie in Ordnung sein wird.
Ist es keineswegs. Daher liefert dieser Beitrag einen Überblick darüber, wie man den bekanntesten KI-Chatbot der Welt für die verschiedensten Anwendungen so datensicher wie möglich nutzt. Ob privat oder beruflich.
Inhaltsverzeichnis
Die beiden wichtigsten Fragen beim Datenschutz in ChatGPT
Bevor es um Details in den Einstellungen geht, hier ein kurzer Überblick über die beiden wichtigsten Problemfelder in puncto Datenschutz.
- Was darf OpenAI mit meinen Daten tun?
- Wo liegen meine Daten?
Wer ChatGPT Free, Go oder Plus nutzt, bei dem fließen alle Daten standardmäßig ins Training der Modelle ein. Alle drei sind subventionierte Konsumentenprodukte, und das ist kein Versehen, sondern Konzept, um im KI-Wettrennen der US-BigTechs die wichtigste Ressource zu erhalten: User-Daten.
Erst ab ChatGPT Business ändert sich das grundlegend – hier garantiert die Firma von CEO Sam Altman, dass es die Daten nicht weiterverwendet und bietet auch einen Auftragsverarbeitungsvertrag (kurz „AVV“) als DSGVO-konforme Grundlage an.
Man sollte sich nicht an den Begrifflichkeiten stören: Bei OpenAI heißt es Data Processing Addendum (DPA) – aber das ist im Englischen das Äquivalent zum AVV. Gleiches gilt für den Großkundentarif Enterprise.
Für Unternehmen ist dieser Tarifsprung daher keine Komfort-, sondern eine Compliance-Entscheidung – und die sollte man treffen, bevor die nächste Projektunterlage in den Prompt wandert.
Losgelöst von der AVV-Frage gibt es einen weiteren wichtigen Unterschied – bei Datentransfer & Serverstandort: Für Free-, Go- und Plus-Nutzer gilt: Die Daten laufen über US-Server.
Ab ChatGPT Business bietet OpenAI seit Februar 2025 eine europäische Datenresidenz an – neue Workspaces können so konfiguriert werden, dass Chats, Dateien und Outputs ausschließlich in europäischen Rechenzentren gespeichert werden. Wichtig dabei: Die Option gilt nicht für bestehende Instanzen und muss aktiv beim Setup eingerichtet werden. Wer das verpasst, kann nicht nachträglich umstellen.
Um Datenschutz und ChatGPT zu verstehen, sollten Sie diese Begriffe kennen
Wer Einstellungen zum Datenschutz in ChatGPT sinnvoll treffen will, braucht zuerst ein klares Verständnis der technologischen Basics. Daher hier die wichtigsten Stichworte:
Context Window: Während jeder Sitzung hält das Modell den gesamten Gesprächsverlauf im Arbeitsspeicher. Mit jedem neuen, leistungsfähigen Modell wird dieses Kontextfenster in der Regel etwas größer, es werden also immer mehr Daten zwischengespeichert. Das ist technisch notwendig und nicht verhandelbar.
Cloud vs. Cache: ChatGPT ist ein Cloud-Service – Konversationen laufen per default über OpenAI-Server in den USA. Die Ausnahmen stehen oben („Datenresidenz“). Die Desktop-Apps für macOS und Windows legen darüber hinaus Gesprächsfragmente lokal im Cache ab. Auf geteilten Firmenrechnern ist das ein handfestes Sicherheitsrisiko; dort sollte man daher nur die Browser-Version nutzen, nicht die App. Im Browser selbst landen keine womöglich kritischen Datenfetzen auf dem eigenen Gerät.
30-Tage-Puffer: OpenAI behält Konversationsdaten bis zu 30 Tage – unabhängig von Training-Einstellungen und genutztem Modus. Zweck ist laut der Firma ausschließlich Missbrauchsprüfung. Danach erfolgt die physische Löschung, sofern keine Aufbewahrungspflichten greifen. Sofortige Datenlöschung nach dem Session-Ende existiert bei ChatGPT nicht.
Machine Unlearning: Was einmal in ein Modell eingeflossen ist, lässt sich nicht wieder herauslösen, da ChatGPT, wie alle LLMs, die Daten nicht 1:1 ablegt, sondern unterschiedliche Fragmente an unterschiedlichen Stellen zur Unterfütterung oder Ergänzung des vorhandenen Wissens verarbeitet.
Nachträgliches Vergessen ist technisch daher praktisch unmöglich. Wer schützen will, muss das vor der Eingabe tun.
Bei uns finden Sie für Ihr Team die passenden Seminare
In unseren individuellen KI-Seminaren lernen Einsteiger und Profis den praktischen Einsatz von GenAI, üben den Umgang mit relevanten Tools und erfahren wichtige Hintergründe – auf Deutsch oder Englisch.
DIY: sechs Einstellungen, um den Datenschutz in ChatGPT zu verbessern
Auch wenn es unser eigenes Geschäft bei disruptive korrumpiert: Datenschutz bei ChatGPT braucht keine Fachberatung. Sondern es ist eine Frage von drei Klicks – wenn man weiß, wo die Fallen lauern. Der zentrale Ort ist Settings > Data Controls.
- Modell-Training deaktivieren: Der Toggle (An-/Aus-Button) heißt „Improve the model for everyone“ – und ist standardmäßig eingeschaltet. Schalten Sie ihn aus.
Schon mehrfach haben wir die Sorge gehört, dass dann aber ja auch die alten Chats verloren gehen würden. Das ist falsch: Training und Chat-Historie sind bei OpenAI entkoppelt. Wer das Training abschaltet, verliert keinen einzigen KI-Dialog. - Memory prüfen: Unter Settings > Personalization > Memory speichert ChatGPT langfristig Fakten über Arbeitsweisen, Vorlieben und Kontexte. Wer diese Funktion im Arbeitsalltag nie angeschaut hat, hat unbemerkt ein Nutzerprofil aufgebaut. Einzelne Einträge lassen sich gezielt löschen oder die Funktion komplett abschalten.
- Shared Links: Unter Data Controls > Shared Links wird sichtbar, welche Chats öffentlich zugänglich sind. Wer einmal einen Link geteilt hat, vergisst das schnell. Jede Person mit diesem Link liest mit. Was Sie nicht unbedingt brauchen: löschen!
- Connected Apps & CustomGPTs: Welche Drittanbieter haben Zugriff auf den Account? CustomGPTs externer Entwickler bringen manchmal eigene Datenschutzregeln mit, die von OpenAIs Policy abweichen. Auch hier gilt: Was nicht mehr benötigt wird, sollte gelöscht werden.
- History löschen: Die Historie zeigt links im Menü ihre bisherigen Chats. Einzelne Dialoge können Sie über die drei Punkte (···) rechts neben dem jeweiligen Eintrag entfernen. Die gesamte Historie auf einen Schlag bereinigen Sie unter Settings > Data Controls > Delete all chats. Wer den Account komplett schließt, findet die Option unter Delete Account – dies allerdings ist das schärfste Schnitt, der unumkehrbar alle aktiven Daten aus OpenAIs Systemen entfernt.
- Temporary Chat: Für hochsensible Einzelanfragen der sinnvollste Weg – zu finden ist der „Temporary„-Button über die gestrichelte Sprechblase oben rechts im Interface. In der Mobile-App klicken Sie auf den Modellnamen, dann aktivieren Sie den Toggle im Dropdown. Das Interface wechselt in einen abgedunkelten Modus. Es erfolgt kein History-Eintrag, keine Memory-Nutzung, kein Training.
Weitere Datenschutzfehler, die wir in ChatGPT immer wieder sehen
Die richtigen Einstellungen zu kennen ist wichtig. Aber in unseren Audits sind es selten falsch gesetzte Datenschutz-Einstellungen, die Unternehmen in Schwierigkeiten bringen. Die folgenreicheren Fehler passieren woanders:
Free-Accounts für Firmendaten sind der häufigste Compliance-Blindspot in unseren Projekten. Mitarbeitende greifen auf private ChatGPT-Accounts zurück – oft schlicht, weil das Unternehmen keine Alternative bereitstellt. Schatten-KI entsteht nicht aus bösem Willen, sondern aus Bequemlichkeit und fehlendem Rahmen.
Die Feedback-Falle kennen selbst Unternehmen nicht, die bereits Team-Lizenzen nutzen: Wer das Modelltraining deaktiviert hat und dann Daumen-hoch oder Daumen-runter auf eine Antwort klickt, gibt genau diese Konversation explizit für das Training frei. Der Opt-out wird durch den Feedback-Klick ausgehebelt. Mitarbeitende müssen das wissen, bevor sie es aus Gewohnheit tun.
Kein Anonymisierungs-Reflex: Wer Kundennamen, Projekttitel und interne Bezeichnungen unreflektiert in Prompts schreibt, gibt mehr preis als nötig. Die Schwärzungs-Taktik kostet fünf Sekunden: Aus „Audit Müller GmbH“ wird „Projekt Phönix“. Der Kontext für die KI bleibt vollständig erhalten, die Identifizierbarkeit nicht.
Keine KI-Policy: Schriftliche Regeln darüber, welche Datenklassen für welche Tools freigegeben sind, gelten in den meisten Unternehmen als lästige Bürokratie. Im DSGVO-Audit sind sie die erste Frage. Trotzdem stoßen wir nach drei Jahren ChatGPT immer noch auf Unternehmen, in denen es keine entsprechenden Leitplanken gibt. Was im Detail darin stehen sollte, lesen Sie hier im passenden Blogbeitrag zu KI-Guidelines für Unternehmen.
Fazit: Datenschutz ist kein IT-Problem, sondern eine Kulturfrage
Wir müssen weg von der Vorstellung, dass Datenschutz bei der KI eine bloße Fingerübung ist, die man mit drei Klicks in den Settings löst. Wer so denkt, hat die Wucht der Technologie nicht verstanden.
In der Welt vor ChatGPT waren Daten wie Akten im Tresor – man wusste zumeist, wer den Schlüssel hatte. Heute sind Daten der Treibstoff für Systeme, die wir nicht kontrollieren, sondern nur steuern können. Wer seine Belegschaft ohne klare Leitplanken und die richtigen Lizenzen „einfach mal machen lässt“, betreibt kein modernes Management. Er spielt Vabanque mit dem Firmenkapital.
Kurz gesagt: Technik schützt Daten, aber Kultur schützt das Unternehmen.
Geben Sie Ihren Leuten die richtigen Werkzeuge an die Hand – aber sensibilisieren Sie sie auch dafür, dass die wichtigste Datenschutzschranke das eigene Verhalten ist. Der „Schatten-KI-Sumpf“ trocknet nicht von alleine aus. Hier ist es an den Führungskräften, voranzugehen.
Wenn Sie wissen wollen, wo Ihr Unternehmen in puncto Datenschutz und KI wirklich steht, lassen Sie uns sprechen. Wir machen keine theoretischen Gutachten, sondern bringen Struktur in Ihr KI-Setup. Schreiben Sie uns einfach an info@disruptive-muenchen.de – wir melden uns innerhalb von 24 Stunden zurück.
Hinweis: Dieser Text basiert auf gründlichen Recherchen und Gesprächen mit Expert:innen, ist aber keine belastbare juristische Bewertung. Wir übernehmen keine Haftung für eventuelle Fehleinschätzungen. Beachten Sie zudem, dass sich die Datenschutzeinstellungen bei KI-Anbietern immer wieder mal ändern. Ebenso sind die Datenschutzgesetze mit Blick auf KI teilweise noch in Entwicklung.