Egal, ob im Privatleben oder auf der Arbeit: KI-Tools wie ChatGPT versprechen User:innen Erleichterung bei all ihren Aufgaben. Allerdings zahlen wir dabei sogar bei kostenlosen Chatbots einen hohen Preis in Form unserer Daten. Denn diese werden oftmals zum Training weiterer KI-Modelle genutzt. Umso wichtiger ist es, ChatGPT und Co. nicht alles über euch zu verraten. Die wichtigsten Tabuthemen haben wir für euch zusammengefasst.
Name, Adresse und Telefonnummern
Bei allen sensiblen Daten, die ihr in Chatbots wie ChatGPT eingebt, gilt eine einfache Regel: Ihr wisst nicht, wo die eingegebenen Daten am Ende landen und wie sie genutzt werden. Entwickler:innen von KI-Tools können euch noch so oft versprechen, dass sie eure Daten vertraulich behandeln und sicher abspeichern. Spätestens durch Angriffe auf Server können die Daten geleakt werden. Dementsprechend ist es nicht ratsam, eure Kontaktdaten in ChatGPT oder andere Chatbots einzugeben.
Das reicht von eurem Namen über eure Wohnadresse bis zu eurer Telefonnummer. Alle diese Daten könnten von Dritten genutzt werden, um euch zu schaden – etwa durch verschiedene Phishing-Angriffe. Dementsprechend ist es auch keine gute Idee, euren Reisepass, Führerschein oder euren Personalausweis abzufotografieren und in ChatGPT hochzuladen. Die KI kann euch zwar Fragen dazu beantworten, doch die Dokumente werden auf unbestimmte Zeit gespeichert. Habt ihr allgemeine Fragen zu Ausweisdokumenten, kann euch Google besser weiterhelfen.
Passwörter, Logins und andere Zugangsdaten
KI-Tools können oftmals mit anderen Diensten verknüpft werden, damit sie uns auch App-übergreifend weiterhelfen können. Dadurch erhalten sie aber im Zweifel Zugriff auf mehr Informationen über euch und eure genutzten Dienste. Während die Verknüpfung in der Regel abgesichert ist, solltet ihr eure Login-Daten niemals per Text oder Spracheingabe an ChatGPT verraten.
Empfehlungen der Redaktion
So gab es schon einen Vorfall im vergangenen Jahr, bei dem ChatGPT Passwörter anderer Nutzer:innen preisgegeben haben soll. Neben euren digitalen Login-Daten solltet ihr auch keine Konto- oder Kundennummern in ChatGPT eingeben. Auch hier besteht etwa bei einem Leak die Gefahr, dass die Daten im Darknet landen und dort verkauft werden. Anschließend können Cyberkriminelle eure Konten angreifen und euch aussperren, während sie ungestört Schaden anrichten.
Details über eure finanzielle Situation
In eine recht ähnliche Kerbe schlagen Details zu euren Finanzen. Während wir euch schon verraten haben, dass ihr keine Kontonummern in ChatGPT und Co. eingeben solltet, gilt dasselbe auch für das Hochladen von Rechnungen, Kontoauszügen und Briefen eurer Bank oder anderer Finanzinstitute. Auf den Dokumenten stehen vertrauliche Informationen, die nur euch etwas angehen. Die Chatbots haben zudem nicht dieselben Sicherheitsvorkehrungen wie eure Bank beim Onlinebanking oder Anbieter:innen von Krypto-Wallets.
Medizinische Daten und Informationen über Krankheiten
Auch wenn laut Studien noch viele Menschen skeptisch sind, wenn sie ChatGPT nach medizinischem Rat fragen: Es ist verlockend, die KI bei ersten Symptomen, um Rat zu fragen und sich so den Gang zu Ärzt:innen zu sparen. Wenn ihr hier aber eure Krankengeschichte eintippt und abschickt, bekommen die KI-Tools einen viel zu tiefgreifenden Einblick in euer Leben. Diese Daten gehen nur euch und eure Ärzt:innen etwas an.
Wollt ihr unbedingt ChatGPT für eine medizinische Auskunft nutzen, solltet ihr eure Daten weitestgehend anonymisieren. Fragt die KI also nicht nach euch, sondern nach einer Person mit euren körperlichen Eckdaten und einem Ratschlag, wie die Person sich in dieser Situation verhalten sollte. Je allgemeiner ihr werdet, desto sicherer sind eure Daten. Allerdings könnte die Antwort dann auch zu allgemein ausfallen und euch bei eurem Problem nicht weiterhelfen. In solchen Fällen solltet ihr euch mit euren medizinischen Sorgen weiterhin an Menschen wenden.
Vertrauliche Unternehmensinformationen
Im Arbeitsfeld kommen immer mehr KI-Tools wie ChatGPT und Microsoft Copilot zum Einsatz. Bei all der Unterstützung ist schnell vergessen, auf wie viele Daten die künstliche Intelligenz zugreifen kann. Das ist besonders bei Unternehmen kritisch, die der KI nicht nur Zugriff auf ihre eigenen Strukturen geben, sondern auch noch Kundendaten einbinden.
Wenn Arbeitgeber:innen oder Arbeitnehmer:innen ChatGPT und Copilot zu viel Vertrauen schenken, können dadurch selbst vertrauliche Meeting-Zusammenfassungen sowie Finanz- und Kundeninfos bei der KI landen. Dementsprechend sollten sich Unternehmen vor der Einführung neuer KI-Tools im Klaren sein, wie viele Daten die Programme bekommen – und Mitarbeiter:innen für einen verantwortungsvollen Umgang mit der KI schulen.
Anfragen zu illegalen Aktivitäten
Abgesehen davon, dass ihr grundsätzlich nicht gegen geltendes Recht verstoßen solltet: Im Gespräch mit einer KI solche Taten auch nur im Scherz anzudeuten, könnte euch in Schwierigkeiten bringen. In einigen Fällen kann es vorkommen, dass eure Anfragen von den Verantwortlichen hinter der KI an Behörden weitergeleitet werden. Wenn ihr also ChatGPT nur zum Spaß fragt, wo ihr am besten eine Leiche verstecken solltet, könnte unter Umständen die Polizei vor eurer Tür stehen.
Dieser Artikel wurde ursprünglich am 16.04.2025 veröffentlicht. Aufgrund des hohen Interesses unserer Leser:innen haben wir ihn erneut publiziert.