ChatGPT & Co – wie steht’s mit dem Datenschutz?
Es ist bemerkenswert, dass noch bis vor Kurzem wenig Diskussionen über die Einhaltung des Datenschutzes im Zusammenhang mit ChatGPT und anderen KI-Tools stattgefunden haben.
KI ohne ausreichende Rechtsgrundlage mit personenbezogenen Daten trainiert
Eine valide Analyse dazu gestaltet sich jedoch tatsächlich schwierig, da die Algorithmen hinter ChatGPT & Co, auch nach Ansicht von Datenschutzbehörden, eine „Blackbox“ darstellen.
Problematisch ist diese Intransparenz, weil solche Anwendungen der Künstlichen Intelligenz bereits seit einigen Jahren mit Unmengen von Informationen inklusive personenbezogener Daten gefüttert wurden, um sie zu trainieren – ohne Einwilligung oder Information der Personen, deren Daten in den Bestand aufgenommen wurden. Und mit jeder Eingabe lernt die KI weiter, da sie auf der Technik „Reinforcement Learning from Human Feedback“ (RLHF) fußt (siehe https://ogy.de/gespraech-mit-den-machern).
Dass OpenAI, das Unternehmen hinter ChatGPT, entsprechende valide Rechtsgrundlagen für diese massenhafte Verarbeitung personenbezogener Daten von EU-Bürgern hatte und hat, darf bezweifelt werden. Gleiches gilt für Alphabet und seinen Chatbot „Bard“. Wer beispielsweise ChatGPT selbst danach fragt, erhält die Auskunft, dass sämtliche Trainingsdaten vorher anonymisiert sowie alle personenbeziehbaren Merkmale und Kennungen entfernt wurden.
Überprüfen lässt sich das nicht. Und selbst wenn es stimmen sollte, so bedarf bereits der Anonymisierungsvorgang nach Ansicht deutscher Datenschutzbehörden einer Rechtsgrundlage nach Datens…