KI als doppeltes Datenrisiko
Wie so vieles hat auch die Künstliche Intelligenz (KI) zwei Seiten. So kann sie auf der einen Seite das Erkennen und Abwehren von Cyberangriffen verbessern. Auf der anderen Seite kann KI jedoch selbst zum Datenrisiko werden, indem sie Daten zweckentfremdet oder intransparent verarbeitet. Die EU-Agentur für Cybersicherheit ENISA warnt deshalb vor der Manipulation und dem Missbrauch von KI. Datenschutzbeauftragte sind hier stark gefordert.
Beispiel: Datenschutz bei der Fachkräftesuche
Jedes zweite Unternehmen hofft auf KI, um den Fachkräftemangel zu lindern, so der Digitalverband Bitkom in einer repräsentativen Studie zum Arbeitsmarkt für IT-Fachkräfte (Stand 12/2023). Dabei erwarten die Unternehmen, dass KI
- die Beschäftigten bei Standardaufgaben entlastet (57 %), die individuelle Weiterbildung optimiert (51 %) und
- IT-Fachkräfte z.B. beim Programmieren unterstützen kann (42 %).
In 40 % der befragten Unternehmen glaubt man, dass sich nahezu alle Tätigkeiten verändern werden. Vierundvierzig Prozent der Befragten meinen, die KI werde die Beschäftigten überfordern. Ohne Zweifel wird KI dabei auch personenbezogene Daten verarbeiten. Aus gutem Grund drängen die Datenschutzaufsichtsbehörden deshalb darauf, dass KI-Lösungen nach den Forderungen der Datenschutz-Grundverordnung DSGVO) geprüft, ausgewählt und betrieben werden. Ein zentrales Dokument für den Datenschutz bei KI ist weiterhin die sogenannte Hambacher Erklärung zur KI. Doch die darin dargelegten Datenrisiken durch KI-Nutzung sind nicht alles. KI beeinflusst auch die …