LfD Niedersachsen zu KI-Expertengesprächen: „Transparenz und Datenschutz von Beginn an sind der Schlüssel für eine vertrauenswürdige KI“
Der Landesbeauftragte für den Datenschutz Niedersachsen | Pressemitteilung Nr. 18/2024
Nach der dritten und letzten Sitzung seines KI-Expertenkreises hat der Landesbeauftragte für den Datenschutz (LfD) Niedersachsen, Denis Lehmkemper, ein positives Fazit gezogen. So hätten die Gespräche einerseits datenschutzrechtliche Problemfelder beim Einsatz von Künstlicher Intelligenz genauer herausarbeiten können, andererseits erste Lösungswege für die Aufsicht, Unternehmen und die Wissenschaft aufgezeigt.
Die Datenschutzbehörde fasst die Ergebnisse der Gespräche nun zusammen, bewertet sie und wird sie im kommenden Jahr dem Niedersächsischen Landtag übergeben. Anschließend sollen sie zudem einer breiteren Öffentlichkeit präsentiert werden.
Ziel der Datenschutzaufsicht Niedersachsen ist es, mit den Ergebnissen die Entwicklung Künstlicher Intelligenz konstruktiv zu begleiten. „Wir sind überzeugt davon, dass die Entwicklung datenschutzkonformer und vertrauenswürdiger KI-Systeme möglich ist“, so Denis Lehmkemper. Dies sei ein echter Mehrwert und schaffe Vertrauen und Akzeptanz bei den Bürgerinnen und Bürgern. Zudem könnten solche Systeme dann besser und vor allem rechtssicher von Unternehmen und Verwaltungen eingesetzt werden. „Die Schlüssel dafür sind von Beginn an mitgedachte Datenschutzmaßnahmen und mehr Transparenz bei Trainingsmaterial und Output von KI-Systemen.“
In drei Gesprächsrunden hatten Expertinnen und Experten aus Forschung, Wirtschaft, Verwaltung und Gesellschaft über die Umsetzung des Datenschutzrechts bei KI-Systemen diskutiert und auch die wirtschaftlichen und gesellschaftlichen Zusammenhänge erörtert.
Datenschutz: KI-Anbieter reizen technische Möglichkeiten nicht aus
Bei den Treffen ging es unter anderem um die Rechtmäßigkeit des Trainings von KI-Systemen mit personenbezogenen Daten und die Gewährleistung der Datenschutzgrundsätze, insbesondere der Datenminimierung und Speicherbegrenzung durch Anonymisierung personenbezogener Trainingsdaten.
Hier stellten die Expertinnen und Experten fest, dass in vielen Bereichen bereits deutlich mehr technische Möglichkeiten für einen verbesserten Datenschutz etwa zum Anonymisieren von Trainingsmaterial und zum Filtern von Ergebnissen vorhanden sind, als von den meisten Anbietern aktuell im Sinne eines „Datenschutzes by Design“ genutzt werden.
Grundsatz der Richtigkeit & Bias-Mechanismen
Im letzten KI-Expertengespräch am 11. Dezember 2024 lag der Schwerpunkt auf dem Grundsatz der Richtigkeit von personenbezogenen Outputs. Dieser besagt gemäß der Datenschutz-Grundverordnung, dass personenbezogene Daten sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein müssen. Und er fordert von dem Verantwortlichen, alle angemessenen Maßnahmen zu treffen, um unrichtige personenbezogene Daten unverzüglich zu löschen oder zu berichtigen. Diese Anforderung ist bei KI-Systemen besonders herausfordernd, da Outputs weder vorhersagbar sind noch eine gezielte Fehlerkorrektur im System möglich ist.
Fehlerhafte Ergebnisse führten für die Betreiber von KI-Systemen nicht nur zu einem Qualitätsproblem, sondern in Bezug auf personenbezogene Daten möglicherweise auch zu einem Rechtsverstoß. Umso wichtiger sei es deshalb, nicht nur durch Filtertechniken, die einem Output vorgeschaltet werden, Korrekturen zu erzeugen, sondern weitere systemimmanente Korrekturmöglichkeiten zu entwickeln.
Ebenfalls thematisierten die Expertinnen und Experten die Ausprägungen von systematischen Verzerrungen oder Ungleichgewichten von generativen KI-Systemen, die zu sogenanntem Bias führen.
Datenschutzaufsicht profitiert von Gesprächen
Die Ergebnisse der Gesprächsrunden sollen der Datenschutzaufsicht einerseits helfen, praxisorientiert mit den neuen Fragestellungen rund um Künstliche Intelligenz umzugehen. Zum anderen sollen sie dem Niedersächsischen Landtag zur Verfügung gestellt werden, um Impulse zur Förderung datenschutzkonformer KI-Systeme an die Politik zu adressieren.