Datenschutz

BayLDA: How to KI?

08.07.2024

Zusammenfassung

Die kürzlich veröffentlichte Checkliste des Bayerischen Landesamt für Datenschutz legt Anforderungen an die Entwicklung und Nutzung von KI-Anwendungen fest und betont die Notwendigkeit ständiger Anpassungen zur Harmonisierung mit deutschen und europäischen Datenschutzvorgaben. Die Prüfpunkte dienen als Good-Practice-Ansatz und sollen datenschutzrechtliche Anforderungen im Einsatz von Künstlicher Intelligenz berücksichtigen.

5 Minuten Lesezeit

Die bayerische Datenschutz-Aufsichtsbehörde hat eine neue Checkliste zur Datenschutzkonformität bei der Herstellung und Nutzung von Künstlicher Intelligenz (KI) veröffentlicht. Dieses Dokument stellt Anforderungen an die Entwicklung und den Einsatz von KI-Anwendungen dar und dient als Good-Practice-Ansatz für eine Soll-Ist-Überprüfung. Aufgrund der schnellen Entwicklungen im Bereich KI sind laufend Anpassungen zur Harmonisierung mit deutschen und europäischen Datenschutzpositionen erforderlich. Die Checkliste sollte daher nicht abschließend verstanden werden, sondern vielmehr als Orientierung, was von Behördenseite grundsätzlich erwartet wird.

Training von KI-Modellen

Nach einführenden und erklärenden Worten, findet sich eine erste Checkliste zum (möglichst) datenschutzkonformen Training von KI-Modellen, die u.a. auf folgende Aspekte Wert legt:

  1. Planung und Dokumentation der KI-Technologie
  • Festlegung und Dokumentation, insbesondere der internen Architektur und der gewählten Parameter
  • Bewertung der Trainingsdaten auf personenbezogene Informationen
  • Dokumentation der Trainingsdatenquellen im Sinne der Rechenschaftspflicht
  1. Datenschutz und rechtliche Rahmenbedingungen
  • Aufnahme des Trainings von KI-Modellen in das Verzeichnis der Verarbeitungstätigkeiten ( 30 DSGVO)
  • Prüfung und Dokumentation der Notwendigkeit einer Datenschutzfolgenabschätzung ( 35 DSGVO)
  • Sicherstellung der Rechtsgrundlage für die Verwendung personenbezogener Trainingsdaten
  • Umsetzung der Transparenzpflichten ( 12 ff. DSGVO)
  1. Datenqualität und -sicherheit
  • Prüfung der Möglichkeit, KI-Training mit anonymen, synthetischen oder pseudonymen Daten durchzuführen
  • Sicherstellen der Datenqualität und Bereinigung von Verzerrungen und Voreingenommenheit („Bias“)
  • Aussonderung unerlaubter Inhalte und Bereinigung nicht erforderlicher personenbezogener Daten
  1. Risikomanagement und Modellbewertung
  • Erstellung und Anwendung eines Risikomodells zur Nachweisführung im Sinne der Rechenschaftspflicht ( 5 Abs. 2 DSGVO)
  • Restrisikobeurteilung und (potenzielle) Konsultation der Datenschutzaufsichtsbehörde ( 35 und 36 DSGVO)
  1. Dienstleister und Betrieb
  • Prüfung geeigneter Garantien und Rechtsgrundlagen bei der Beauftragung von Dienstleistern
  • Sicherstellung der Zweckbindung und Einhaltung der Informationspflichten bei Datenweitergabe
  • Bereitstellung und Verwendung von Validierungsdaten zur Qualitätsprüfung des KI-Modells

 

Bewertung von Risiken bei KI

Wie angesprochen ist es unerlässlich ein gewisses Risikomodell zu erstellen. Wie ein solches aussehen könnte, soll sich an folgenden Prinzipien messen:

  • Fairness“ im Sinne, dass keine unvertretbaren Risiken in Bezug auf Diskriminierung oder Ungleichbehandlung vorhanden sind.
  • Autonomie und Kontrolle“ im Sinne, dass Eingriffsmöglichkeiten in den Betrieb einer KI-Anwendung existieren bzw. Entscheidungen mit Rechtswirkung nicht ohne menschliche Kontrolle erfolgen.
  • Transparenz“ im Sinne, dass zum einen die Betroffenen über deren Verwendung personenbezogener Daten beim Training von KI-Modellen informiert werden als auch derart, dass KI-Modelle und KI-Anwendungen prüfbar im Sinne der Rechenschaftspflicht sein müssen. Ebenfalls auch, dass KI-Anwendungen für Betroffene in der Interaktion als solche erkannt werden müssen (z. B. ChatBots oder Anpassung von Audiosignalen zur Imitation eines Sprechers).
  • Verlässlichkeit“ im Sinne, dass ein KI-Modell bzw. eine KI-Anwendung zum einen seinen beabsichtigten Zweck innerhalb tolerierbaren Fehlergrenzen erfüllt, als auch, dass diese vor absichtlichen Manipulationen (sog. Adversial Angriffe bspw. mittels Prompt-Injection bei Großen Sprachmodellen oder Störung bei der Erkennung von Verkehrsschilderung durch spezielle „Aufkleber“) geschützt sind. Auch das sog. Halluzinieren (oder Konfabulieren) bei Großen Sprachmodellen, bei dem Falschausgaben in einer ansonsten flüssig formulierten Ausgabe mitunter unerkannt auftauchen können, gehört in diesen Bereich.
  • Sicherheit“ in dem Sinne, dass ungewollte technische Störungen („Safety“ wie Hardwarefehler aufgrund ungenügendem Arbeitsspeicher), aber vor allem unbefugte Zugriffe/Änderungen („Security“ wie die Manipulation von Trainingsdaten bei der KI-Modellerzeugung oder Manipulation von „Filtern“, die als Zensurmechanismus missbraucht werden können) wirksam verhindert werden können.
  • Datenschutz“ im Sinne, dass neben einer Rechtsgrundlage für das Erzeugen von KI-Modellen und dem Betrieb/dem Einsatz von KI-Anwendungen auch die Betroffenenrechte sowie weiteren Compliance-Anforderungen der DS-GVO umgesetzt werden müssen. Dazu gehört auch die Zweckänderung von Eingabedaten an eine KI-Anwendung durch einen KI-Betreiber zu eigenen Zwecken. Wichtig: Datenschutzrisiken nach der DS-GVO können auch die oben genannten Risiken der Abweichung der „Fairness“, der „Autonomie und Kontrolle“, der „Transparenz“, der „Verlässlichkeit“ und der „Sicherheit“ umfassen, sofern personenbezogene Daten bei diesen Schutzzielen eine Rolle spielen.

 

Einsatz einer KI-Anwendung

Außerdem zeigt die Checkliste Rahmenbedingungen auf, die beim Einsatz eines trainierten KI-Modells zu beachten sind:

  1. Planung und Dokumentation der KI-Anwendung
  • Festlegung und Dokumentation der Art und des Zwecks der KI-Anwendung (z.B. ChatBot für eine Bank)
  • Entscheidung, ob ein eigenes oder ein externes Modell eines KI-Anbieters genutzt werden soll und wird
  1. Datenschutz und rechtliche Rahmenbedingungen
  • Erfüllen der Rechenschaftspflicht (Verzeichnis der Verarbeitungstätigkeiten, potenzielle Datenschutzfolgenabschätzung)
  • Umsetzung der Transparenzanforderungen (insbesondere Betroffenenrechte)
  1. Risikomanagement und Modellbewertung
  • Erstellung eines Risikomodells zur Abbildung und Nachweisführung der Datenschutzrisiken, auch im Rahmen der Rechenschaftspflicht
  • Umgang mit Risiken, die sich aus der fehlerhaften Verlässlichkeit des Modells ergeben
  1. Protokollierung und Schulung
  • Dokumentation und regelmäßige Überprüfung des KI-Einsatzes und des Datenschutz-Risikomodells auf Aktualität und Vollständigkeit
  • Aufnahme des Einsatzes von KI-Anwendungen in das Schulungsprogramm zum Datenschutz
  1. Kontrolle und Anpassung im Betrieb
  • Sicherstellen, dass Datenempfänger von KI-as-a-Service Eingabe- und Ausgabedaten nicht für eigene Zwecke verwenden
  • Dokumentation der Risikobeurteilung und Freigabetests bei Modellanpassungen im Betrieb

 

Fazit: Eine erste Orientierung

Die Checkliste zum datenschutzkonformen Einsatz von KI bietet Unternehmen eine erste Orientierung und unterstützt das Risikomanagement. Sie hilft bei der Einhaltung rechtlicher Rahmenbedingungen, der Festlegung von Datenschutzmaßnahmen und der Dokumentation, wodurch der Versuch verantwortungsvoller und sicherer Nutzung von KI-Technologien nachgewiesen werden kann.

Michael Wehowsky

Über den Autor - Datenschutzbeauftragter Michael Wehowsky

Herr Michael Wehowsky ist zertifizierter Datenschutzbeauftragter (udis) und zertifizierter Berater im Datenschutzrecht (FernUniversität Hagen). Darüberhinaus ist er Certified Information Privacy Professional Europe (CIPP/E) und Certified Information Privacy Technologist (CIPT), jeweils durch die iapp. - In seiner Funktion als Teil des Beratungsteams unterstützt er Unternehmen verschiedenster Ausrichtung und Größe im Datenschutz in deutscher, englischer und italienischer Sprache.

Beitrag teilen:

0 Kommentar zu diesem Beitrag:

Kommentar schreiben:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

IITR Chatbot IITR Chatbot