Künstliche Intelligenz lernt aus den Informationen, mit denen sie gefüttert wird. Je mehr Daten sie als Lernmaterial bekommt, desto besser sind die Ergebnisse. Um der KI genügend Daten zur Verfügung zu stellen, greifen KI-Entwickler auch auf öffentlich zugängliche Daten aus dem Internet und den sozialen Medien zurück. Das hat Konsequenzen für den Datenschutz.
Bürger und öffentliche Stellen sollten abwägen, welche Informationen sie online teilen. Darauf macht der bayerische Landesbeauftragte für Datenschutz aufmerksam. Denn vor allem Fotos geben mehr preis, als dem Ersteller oder dem Abgebildeten bewusst ist. Sie enthalten Metadaten, die zeigen, wann, von wem und wo das Foto aufgenommen wurde. Gesichtserkennungsprogramme oder Gesichtserkennungs-Suchmaschinen können außerdem die Personen auf einem Foto identifizieren.
Welche Konsequenzen das für den Einzelnen haben kann, ist noch nicht absehbar. Möglich wäre z. B. eine Fehlzuordnung bei einer Strafverfolgung oder die unbewusste Preisgabe des Aufenthaltsortes eines Politikers.
In Zukunft Gesichter verpixeln?
Der bayerische Landesbeauftragte für Datenschutz (BayLfd) empfiehlt den öffentlichen Stellen deshalb, vorsichtig und zurückhaltend bei der Veröffentlichung von Fotos zu sein. Wenn Personen auf Fotos erkennbar sind, sollten die Metadaten mit Hilfe entsprechender Tools entfernt und die Indexierung durch KI-Suchmaschinen verhindert werden. Auch sollte die Möglichkeit der Verpixelung von Gesichtern, gerade bei Personen, die sich zufällig im Hintergrund aufhalten, geprüft werden.
Kein KI-Training mit Nutzerdaten in Europa
Der BayLfD fordert Bürger auf, sich genau zu überlegen, ob und welche Daten oder Fotos sie online teilen wollen, und entsprechende Schutzmaßnahmen zu treffen. Auch soziale Medien verfügen über Datenschutzeinstellungen. Es kann beispielsweise festgelegt werden, wer die Beiträge sehen darf. Dabei sollte die Einstellung "öffentlich" vermieden werden. Denn der Konzern Meta, Betreiber von Instagram und Facebook, plant, öffentliche Beiträge und Fotos zum Training eigener KI-Modelle zu verwenden, wenn der Nutzer dem nicht ausdrücklich widerspricht. Nach dem Protest verschiedener Verbände verzichtet Meta in Europa vorläufig auf das KI-Training mit Nutzerdaten und kündigt an, über einen neuen Termin zu informieren.
Mehr Informationen finden Sie hier bei der GKDS Bayern