Zum Inhalt springen
Christoph Sorge
Professor, Saarland University (Chair of Legal Informatics), Saarbrücken, Germany
30 August 2021| doi: 10.5281/zenodo.5243288

Mythos: Bei KI-Modellen handelt es sich um Abstraktionen, die keine personenbezogenen Daten benötigen

Beim überwachten maschinellen Lernen sind die eingesetzten Modelle Abstraktionen der Trainingsdaten. Während diese Modelle strukturelle Informationen enthalten müssen, sollten sie jedoch nicht zu genau an die Trainingsdaten angepasst werden. Es wäre demnach folgerichtig, sie im Wesentlichen als anonyme Modelle zu betrachten. Allerdings hat die Forschung gezeigt, dass diese Annahme in einigen Fällen falsch ist. Daher müssen auch bei der Entwicklung und dem Einsatz von KI-Modellen datenschutzrechtliche Überlegungen eine Rolle spielen.

Mythos

KI-Modelle sind Abstraktionen, die keine personenbezogenen Daten benötigen.

 

KI-Modelle sind Abstraktionen, die personenbezogene Daten beinhalten können – aber nicht müssen. Deswegen muss das Datenschutzrecht hierbei immer berücksichtigt werden.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Shokri, R., Stronati, M., Song, C. & Shmatikov, V. (2016). Membership Inference Attacks Against Machine Learning Models.

Al-Rubaie, M. & Chang, J. M. (2019). Privacy-Preserving Machine Learning: Threats and Solutions. EEE Security & Privacy, 17(2), 49-58.

Liu, B., Ding, M., Shaham, S., Rahayu, W., Farokhi, F. & Lin, Z. (2021). When Machine Learning Meets Privacy: A Survey and Outlook. ACM Computing Surveys, 54(2), 1-36.

Über die Autorinnen

Foto: Oliver Dietze

Christoph Sorge

Professor, Universität des Saarlandes (Lehrstuhl für Rechtsinformatik), Saarbrücken, Deutschland

Christoph Sorge promovierte in Informatik am Karlsruher Institut für Technologie. Anschließend arbeitete er als Forscher bei NEC Laboratories Europe, in der Network Research Division. Ab 2010 war Christoph Sorge als Juniorprofessor für Netzwerksicherheit an der Universität Paderborn tätig. Im Jahr 2014 wechselte er an die Universität des Saarlandes, wo er nun eine ordentliche Professur für Rechtsinformatik innehat. Während er in erster Linie der juristischen Fakultät angehört, ist er auch kooptierter Professor für Informatik. Er ist assoziiertes Mitglied des CISPA – Helmholtz-Zentrums für Informationssicherheit, Senior Fellow des Deutschen Forschungsinstituts für öffentliche Verwaltung und Vorstandsmitglied der Deutschen Gesellschaft für Informatik in der Justiz. Sein Forschungsgebiet ist die Schnittstelle zwischen Informatik und Recht, mit einem Schwerpunkt auf dem Datenschutz.

@legalinf

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.