Unsere vernetzte Welt verstehen
Ein Schritt vor, zwei zurück: Warum Künstliche Intelligenz derzeit vor allem die Vergangenheit vorhersagt
Künstliche Intelligenz (KI) wird von vielen als Technologie der Zukunft gefeiert, doch blickt sie selbst vor allem in die Vergangenheit. Dieser Blogartikel beleuchtet, warum KI-Systeme oft alte Muster reproduzieren, statt fortschrittliche Lösungen zu entwickeln. Welche Rolle spielen historische Daten bei den Vorhersagen und Entscheidungen von KI? Wie werden bestehende Ungleichheiten und die Benachteiligung von Menschen in unserer Gesellschaft durch KI-Systeme vertieft – und was bedeutet das für die soziale Gerechtigkeit?
Der zunehmende Einsatz von KI in vielen Bereichen unseres Alltags hat den Diskurs um die vermeintliche Allmacht der Maschine angeheizt.[i] Die Versprechen schwanken zwischen einem wahren Hype um die problemlösenden Assistenten und der dystopischen Vorstellung, diese könnten den Menschen irgendwann ersetzen. Obwohl dieser Punkt noch weit in der Zukunft liegt, setzen staatliche und nicht-staatliche Akteure große Hoffnungen in KI-gesteuerte, vermeintlich effizientere und optimierte Prozesse.
Künstliche Intelligenz begegnet uns überall im Alltag, zum Beispiel wenn sie uns ohne Umwege zum Ziel führt oder unsere Mails vorsortiert. Was viele allerdings nicht wissen ist, dass sie zunehmend auch eingesetzt wird, um auf verschiedenen gesellschaftlichen Ebenen Vorhersagen über zukünftige Ereignisse zu treffen. Von der Wettervorhersage über den Finanzmarkt bis hin zur medizinischen Diagnose versprechen KI-Systeme eine präzisere Vorhersage und bessere Entscheidungsfindung. Diese Vorhersagen basieren auf historischen Trainingsdatensätzen, die den KI-Technologien zugrunde liegen und auf deren Basis sie arbeiten. Genauer gesagt: Viele KI-Systeme gründen auf Algorithmen des maschinellen Lernens. Diese Algorithmen analysieren historische Daten, um darin Muster zu erkennen und nutzen diese, um für uns die Zukunft zu prognostizieren. Das bedeutet jedoch im Umkehrschluss, dass die oft angenommene Neutralität oder das Gefühl der Objektivität von KI-Systemen eine Illusion ist. In Wirklichkeit neigen derzeitige KI-Systeme, besonders aufgrund unzureichender und lückenhafter Trainingsdaten dazu, vergangene Muster zu reproduzieren. Dadurch festigen sie schon bestehende soziale Ungleichheiten und Machtgefälle. Ein Beispiel: Wenn ein KI-System für Jobbewerbungen auf historischen Daten basiert, die hauptsächlich von einer bestimmten Bevölkerungsgruppe stammen (zum Beispiel weiß und cis-männlich), bevorzugt das System möglicherweise ähnliche Kandidaten in Zukunft. Dadurch werden bestehende Ungleichheiten auf dem Arbeitsmarkt verstärkt und marginalisierte Gruppen wie BIPoC, weiblich gelesene Personen/Frauen*, FLINTA/LGBTIQA+ weiter benachteiligt.
Machtgefälle und Perspektiven im KI-Diskurs – Wer genau imaginiert eigentlich die Zukunft?
Der Diskurs um Künstliche Intelligenz ist eng mit gesellschaftlichen Macht- und Herrschaftsverhältnissen und der Frage verbunden, wer die Deutungshoheit über diesen Diskurs hat. Dabei besteht ein Ungleichgewicht: Bestimmte Geschichten und Perspektiven dominieren die Entwicklung, Implementierung und Nutzung von KI-Technologie. Diese Dominanz hat tiefgreifende Auswirkungen auf die Art und Weise, wie KI wahrgenommen, verstanden und eingesetzt wird. Wer also die Geschichte erzählt und das Narrativ kontrolliert, hat auch die Macht, die öffentliche Meinung über KI zu lenken und zu formen. Für dieses sogenannte narrative Machtgefälle im Diskurs um KI gibt es mehrere Gründe.
In der aktuellen Technologielandschaft dominieren oft große Tech-Unternehmen und Akteure aus dem globalen Norden die KI-Erzählung. Diese Akteure haben die Ressourcen und die Macht, ihre Perspektiven und Interessen in den Vordergrund zu stellen. Das führt dazu, dass andere Stimmen, insbesondere aus marginalisierten oder minorisierten Gruppen, unterrepräsentiert bleiben und nicht ausreichend gehört werden. Hinzu kommt die Art und Weise, wie KI medial in der Öffentlichkeit dargestellt wird. Hier wird KI oft vereinfacht erklärt, was der Komplexität der realen Auswirkungen von KI auf die Gesellschaft keinesfalls gerecht wird.
Das narrative Machtgefälle entsteht, weil die Teams, die KI entwickeln, häufig nicht divers sind. Wenn hauptsächlich weiße, cis-männliche Perspektiven aus ressourcenstarken Regionen in die Entwicklung einfließen, bleiben andere Perspektiven und Bedürfnisse unberücksichtigt. Ein Beispiel sind KI-Systeme zur Bewertung von Kreditwürdigkeit einzelner Menschen: Diese Algorithmen basieren häufig auf historischen Daten, die von Bevölkerungsgruppen dominiert werden, die bereits Zugang zu Krediten hatten, wie weiße, cis-männliche Personen aus wirtschaftlich starken Regionen. Dadurch werden Menschen aus marginalisierten Gruppen, wie Frauen, People of Colour oder Menschen aus einkommensschwachen Gegenden, systematisch benachteiligt. Ihre Anträge werden seltener genehmigt, weil die historischen Daten ihre Bedürfnisse und finanziellen Realitäten nicht widerspiegeln. Dies verstärkt wirtschaftliche Ungleichheiten und fördert ein Machtgefälle zugunsten ohnehin bereits privilegierter Gruppen. Gleiches gilt für die Regulierung und Governance von KI: diejenigen, die die Macht haben, Gesetze und Richtlinien zu erlassen, bestimmen, wie KI reguliert werden sollte.
Vergangenheit als Prophezeiung: Alte Muster und verzerrte Daten
Wie bereits erwähnt basieren KI-Systeme oft auf historischen Daten, die von bestehenden Machtverhältnissen und sozialen Ungleichheiten geprägt sind. Diese Verzerrungen werden von den Systemen übernommen und in ihre Vorhersagen eingebaut. Das führt dazu, dass alte Ungleichheiten nicht nur bestehen bleiben, sondern auch in die Zukunft projiziert werden. Dadurch entsteht ein Teufelskreis, in dem die Vergangenheit die Zukunft bestimmt und soziale Ungleichheiten weiter zementiert oder im schlimmsten Fall sogar verstärkt werden. Die Verwendung von KI-basierten Vorhersagesystemen führt so zu selbsterfüllenden Prophezeiungen, in denen bestimmte Gruppen bevorzugt oder benachteiligt werden, weil sie historisch immer schon bevorzugt oder benachteiligt wurden.
Regeln für KI: Wo steht die EU?
Der Diskurs über die politische Regulierung von Künstlicher Intelligenz hinkt oft der schnellen Entwicklung der Technologie hinterher. Die Europäische Union hat schließlich nach langen Verhandlungsrunden den AI Act auf den Weg gebracht. Sowohl UNESCO, als auch EU haben schon vor einigen Jahren auf die Risiken beim Einsatz von KI in (sensiblen) gesellschaftlichen Bereichen hingewiesen. Laut Europäischer Kommission könnten KI-Systeme die Werte der EU gefährden und Grundrechte wie Meinungsfreiheit, Nichtdiskriminierung und Schutz personenbezogener Daten beeinträchtigen. Sie schreibt:
„Durch den Einsatz von KI können die Werte, auf die sich die EU gründet, gefährdet und Grundrechte verletzt werden. Dazu gehören die Meinungsfreiheit, die Vereinigungsfreiheit, die Achtung der Menschenwürde, die Nichtdiskriminierung aus Gründen des Geschlechts, der Rasse oder der ethnischen Herkunft, der Religion oder der Weltanschauung, einer Behinderung, des Alters oder der sexuellen Ausrichtung, der Schutz personenbezogener Daten und der Privatsphäre, das Recht auf einen wirksamen Rechtsbehelf und ein faires Verfahren sowie der Verbraucherschutz.“ (Europäische Kommission 2020:11)
Die UNESCO betont zudem, dass geschlechtsspezifische Stereotypen und Diskriminierung in KI-Systemen vermieden und aktiv bekämpft werden müssen (UNESCO 2021:32). Dafür startete die UNESCO 2022 das Projekt “Women for Ethical AI”, um Geschlechtergerechtigkeit in die KI-Agenda zu integrieren. Auch das UN AI Advisory Board fordert eine gemeinwohlorientierte KI und hebt Gender als wichtiges Querschnittsthema hervor. In Deutschland hingegen fehlen aktuell noch konkrete Regelungen zur Vermeidung algorithmischer Diskriminierung in diesem Bereich. Hier müsste insbesondere das Allgemeine Antidiskriminierungsgesetz (AGG) angepasst werden.
Mit dem Artificial Intelligence Act hat die Europäische Union nun einen bedeutsamen Schritt in Richtung KI-Regulierung unternommen. Doch spezifische Regelungen zur Geschlechtergleichstellung sind bisher nicht fest verankert. Das Gesetz folgt einem risikobasierten Ansatz, um zu gewährleisten, dass der Einsatz KI-basierter Systeme keine negativen Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen hat. Die jeweiligen gesetzlichen Auflagen hängen von dem jeweiligen Risikopotential eines KI-Systems ab: Inakzeptabel risikoreiche Systeme sind verboten, Hochrisiko-Systeme unterliegen bestimmten Regeln und risikoarme KI-Systeme sind keinen Auflagen unterworfen. Einige Anwendungen zum sogenannten Social Scoring und Predictive Policing sollen dadurch verboten werden. Social Scoring bezeichnet die Bewertung von Individuen anhand ihrer persönlichen Daten wie Kreditverhalten, Verkehrsverstößen oder sozialem Engagement, um ihren Zugang zu bestimmten Dienstleistungen oder Privilegien zu steuern. Predictive Policing hingegen nutzt KI, um auf Basis von Datenanalysen potenzielle zukünftige Straftaten vorherzusagen und präventive Maßnahmen zu ergreifen. Beide Praktiken stehen in der Kritik, da sie zu Diskriminierung, Verletzung der Privatsphäre und sozialer Kontrolle führen können. Es gibt aber auch hier Ausnahmen im Kontext der „nationalen Sicherheit“ (AI Act 2024, Artikel 2).
Lücken im AI Act
Kritische Stimmen wie Algorithm Watch bemängeln deshalb, dass der AI Act zwar den Einsatz von Gesichtserkennung durch Strafverfolgungsbehörden an öffentlichen Orten einschränke, allerdings auch eine Menge Schlupflöcher enthalte (Vieth-Ditlmann/Sombetzki 2024). Ebenso wird die Anerkennung der Gefahr durch „(unfaire) Verzerrung“ im Gesetzestext an vielen Stellen genannt, jedoch wenig konkret adressiert. So tauchen Geschlecht, race und weitere Aspekte als Diskriminierungskategorien auf. Ein konkreter Aufruf zur Verhinderung von Verzerrungen (sogenannte Biases) in Datensätzen und Ergebnissen findet sich aber nur in Artikel 10 in den Absätzen 2f) und 2g) im Hinblick auf sogenannte Hochrisiko-Systeme. Dort werden “geeignete Maßnahmen” zur Erkennung, Verhinderung und Abschwächung möglicher Biases gefordert. Die Frage, was diese „geeignete Maßnahmen“ sind, wird allerdings erst die Rechtsanwendung zeigen können. Eine entsprechende Definition steht – auch mit Blick auf die stark unterschiedlichen Systeme – noch aus. Welche Schlüsse lassen sich an dieser Stelle aus der Regulierungsdebatte ziehen?
Um zu verhindern, dass diskriminierende Praktiken in KI-Technologien übertragen werden, muss der Fokus auf Datensätzen liegen, die die gesamte Gesellschaft abbilden. Der AI Act legt das in Artikel 10, Absatz 3 nur vage fest. Dort steht, dass die Daten “hinreichend repräsentativ und im Hinblick auf den beabsichtigten Zweck so weit wie möglich fehlerfrei und vollständig” sein müssen. Diese Vorgaben bieten jedoch Spielraum für unterschiedliche Auslegungen.
Eine mögliche Lösung besteht zum Beispiel darin, synthetische Daten zu verwenden. Dabei handelt es sich um künstlich erzeugte Informationen, die reale Daten simulieren, um Lücken im Datensatz zu schließen und Datenschutzprobleme zu vermeiden. Gleichzeitig sollte aber auch die Vielfalt in den Entwicklungsteams gefördert werden, um einseitige Vorurteile zu verhindern. Ob der AI Act hier die erhoffte Wirkung entfaltet, wird sich erst in der Praxis zeigen.
The God Trick[ii]
Die EU und andere Regulierungsbehörden haben zwar erkannt, dass Daten repräsentativ sein müssen, aber das allein reicht nicht aus. Denn das Problem ist zweifach: Einerseits fehlen oft wichtige Datenpunkte marginalisierter Gruppen in den Trainingsdatensätzen, andererseits sind diese Gruppen in bestimmten gesellschaftlichen Bereichen, wie etwa der Vergabe von Sozialleistungen, überproportional stark vertreten. Hier entsteht ein spannendes Paradoxon und ein weiterer Abzweig in der intersektionalen feministischen Kritik. Es sind nicht nur fehlende Datenpunkte, sondern auch die übermäßige Einbindung von Daten marginalisierter Gruppen in anderen Systeme. Regierungen verfügen oft über viel mehr Daten über arme oder marginalisierte Bevölkerungsgruppen als über ressourcenstarke, privilegierte Schichten. Diese übermäßige Erfassung führt zu Ungerechtigkeiten.
„Far too often, the problem is not that data about minoritized groups are missing but the reverse: the databases and data systems of powerful institutions are built on the excessive surveillance of minoritized groups. This results in women, people of color, and poor people, among others, being overrepresented in the data that these systems are premised upon.” (D’Ignazio/Klein 2020:39)
Ein Beispiel dafür ist das von Virginia Eubanks in Automating Inequality beschriebene System im Allegheny County, Pennsylvania. Ein algorithmisches Modell sollte dort das Risiko von Kindesmissbrauch vorhersagen, um gefährdete Kinder zu schützen. Doch während das Modell für ärmere Eltern, die auf öffentliche Dienstleistungen angewiesen sind, große Mengen an Daten sammelt – darunter Informationen aus dem Kinderschutz, Suchtbehandlungen, psychischen Gesundheitsdiensten und Medicaid –, fehlen solche Daten bei wohlhabenderen Eltern, die private Gesundheitsdienste nutzen. Das Ergebnis: Arme Familien werden überrepräsentiert und übermäßig als Risikofälle eingestuft, was oft zur Trennung von Kindern und Eltern führt. Eubanks beschreibt diesen Prozess als eine Verwechslung von „Elternschaft in Armut“ mit „schlechter Elternschaft“. Dies ist ein weiteres Beispiel dafür, wie voreingenommene Daten Ungleichheiten verstärken und die am stärksten benachteiligten Menschen in der Gesellschaft weiter unterdrücken.
Auch in Europa werden KI-Systeme zunehmend in sensiblen Bereichen eingesetzt, die weit über den Verbraucherschutz hinausgehen. In Österreich sollte das „Arbeitsmarktchancenmodell“ (AMAS) Sachbearbeiter*innen bei der Entscheidung unterstützen, wer anhand einer errechneten “Integrationschance” welche Ressourcen für z.B. Weiterbildungen erhält. Hier besteht die Gefahr, dass bestehende Ungleichheiten durch voreingenommene Daten verstärkt werden und Menschen mit geringeren Chancen auf dem Arbeitsmarkt benachteiligt werden. In Deutschland setzt das Predictive-Policing-System HessenData auf die umstrittene Software des US-Unternehmens Palantir, um Kriminalität vorherzusagen. Solche Technologien stehen unter Kritik, weil sie oft auf verzerrten Datensätzen basieren und dazu führen können, dass marginalisierte Gruppen wie People of Colour und einkommensschwache Menschen überproportional überwacht und kriminalisiert werden. Beide Beispiele zeigen, dass der Einsatz von KI in solchen Bereichen das Risiko birgt, bestehende Diskriminierungen zu zementieren, anstatt sie zu verringern.
Diese Verzerrungen machen es besonders schwer, gerechte und repräsentative KI-Systeme zu schaffen. Die Regulierung solcher Systeme wird dadurch erschwert, dass privilegierte Gruppen oft weniger stark überwacht werden und sich leichter gegen den Zugriff auf ihre Daten wehren können. Gleichzeitig haben marginalisierte Gruppen kaum Mittel, sich gegen die Nutzung ihrer Daten oder die diskriminierenden Ergebnisse solcher Systeme zur Wehr zu setzen. In vielen Fällen sind die Prozesse, in denen KI zum Einsatz kommt, undurchsichtig und Anfechtungsmöglichkeiten bleiben unklar. Dies alles zeigt, dass die Regulierung den technischen Entwicklungen oft hinterherhinkt und bestehende Machtstrukturen durch KI-Technologien weiter gefestigt werden.
Der Mensch im Loop – Menschen in der Kette
Angesichts dieser Herausforderungen wird in Regulierungsdebatten zunehmend die Rolle menschlicher Aufsicht ins Feld geführt. Ein zentraler Ansatz des AI Acts ist die Forderung nach „Human in the Loop“-Modellen, die sicherstellen sollen, dass Menschen in den Entscheidungsprozess von KI-Systemen eingebunden werden. In Artikel 14 des AI Acts wird gefordert, dass Hochrisiko-KI-Systeme so konzipiert werden, dass sie während ihrer Verwendung effektiv überwacht werden können. Dort heißt es:
„KI-Systeme mit hohem Risiko sind so zu konzipieren und zu entwickeln, dass sie während ihres Einsatzes von natürlichen Personen wirksam überwacht werden können; dazu gehören auch geeignete Instrumente für die Mensch-Maschine-Schnittstelle.“ (AI Act, Artikel 14)
Hier zeigt sich eine interessante Wende. Der Einsatz von KI wurde ursprünglich als Lösung zur Beseitigung von Diskriminierung und zum Zweck Diskriminierungsfreiheit gerechtfertigt. Vereinfacht gesagt: Maschinen, so die Überlegung, seien viel besser in der Lage, vorurteilsfrei zu urteilen und Entscheidungen fernab aller Diskriminierungslogiken und gesellschaftlichen Praktiken zu treffen. Die vorangegangene Argumentation dieses Artikels hat nun allerdings deutlich gemacht, warum sich dieses Versprechen bisher nicht erfüllt hat. Die Realität zeigt, dass menschliches Eingreifen nach wie vor notwendig ist, um sicherzustellen, dass automatisierte Entscheidungen nicht weiterhin Vorurteile reproduzieren. Aber welche Anforderungen müssen diese Menschen erfüllen, um tatsächlich bedeutsam einzugreifen? Welche Informationen benötigen sie? An welcher Stelle sollten sie eingebunden werden? Wie können wir sicherstellen, dass diese Interaktion nicht nur rechtssicher, sondern auch transparent und nachvollziehbar ist?
Das Alexander von Humboldt-Institut für Internet und Gesellschaft trägt mit seinem „Human in the Loop?“-Projekt aktiv dazu bei, diese Herausforderungen zu erforschen. Es untersucht neue Ansätze, wie Menschen sinnvoll in KI-Entscheidungsprozesse eingebunden werden können. Dabei zeigt sich ein spannender Kristallisationspunkt zwischen Vergangenheit und Zukunft: Während KI ursprünglich als Lösung zur Beseitigung von Vorurteilen konzipiert wurde, lehrt uns die Realität, dass menschliches Eingreifen weiterhin notwendig bleibt. Gleichzeitig ermöglicht die Forschung zu „Human in the Loop“-Modellen, neue Ansätze zu entwickeln, die das Zusammenspiel von Mensch und Maschine neu definieren. Am Schnittpunkt zwischen alten Arbeitsweisen und zukünftiger Wertschöpfung entsteht so ein Spannungsfeld, in dem Mensch und Maschine wechselseitig um Deutungshoheit ringen. Einen tieferen Einblick in die noch offenen Fragen dieser Mensch-Maschine-Interaktion bietet dieser Blogbeitrag.
Anmerkungen
[i] Dieser Beitrag basiert auf Überlegungen die ich schon hier und auf dem Blog des Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI) getätigt habe.
[ii] The God Trick von Donna Haraway (1988) verweist auf das Paradoxon des vermeintlich Allwissenden. Nach Haraway wird hier unter dem Deckmantel von Objektivität und Neutralität eine Position verallgemeinert, die im Kern stark gebiased ist (zumeist männlich, weiß, heterosexuell). Vielfach wurde in der Rezeption von Technologieentwicklung und Datenwissenschaft auf diese Metapher verwiesen, die sehr nah an dem liegt, was KI suggeriert. Spannende Gedanken zu diesem Kontext finden sich in Marcus (2020).
Quellen
Ahmed, Maryam (2024): Car insurance quotes higher in ethnically diverse areas. Online: https://www.bbc.com/news/business-68349396 [20.03.2024]
Biselli, Anna (2022): BAMF weitet automatische Sprachanalyse aus. Online: https://netzpolitik.org/2022/asylverfahren-bamf-weitet-automatische-sprachanalyse-aus/ [20.03.2024]
Boulamwini, Joy/Gebru, Timnit (2018): Gender Shades. Online: https://www.media.mit.edu/projects/gender-shades/overview/ [20.03.2024]
Bundesregierung (2020): Strategie Künstliche Intelligenz der Bundesregierung. Online: https://www.bundesregierung.de/breg-de/service/publikationen/strategie-kuenstliche-intelligenz-der-bundesregierung-fortschreibung-2020-1824642 [20.03.2024]
Deutscher Bundestag (2023): Sachstand. Regulierung von künstlicher Intelligenz in Deutschland. Online: https://bundestag.de/resource/blob/940164/51d5380e12b3e121af9937bc69afb6a7/WD-5-001-23-pdf-data.pdf [20.03.2024]
Europäische Kommission (2020a): EU Whitepaper. On Artificial Intelligence – A European approach to excellence and trust. Online: https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_en?filename=commission-white-paper-artificial-intelligence-feb2020_en.pdf [20.03.2024]
Köver, Chris (2019): Streit um den AMS-Algorithmus geht in die nächste Runde. Online: https://netzpolitik.org/2019/streit-um-den-ams-algorithmus-geht-in-die-naechste-runde/ [20.03.2024]
Leisegang, Daniel (2023): Automatisierte Datenanalyse für die vorbeugende Bekämpfung von Straftaten ist verfassungswidrig. Online: https://netzpolitik.org/2023/urteil-des-bundesverfassungsgerichts-automatisierte-datenanalyse-fuer-die-vorbeugende-bekaempfung-von-straftaten-ist-verfassungswidrig/ [20.03.2024]
Lütz, Fabian (2024): Regulierung von KI: auf der Suche nach „Gender“. Online: https://www.gender-blog.de/beitrag/regulierung-ki-gender [20.03.2024]
Netzforma (2020): Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus. Online: https://netzforma.org/wp-content/uploads/2021/01/2020_wenn-ki-dann-feministisch_netzforma.pdf [20.03.2024]
Pena, Paz/Varon, Joana (2021): Oppressive A.I.: Feminist Categories to Unterstand its Political Effect. Online: https://notmy.ai/news/oppressive-a-i-feminist-categories-to-understand-its-political-effects/ [20.03.2024]
Rau, Franziska (2023): Polizei Hamburg will ab Juli Verhalten automatisch scannen. Online: https://netzpolitik.org/2023/intelligente-videoueberwachung-polizei-hamburg-will-ab-juli-verhalten-automatisch-scannen/ [20.03.2024]
UN AI Advisory Board (2023): Governing AI for Humanity. Online: https://www.un.org/techenvoy/sites/www.un.org.techenvoy/files/ai_advisory_body_interim_report.pdf [20.03.2024]
UNESCO (2021): UNESCO recommendation on Artificial Intelligence. Online: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence [20.03.2024]
UNESCO (2022): Project Women4Ethical AI. Online: https://unesco.org/en/artificial-intelligence/women4ethical-ai [20.03.2024]
Legislative Entschließung des Parlaments vom 13.03.2024 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz und zur Änderung bestimmter Rechtsakte der Union (2024), TA (2024)0138. Online: https://www.europarl.europa.eu/RegData/seance_pleniere/textes_adoptes/definitif/2024/03-13/0138/P9_TA(2024)0138_DE.pdf [27.03.2024]
D’Ignazio, Catherin/Klein, Lauren F. (2020): Data Feminism. MIT Press.
Eubanks, Virginia (2018): Automating Inequality – How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
Haraway, Donna (1988): Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. In: Feminist Studies, 14. Jg, Heft 3, S. 575-599.
Koenecke, Allison et al. (2020): Racial disparities in automatic speech recognition. In: Proceedings of the National Academy of Sciences, Jg. 117, Heft 14, S. 7684-7689.
Kolleck, Alma/Orwat, Carsten (2020): Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen – ein Überblick. Online: https://publikationen.bibliothek.kit.edu/1000127166/94887549 [20.03.2024]
Rehak, Rainer (2023): Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative. In: Soziopolis: Gesellschaft beobachten.
Varon, Joana/Peña, Paz (2021): Artificial intelligence and consent: a feminist anti-colonial critique. In: Internet Policy Review. 10 (4). Online: https://policyreview.info/articles/analysis/artificial-intelligence-and-consent-feminist-anti-colonial-critique [12.03.2024]
West, Sarah Meyers, Whittaker, Meredith and Crawford, Kate (2019): Discriminating Systems: Gender, Race and Power in AI. AI Now Institute. Online: https://ainowinstitute.org/discriminatingsystems.html [20.03.2024]
Zur intersektionalen feministischen Kritik am AI Act – FemAI (2024): Policy Paper – A feminist vision for the EU AI Act. Online: https://www.fem-ai-center-for-feminist-artificial-intelligence.com/_files/ugd/f05f97_0c369b5785d944fea2989190137835a1.pdf [08.04.2024]
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de
Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Forschungsthemen im Fokus
Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?
Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.
Beschäftigte durch Daten stärken
Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?
Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk
Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.