Zum Inhalt springen
KI für's Gemeinwohl
17 August 2023| doi: 10.5281/zenodo.8289392

KI für’s Gemeinwohl – Quo vadis?

Im Jahr 2020 gründeten wir die Public Interest AI Forschungsgruppe des HIIG zu gemeinwohlorientierter KI. Seitdem ist rund um das Thema viel passiert, nicht nur aus wissenschaftlicher Sicht, sondern auch politisch und gesellschaftlich. Dieser Blogpost gibt einen Einstieg ins Thema KI und Gemeinwohl, erläutert wichtige Erkenntnisse und gibt einen Ausblick, was wir vorhaben. 

an der Schnittstelle zwischen Forschung, Industrie und Zivilgesellschaft. Es untersucht die gesellschaftlichen Herausforderungen, welche durch die Einführung von künstlicher Intelligenz in politischen, sozialen und kulturellen Prozessen entstehen.

Im Zuge der öffentlichen Zugänglichkeit von Chat GPT reden plötzlich alle über KI und der Hype scheint einen neuen Aufschwung zu nehmen. Spätestens jetzt ist allen bewusst, dass KI-Systeme weitreichende gesellschaftliche Veränderungen begleiten, wie den Wandel ganzer Industriezweige, die Automatisierung von einst sozialen Interaktionen oder die Verhärtung von Machtstrukturen. Wem dienen Chat-GPT und andere KI-Anwendungen – und wer sollte eigentlich von ihnen profitieren? Sollten das nicht letztlich wir alle und unsere gemeinsamen gesellschaftlichen Ziele sein?  

Seit unserer Gründung stellen wir uns die Frage, wie KI-Systeme gemeinwohlorientierten Zielen dienen können und welche Bedingungen für die Technologie und ihre Governance diese Ziele mit sich bringen. Aber was ist eigentlich das Gemeinwohl? Auch dieser Frage gehen wir in unserer Forschung nach. 

Zum Gemeinwohl

Zum Gedanken des Gemeinwohls gibt es eine reiche Debatte in der politischen Theorie und Rechtsphilosophie. Unsere Arbeit basiert auf einem Verständnis von Gemeinwohl, wie Barry Bozeman es vorschlägt: Gemeinwohl meint nach Bozeman “die Resultate, die auf lange Sicht am besten dem Überleben und Wohlergehen eines sozialen Kollektivs –  verstanden als Öffentlichkeit – dienen” (Bozeman, 2007, S. 12).

Gemeinwohl ist, so verstanden, nicht universell definierbar, sondern muss immer partizipativ, deliberativ und von Fall zu Fall durch die Betroffenen einer Sache öffentlich verhandelt werden. Wir als Forschungsgruppe orientieren uns nun daran und leiten Faktoren aus dieser theoretischen Fundierung ab. Die Frage, die wir uns dabei stellen, ist: Wie kann dieses Verständnis den Prozess und die technische Umsetzung von KI-Entwicklung ändern?

Unsere Ansätze

Unsere Gedanken dazu teilen wir auf www.publicinterest.ai und stellen beispielsweise Kriterien vor, die wir für die Entwicklung von gemeinwohlorientierter KI als wichtig erachten. Diese Bedingungen, die wir für gemeinwohlorientierte KI fordern, versuchen wir auch in eigenen Prototypen umzusetzen. Zwei der DoktorandInnen des Forschungsteams arbeiten mit Natural Language Processing, einerseits, um deutsche Texte in Leichte Sprache zu übersetzen, und andererseits, um FaktencheckerInnen bei ihrer Arbeit zu unterstützen. Die dritte Doktorandin untersucht Möglichkeiten, wie Daten partizipativ verwaltet werden können, um die Gemeinwohlorientierung von Projekten zu stärken. 

Zum Public Interest AI Interface

Über das publicinterest.ai Interface möchten wir zudem die Datenlage zu gemeinwohlorientierten KI-Projekten verbessern, indem wir Projekte zu einer Befragung einladen und die Ergebnisse hier global mappen. Zwei Projekte, die dort beispielsweise zu finden sind, sind das Projekt Seaclear, das mit von Robotern und Sensoren Müll vom Meeresgrund fischt und dabei Tiere verschont, die mithilfe von Computer Vision erkannt werden, und das Projekt VFRAME, das ebenfalls Computer Vision einsetzt, um Konfliktzonen zu analysieren. Wir möchten diese Projekte durch mehr Sichtbarkeit unterstützen und gleichzeitig die wissenschaftliche Erforschung solcher Projekte befähigen. 

Gemeinwohl braucht viele Stimmen

Aber zum Glück sind wir längst nicht die einzigen, die sich für das Thema gemeinwohlorientierte KI interessieren. In diesem Jahr ist das Civic Coding Netzwerk mit einer Geschäftsstelle an den Start gegangen, die gemeinwohlorientierte KI Projekte unterstützen soll. Und wir freuen uns sehr über die Studie von Wikimedia, die unter anderem auf Basis unserer Überlegungen verschiedene datenbasierte Vorhaben des Bundes auf ihre Gemeinwohlorientierung prüft. 

Die nächste Etappe soll sein, unsere Arbeit an gemeinwohlorientierter KI weiter auszubauen, d.h. weitere anwendungsorientierte Forschungsprojekte anzustoßen, Prototypen zu unterstützen und das Netzwerk für gemeinwohlorientierte KI zu erweitern. Zum Beispiel startet dafür im Oktober 2023 eine erste Public Interest AI Fellowship Runde, bei der wir Studierende verschiedener technischer Hochschulen mit NGOs mit gemeinwohlorientierten KI Projekten vernetzen. In den nächsten fünf Jahren möchten wir daran arbeiten, dass die Idee gemeinwohlorientierte KI eine echte und nachhaltige Alternative zu rein kommerziellen KI-Projekten ist. 

Referenzen

Bozeman, B. (2007). Public values and public interest. Counterbalancing economic individualism. Georgetown University Press. 

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Theresa Züger, Dr.

Leiterin AI & Society Lab & Forschungsgruppe Public Interest AI, Co-Leiterin des Projekts Human in the Loop

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.

Das Bild zeigt einen Traktor von oben, der ein Feld bestellt. Eine Seite des Feldes ist grün bewachsen, die andere trocken und erdig. Das soll zeigen, dass nachhaltige KI zwar im Kampf gegen den Klimawandel nützlich sein, selbst aber auch hohe Kosten für die Umwelt verursacht.

Zwischen Vision und Realität: Diskurse über nachhaltige KI in Deutschland

Der Artikel untersucht die Rolle von KI im Klimawandel. In Deutschland wächst die Besorgnis über ihre ökologischen Auswirkungen. Kann KI wirklich helfen?