Skip to content
Webseite – Theresa
18 August 2021

With Open Mind and Open Source – the democratic potential of public good-oriented AI

Dr. Theresa Züger talks to Patricia Leu from Prototype Fund about the Public Interest AI project and the democratic potential of AI for the common good. This interview was published first on PrototypeFund.

Theresa, du leitest die Forschungsgruppe “Public Interest AI” am Humboldt Institut für Internet und Gesellschaft. Was genau ist euer Ziel?

Unser übergeordnetes Ziel ist es, ein Verständnis für das Konzept Gemeinwohl zu erarbeiten und dieses dann in den Prozess der Entwicklung von Künstlicher Intelligenz (KI) zu übersetzen. Die Frage, die wir dabei uns stellen, ist: Wie kann dieses Verständnis den Prozess und die technische Umsetzung von KI-Entwicklung ändern?

Wir legen den Fokus dabei auf Governanceprozesse, d. h. wir schauen, welche Menschen (nicht) eingebunden werden, wenn KI entwickelt wird, welche Prozesse und Safeguards es gibt. So versuchen wir, KI-Entwicklung an demokratische Prozesse rückzukoppeln.

Im Team arbeiten Doktorand*innen auch an verschiedenen Prototypen von gemeinwohlorientierter KI. Einmal soll mit Computervision Barrierefreiheit auf Bildern erkannt werden mit dem Ziel, die Wheelmap noch auskunftsfähiger zu machen. Dann gibt es ein Projekt, in dem mithilfe von Natural Language Processing deutscher Text in Leichte Sprache übersetzt werden soll. Für viele Menschen ist das Lesen von deutschen Texten eine Herausforderung, durch die sie beispielsweise von Beteiligungsprozessen ausgeschlossen werden. In diesem Projekt liegt also großes demokratisches Potenzial. Eine dritte Doktorandin erarbeitet Design Patterns – wie beispielsweise partizipatives Design -, die als handhabbare Standards und generalisierbare Musterlösungen in der KI-Entwicklung eingesetzt werden können. Somit bekommen KI-Entwickler*innen nicht nur allgemeine Guidelines sondern auch konkrete Werkzeuge an die Hand.

Wie wollt ihr eine Definition von Gemeinwohlorientierung erreichen?

Zu Gemeinwohl gibt es eine reiche Tradition in der politischen Theorie – und das schon seit der Antike! Das Thema findet auch Eingang in den rechtsphilosophischen Diskurs und die Verfassungen einiger Staaten. Wir erforschen den Begriff unter anderem in der Rechtsphilosophie und schauen, wie Gemeinwohl dort verhandelt wird. Spannend sind in diesem Zusammenhang der Philosoph John Dewey und der Politikwissenschaftler Barry Bozeman. Dewey sieht Demokratie als einen transformativen Prozess an und betrachtet Gemeinwohl dementsprechend: Es kann seiner Ansicht nach nicht universell sein, sondern muss immer partizipativ und deliberativ in der und durch die Gesellschaft verhandelt werden. Die Idee des partizipativen Designs ist nach dieser Logik zentral. Diese Thesen wurden von Bozeman aufgegriffen und weiterentwickelt. Wir als Forschungsgruppe orientieren uns nun daran und leiten Faktoren aus dieser theoretischen Fundierung ab, um herauszufinden, wie KI im Sinne des Gemeinwohls entwickelt werden kann.

Und was habt ihr dazu schon herausgefunden? 

Wichtig ist mir noch einmal zu betonen, dass eine Gemeinwohlorientierung auch bei KI von Fall zu Fall unterschiedlich aussehen kann. In jedem Fall aber steht sie privaten Interessen gegenüber und zeigt eine Alternative zu profitorientierter KI-Entwicklung auf – wenngleich das nicht das hauptsächliche Ziel ist.

Wir haben fünf Faktoren identifiziert, die gemeinwohlorientierte KI kennzeichnen. Der erste heißt Rechtfertigung. Hier schauen wir, warum die KI entwickelt und eingesetzt wird, welche Ziele verfolgt werden und ob die Methode – also KI – in diesem Fall wirklich die beste ist. Der zweite Aspekt ist Gleichberechtigung: Die KI soll Gleichberechtigung (z.B. durch verbesserte Barrierefreiheit) im besten Fall stärken, sie aber auf keinen Fall schwächen. Der dritte Faktor ist Deliberation und partizipatives Design. Hier geht es darum, Menschen mit einzubeziehen und gemeinsam ein Verständnis zu erarbeiten, wie KI gut funktionieren kann. Je nach Kontext ist das vielleicht nicht möglich oder sinnvoll, aber es ist essenziell, Einbeziehung immer mitzudenken und transparent darüber zu kommunizieren. Ein weiterer Punkt sind technische Sicherheitsmaßnahmen, also ob die Software robust ist, rechtliche Standards einhält und akkurat ist. Der letzte Faktor ist “Openness for Validation”: Von den Entscheidungen der KI Betroffene aber auch Dritte müssen überprüfen können, dass das soziotechnische System um die KI herum funktioniert, d. h. dass die Menschen, die damit arbeiten, sie auch im Sinne des Gemeinwohls einsetzen.

Kannst du Beispiele für gemeinwohlorientierte KI-Technologien nennen?

Das ist gar nicht so leicht zu beantworten, denn viele Projekte stellen sich gar nicht die Fragen, die wir uns als Forschungsgruppe stellen. Die Datenlage ist also etwas dürftig. Wir können uns eigentlich in vielen Bereichen gemeinwohlorientierte KI vorstellen, z. B. im medizinischen Sektor oder in der Klimaforschung.

Ein gutes Beispiel für gemeinwohlorientierte KI, das wir gefunden haben, ist Project Connect von Unicef. Hier werden mithilfe von Satellitendaten Schulen anhand ihrer Gebäudeform identifiziert und dann geschaut, ob diese Internetzugang haben. Wenn dem nicht so ist, schaffen die Initiatoren des Projekts in Zusammenarbeit mit verschiedenen lokalen Stakeholdern einen. Alle Datensätze, die entstehen werden veröffentlicht. Das Projekt ist ein tolles Beispiel dafür, wie KI im Sinne einer Effizienzsteigerung genutzt werden kann: Es würde ungleich viel länger dauern, alle diese Orte real nach Schulgebäuden abzusuchen – die KI schafft es in kurzer Zeit und mit wenigen Ressourcen.

Was ist dein persönlicher Zugang zu und deine Erwartung an gemeinwohlorientierte Technologie und KI?

Mein akademischer Hintergrund liegt in der politischen Theorie sowie in der Medienwissenschaft. Es ist mein wissenschaftliches Interesse und auch meine Aufgabe als Wissenschaftlerin, im Dienst der Gesellschaft zu arbeiten. 

Das Thema “AI for good” ist aktuell in aller Munde, die theoretische Grundlage ist bei vielen Entwickler*innen aber sehr dünn und die Technologie am Ende selten wirklich im Sinne der Allgemeinheit. Ich bin daran interessiert, diese Forderung nach ethischer und gemeinwohlorientierter KI mit einem fundierten Konzept anzuschauen und eine handhabbare Messlatte dafür zu entwickeln.

Ich bin der festen Überzeugung, dass gemeinwohlorientierte KI möglich ist, aber es muss noch viel mehr Arbeit hineingesteckt werden. Technologie gehört mittlerweile zu unserem Leben, ist meiner Meinung nach auch für demokratische Prozesse unverzichtbar, deswegen ist es besonders wichtig, sie mit einem Blick auf das Gemeinwohl zu betrachten.

Wie kann sichergestellt werden, dass Unternehmen, die Technologien entwickeln, das Gemeinwohl in den Fokus rücken und sich an ethischen Richtlinien orientieren?

Im Moment ist das aus unserer Sicht nicht möglich, weil Gemeinwohlorientierung und private Interessen sich gegenüber stehen. Dies ließe sich durch Regulierung ändern, aber ich denke, es ist unrealistisch, dass Technologie nur noch gemeinwohlorientiert entwickelt wird.

Viel wichtiger ist es, einen Raum zu schaffen für gemeinwohlorientierte KI, aber auch gemeinwohlorientierte Technologie im Allgemeinen. Es braucht ein Ökosystem mit einer ausreichenden Finanzierung, damit Entwickler*innen es sich auch leisten können, in diesem Bereich zu arbeiten. 

Dafür sollte meiner Ansicht nach ein initialer Anreiz vom Staat kommen, um es z. B. gemeinwohlorientierten Unternehmen grundsätzlich leichter zu machen und auch Fundingangebote zu schaffen. Die Zivilgesellschaft muss sich aber auch fordernd einbringen, bereit sein in einen offenen Dialog zu treten und Bedürfnisse auf Augenhöhe auszuhandeln – da sind wir wieder bei John Dewey. Der dritte Sektor muss dafür gemeinsame Interessen identifizieren und diese auch zusammen vertreten, indem übergreifende Strukturen geschaffen werden, anstatt dass etliche Stiftungen und Organisationen ihr eigenes Süppchen kochen. Dazu können auch Wissenschaftler*innen gut beitragen. Und wirtschaftliche Unternehmen können sich genauso beteiligen, indem sie als Förderer auftreten. Eine Stärkung von gemeinwohlorientierter KI ist also aus vielen verschiedenen Richtungen möglich!

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Theresa Züger, Dr.

Research Group Lead: Public Interest AI | AI & Society Lab, Co-Lead: Human in the Loop

Sign up for HIIG's Monthly Digest

HIIG-Newsletter-Header

You will receive our latest blog articles once a month in a newsletter.

Explore Research issue in focus

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Artificial intelligence and society

The future of artificial Intelligence and society operates in diverse societal contexts. What can we learn from its political, social and cultural facets?

Further articles

Three groups of icons representing people have shapes travelling between them and a page in the middle of the image. The page is a simple rectangle with straight lines representing data used for people analytics. The shapes traveling towards the page are irregular and in squiggly bands.

Empowering workers with data

As workplaces become data-driven, can workers use people analytics to advocate for their rights? This article explores how data empowers workers and unions.

A stylised illustration featuring a large "X" in a minimalist font, with a dry branch and faded leaves on one side, and a vibrant blue bird in flight on the other. The image symbolises transition, with the bird representing the former Twitter logo and the "X" symbolising the platform's rebranding and policy changes under Elon Musk.

Two years after the takeover: Four key policy changes of X under Musk

This article outlines four key policy changes of X since Musk’s 2022 takeover, highlighting how the platform's approach to content moderation has evolved.

The picture shows a tractor cultivating a field from above. One side of the field is covered in green, the other is dry and earthy. This is intended to show that although sustainable AI can be useful in the fight against climate change, it also comes at a high ecological cost.

Between vision and reality: Discourses about Sustainable AI in Germany

This article explores Sustainable AI and Germany's shift from optimism to concern about its environmental impact. Can AI really combat climate change?