Zum Inhalt springen
169 HD – Why AI
27 April 2021

Why, AI? – Ein digitaler Lernraum über KI

Mythen rund um Automatisierung, Algorithmen und ihre gesellschaftlichen Folgen entlarven


Alle Welt spricht über Künstliche Intelligenz (KI). Aber wie werden KI-Technologien unsere Gesellschaft verändern und wie können wir sie zu unserem Vorteil einsetzen? Dafür müssen wir zunächst verstehen, wie KI funktioniert – und vor allem, wie wir sie für uns nutzbar machen können. Ihr Einsatz birgt viele Risiken, weshalb es umso wichtiger ist, sie zu (er)kennen und Lösungen zu entwickeln. Aus diesem Grund haben wir diesen digitalen Lernraum zusammengestellt. “Why, AI?” ist eine Open Education Resource (OER), deren gesamtes Material unter CC BY lizenziert ist. Lasst uns darüber diskutieren, was wir von KI erwarten und welche gesellschaftlichen Herausforderungen sich in Zeiten von KI stellen.

Künstliche Intelligenz ist zu einem wichtigen Thema in der öffentlichen Debatte geworden und wirft viele Fragen der Regulierung auf. Aber was ist “KI”? Was sind ihre Grenzen? Brauchen wir eine KI-Ethik? KI-Gesetze? Auf globaler Ebene, in Europa, in Deutschland? Ist KI neutral? Kann KI diskriminieren? Kann KI Entscheidungen treffen? Können oder müssen KI-Technologien und -Anwendungen erklärt werden oder erklärbar sein? Wo liegen die Grenzen für den Einsatz von KI in verschiedenen Gesellschaftsbereichen? Automatisierte Autos gibt es, aber was ist mit automatisierten Richter*innen? 

Das gemeinsam vom AI & Society Lab und der Forschungsgruppe Globaler Konstitutionalismus und das Internet initiierte Projekt “Why, AI?” ist als digitaler Lernraum konzipiert, der geballtes Wissen gegen Mythen rund um Automatisierung, Algorithmen und ihre gesellschaftlichen Folgen bietet.

Mythen mit Wissenschaft aufdecken – mit Hilfe eines offenen Kursformats

Ein hochkarätiges Expert*innenteam widmet sich kritisch einer Vielzahl von urban legends über KI, um diese zu dekonstruieren: dass KI-Algorithmen und automatisierte Entscheidungssysteme von Natur aus schlecht sind, dass sie Diskriminierung überwinden werden; dass sie die Welt regieren werden.
Die Wahrheit ist meist etwas weniger dramatisch – aber mindestens genauso interessant. 

Alle Mythen erkunden

“Why, AI?” richtet sich an Journalist*innen und Pädagog*innen, Student*innen, Politiker*innen und an die Zivilgesellschaft gleichermaßen – für mehr Kenntnis darüber, wie Algorithmen funktionieren und wie Künstliche Intelligenz für die Zukunft gestaltet werden kann, anstatt ihr zu erlauben, die Zukunft zu gestalten. 

Hans Jonas, ein deutscher Technikphilosoph, erinnert uns, so zu handeln, dass die Konsequenzen unseres Handelns mit dem Bestehen echten und nachhaltigen menschlichen Lebens vereinbar sind. Es ist keinesfalls übertrieben zu sagen, dass wir uns in Bezug auf KI in einer Schlüsselphase der technologischen Entwicklung befinden. Wir als Gesellschaft müssen auf den Fortschritt mit und durch KI reagieren, Risiken (an)erkennen und Lösungen entwickeln. Wir hoffen, dass Sie mit “Why, AI” ein wenig mehr darüber lernen, wie KI die Welt beeinflusst und wie wir KI verändern müssen, bevor KI uns (zu sehr) verändert.

Kuratiert wird das Projekt von von Matthias C. Kettemann – Leiter der Forschungsgruppe Globaler Konstitutionalismus und das Internet, in der er die Regeln der Macht und die Macht der Regeln in hypervernetzten Online-Räumen untersucht – und Daniela Dicks, Co-Leiterin des AI & Society Lab, einem interdisziplinären Raum, der neue Perspektiven auf KI erforscht und zwischen verschiedenen gesellschaftlichen Akteuren vermittelt, die mit KI interagieren.

Ihr habt Feedback für uns, oder Ideen für einen Mythos, mit dem aufgeräumt werden sollte? Meldet euch unter whyai@hiig.de.

 


Das Team hinter diesem Projekt: Frederik Efferenn, Lukas Fox, Christian Grauvogel, Katharina Mosene, Marie-Therese Sekwenz, Katrin Werner, Larissa Wunderlich.

Es wird vom HIIG in Kooperation mit dem Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Junges Forum: Technikwissenschaften (JF:TEC), dem Sustainable Computing Lab der Wirtschaftsuniversität Wien (SCL) und dem Max-Planck-Institut für ausländisches öffentliches Recht und Völkerrecht (MPIL) (Sektion Völkerrecht des Internets) & OESA e.V. gehostet.


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Daniela Dicks

Ehem. Co-Leitung und Sprecherin: AI & Society Lab

Matthias C. Kettemann, Prof. Dr. LL.M. (Harvard)

Forschungsgruppenleiter und Assoziierter Forscher: Globaler Konstitutionalismus und das Internet

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.