Zum Inhalt springen
169 HD – AI is neutral (1)
27 April 2021| doi: 10.5281/zenodo.4719522

Mythos: KI wird uns alle umbringen!

KI wird uns nicht in Form eines zeitreisenden humanoiden Roboters mit österreichischem Akzent umbringen. Aber: KI wird in verschiedenen militärischen Anwendungen eingesetzt – sie unterstützt neue Konzepte der Führung und ermöglicht autonome Zielfunktionen. Dies beschleunigt die Kriegsführung und untergräbt die menschliche Kontrolle, was rechtliche und ethische Herausforderungen mit sich bringt.

Mythos

KI wird uns alle umbringen! Killerroboter streben nach der Weltherrschaft! Und erfinden das Zeitreisen! Während dieses Science Fiction Terminator Bild reichlich übertrieben ist, wird KI tatsächlich ein wichtiger Bestandteil militärischer Entscheidungsprozesse. Damit unterstützt KI auch das Töten von Menschen.

Militärische KI-Anwendungen ermöglichen neue Operationskonzepte und autonome Funktionen bei der Zielauswahl und -bekämpfung. Dies beschleunigt die Kriegsführung und kann militärische Entscheidungen verbessern – es führt aber auch zu einer Abnahme menschlicher Kontrolle.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR
Sauer, F. (2020). Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. International Review of the Red Cross102(913), 235–259. Read here.

Dahlmann, A., & Dickow, M. (2019). Preventive regulation of autonomous weapon systems: Need for action by Germany at various levels (Vol. 3/2019). Stiftung Wissenschaft und Politik -SWP- Deutsches Institut für Internationale Politik und Sicherheit. Read here.

ZUSATZLITERATUR
Paul Scharre (2018), Army of None. Read here.

IPRAW. (2017, November). International Panel on the Regulation of Autonomous WeaponsRead here.

Schörnig, N. (2019). Paul Scharre: Army of None: Autonomous Weapons and the Future of War, London: W.W. Norton 2018. SIRIUS – Zeitschrift Für Strategische Analysen3(1), 107–108. Read here.
UNICORN IN THE FIELD
The International Panel on the Regulation of Autonomous Weapons (iPRAW) is an international, interdisciplinary, and independent network of researchers working on the issue of  lethal autonomous weapons systems (LAWS). It aims at supporting the current debate within the UN CCW with scientifically grounded information and recommendations.

Über die Autorin

Anja Dahlmann

Stiftung Wissenschaft und Politik – German Institute for International and Security Affairs

Anja Dahlmann hat ihren Master in Politikwissenschaft an der Universität Göttingen abgeschlossen. Sie arbeitet als Forscherin beim Think Tank Stiftung Wissenschaft und Politik mit Sitz in Berlin und leitet das International Panel on the Regulation of Autonomous Weapons (iPRAW). Ihr Schwerpunkt sind neu entstehende Technologien und Abrüstung, insbesondere im Kontext sogenannter tödlicher, autonomer Waffensysteme.

@adahlma


Why, AI?

Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.

Das Bild zeigt einen Traktor von oben, der ein Feld bestellt. Eine Seite des Feldes ist grün bewachsen, die andere trocken und erdig. Das soll zeigen, dass nachhaltige KI zwar im Kampf gegen den Klimawandel nützlich sein, selbst aber auch hohe Kosten für die Umwelt verursacht.

Zwischen Vision und Realität: Diskurse über nachhaltige KI in Deutschland

Der Artikel untersucht die Rolle von KI im Klimawandel. In Deutschland wächst die Besorgnis über ihre ökologischen Auswirkungen. Kann KI wirklich helfen?