Zum Inhalt springen
169 HD – AI is neutral (1)
27 April 2021| doi: 10.5281/zenodo.4719522

Mythos: KI wird uns alle umbringen!

KI wird uns nicht in Form eines zeitreisenden humanoiden Roboters mit österreichischem Akzent umbringen. Aber: KI wird in verschiedenen militärischen Anwendungen eingesetzt – sie unterstützt neue Konzepte der Führung und ermöglicht autonome Zielfunktionen. Dies beschleunigt die Kriegsführung und untergräbt die menschliche Kontrolle, was rechtliche und ethische Herausforderungen mit sich bringt.

Mythos

KI wird uns alle umbringen! Killerroboter streben nach der Weltherrschaft! Und erfinden das Zeitreisen! Während dieses Science Fiction Terminator Bild reichlich übertrieben ist, wird KI tatsächlich ein wichtiger Bestandteil militärischer Entscheidungsprozesse. Damit unterstützt KI auch das Töten von Menschen.

Militärische KI-Anwendungen ermöglichen neue Operationskonzepte und autonome Funktionen bei der Zielauswahl und -bekämpfung. Dies beschleunigt die Kriegsführung und kann militärische Entscheidungen verbessern – es führt aber auch zu einer Abnahme menschlicher Kontrolle.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR
Sauer, F. (2020). Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. International Review of the Red Cross102(913), 235–259. Read here.

Dahlmann, A., & Dickow, M. (2019). Preventive regulation of autonomous weapon systems: Need for action by Germany at various levels (Vol. 3/2019). Stiftung Wissenschaft und Politik -SWP- Deutsches Institut für Internationale Politik und Sicherheit. Read here.

ZUSATZLITERATUR
Paul Scharre (2018), Army of None. Read here.

IPRAW. (2017, November). International Panel on the Regulation of Autonomous WeaponsRead here.

Schörnig, N. (2019). Paul Scharre: Army of None: Autonomous Weapons and the Future of War, London: W.W. Norton 2018. SIRIUS – Zeitschrift Für Strategische Analysen3(1), 107–108. Read here.
UNICORN IN THE FIELD
The International Panel on the Regulation of Autonomous Weapons (iPRAW) is an international, interdisciplinary, and independent network of researchers working on the issue of  lethal autonomous weapons systems (LAWS). It aims at supporting the current debate within the UN CCW with scientifically grounded information and recommendations.

Über die Autorin

Anja Dahlmann

Stiftung Wissenschaft und Politik – German Institute for International and Security Affairs

Anja Dahlmann hat ihren Master in Politikwissenschaft an der Universität Göttingen abgeschlossen. Sie arbeitet als Forscherin beim Think Tank Stiftung Wissenschaft und Politik mit Sitz in Berlin und leitet das International Panel on the Regulation of Autonomous Weapons (iPRAW). Ihr Schwerpunkt sind neu entstehende Technologien und Abrüstung, insbesondere im Kontext sogenannter tödlicher, autonomer Waffensysteme.

@adahlma


Why, AI?

Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

[wysija_form id="7"]

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Das Titelbild zeigt eine Reihe von roten Flaggen auf Stangen, die in einem strukturierten Muster angeordnet sind. Das Bild stellt eine visuelle Metapher für die Community Notes dar, die als Werkzeug zur Überprüfung von Informationen dienen.

Haben Community Notes eine Parteipräferenz?

Dieser Artikel analysiert, ob Community Notes Desinformation eindämmen oder ob ihre Verteilung und Bewertung politische Tendenzen widerspiegeln.

Ein Mann in schwarzer Jacke steht in einem blau beleuchteten Raum. Das symbolisiert die Anwendung von People Analytics am Arbeitsplatz.

Wie People Analytics die Wahrnehmung von Fairness am Arbeitsplatz beeinflusst

People Analytics am Arbeitsplatz kann die Beziehung und das Vertrauen zwischen Mitarbeitenden und Führungskräften beeinflussen.

Die Glaskuppel des Deutschen Bundestags, ein Symbol für Transparenz und Demokratie, steht für die laufenden Diskussionen zur Digitalpolitik im Vorfeld der Bundestagswahl 2025.

Wie könnte die Digitalpolitik nach der Bundestagswahl 2025 aussehen?

Welche digitalpolitischen Positionen vertreten Parteien bei der Bundestagswahl 2025?