Zum Inhalt springen
Smart Walls zur Überwachung von Grenzen können gesellschaftlich problematisch sein
19 Oktober 2022

Fest-Forward: Die spekulative Governance der Smart Wall

Am 16. September 2022 kam eine interdisziplinäre Gruppe von Forscher*innen, Aktivist*innen und betroffenen Gemeinschaften in Amsterdam zusammen, um gemeinsam das kontroverse Thema der algorithmischen Einwanderung und Grenzkontrolle anzugehen: die Smart Wall. In Form eines spekulativen Workshops namens Fest-Forward: Governing the smart wall untersuchten die Teilnehmer*innen, wie Kunst und Kultur zu einem Gegen- oder Antiforum für die Auseinandersetzung mit den vielfältigen Problemen werden könnten, die die Smart Wall mit sich bringt. 

Der vorliegende Artikel stellt das Konzept der Smart Wall und seine Kernpunkte vor. Im zweiten Teil des Beitrags wird berichtet, wie der spekulative Workshop Kunst einsetzte, um sich die Steuerunglogik der Smart Wall zu erklären.

Die Smart Wall

Die Realitäten der algorithmischen Einwanderung und Grenzkontrolle

Digitale Technologien, allen voran die Künstliche Intelligenz (KI), werden weltweit zunehmend in der Einwanderungs- und Grenzkontrolle eingesetzt. In Kanada erleichtern Algorithmen die Entscheidungsfindung bei der Einwanderung und die Vergabe von Visa (Molnar, 2018). Auch die europäische Grenz- und Küstenwache Frontex setzt ein breites Spektrum an algorithmischen Systemen ein. Es reicht von der automatisierten Grenzkontrolle, wie sie zunehmend an Flughäfen anzutreffen ist, über die Überwachung des Seeverkehrs bis hin zu autonomen Fahrzeugen zur Kontrolle der Land-, Luft- und Seegrenzen (Frontex, 2021). 

Das deutsche Bundesamt für Migration und Flüchtlinge setzt eine Software zur Dialekterkennung ein, um festzustellen, ob Asylbewerber*innen die Wahrheit über ihre Herkunft sagen (Biselli, 2020). In Japan versucht die Regierung, die Notwendigkeit einer verstärkten Zuwanderung im Zuge einer alternden Gesellschaft aktiv zu umgehen, indem sie Arbeitskräfte durch Roboter und KI ersetzt (Wright, 2019). Vor allem der Begriff Smart Wall, der im Zuge eingesetzter Technologie an der Grenze zwischen Mexiko und den USA aufkam, erlangte unter der Trump-Regierung Aufmerksamkeit (Ghaffary, 2019).

Zum Konzept der Smart Wall

Der Begriff Smart Wall bezieht sich also auf die materiellen Bedingungen von algorithmischen Systemen, Software zur automatischen Entscheidungsfindung (ADMS), Gesichtserkennungstechnologien, Drohnen, Sensoren, Überwachungstürmen und ihren menschlichen Gegenstücken, die bei der Überwachung physischer und digitaler Grenzen zum Einsatz kommen. Auf theoretischer Ebene verweist die Smart Wall auf Institutionen, Entscheidungsträger, Interessengruppen sowie politische Dokumente und Prozesse, die alle die Anwendung von KI vorsehen, um Einwanderungs- und Grenzpolitik um- und durchzusetzen. Diese reichen von der Logik der Verschlankung von Entscheidungsfindung im Bereich der Einwanderung bis hin zur effizienteren Gestaltung von Grenzkontrollen und der Überwachung von migrierten Gruppen. Einige Vorstellungen gehen sogar noch weiter und sehen KI und Robotik als Ersatz für menschliche Arbeitskräfte vor, um eine verstärkte Einwanderung zu vermeiden (Schneider et al., 2018). Mit anderen Worten: Die Smart Wall basiert auf der Grundidee, dass die Bewegung von Menschen algorithmisch gesteuert werden kann.

Algorithmische Steuerung von Körpern

Wie die zunehmende Menge an kritischer Literatur über KI unterstreicht, ist die Anwendung dieser Technologien zur Steuerung von Körpern und deren Bewegung höchst problematisch. Gesichtserkennungssysteme, die häufig bei automatisierten Grenzkontrollen an Flughäfen eingesetzt werden, sind anfällig für Fehl- oder Nicht-Identifizierungen, insbesondere bei häufig bereits marginalisierten Gruppen (Benjamin, 2019; Noble, 2018). In einer Untersuchung des europäischen iBorderCtrl-Systems konzentrieren sich Hall und Clapton (2021) speziell auf Fragen der algorithmischen Diskriminierung bei Einwanderungs- und Grenzkontrollen. Die Autoren stellen fest, dass die Anwendung von Algorithmen zur Gesichtserkennung und Täuschungserkennung durch das System, die als Instrument des Risikomanagements betrachtet werden, bestehende diskriminierende Grenzkontrollpraktiken verstärken und ausweiten und gleichzeitig die Verantwortung bei der Entscheidungsfindung verschleiern. 

Molnar und Gill (2018) skizzieren, wie die Anwendung von Algorithmen und ADMS “ein Labor für hochriskante Experimente innerhalb eines bereits hochgradig diskretionären Systems zu schaffen droht”. Diese Systeme könnten eine schwerwiegende Verletzung grundlegender Menschenrechte darstellen, darunter das Recht auf Privatsphäre, das Recht auf Freizügigkeit, das Recht auf Vereinigungsfreiheit und das Recht, nicht diskriminiert zu werden (Oluwasanmi, 2021). Einwanderung und Grenzkontrollen sind in der nationalistischen, siedlungskolonialistischen, geschlechtsspezifischen und rassistischen Geschichte der Staatsbildung und -erhaltung verwurzelt (Walia, 2021). Die Verstärkung dieser Irrtümer durch die Anwendung von algorithmischen Systemen ist daher kaum überraschend.

Anlass zur Spekulation

Die Konzeptualisierung der Smart Wall, die in der prekären realen Welt der algorithmischen Einwanderung und Grenzkontrolle verwurzelt ist, untersuchte eine interdisziplinäre Gruppe von Forscher*innen, Aktivist*innen und Interessenten im Rahmen des Workshops Fest-Forward: Governing the Smart Wall. Mit spekulativen Methoden über zukünftige Szenarien, in denen Kunst und Technologie auf Smart Walls treffen, befasst sich dieser Workshop schließlich mit den sehr aktuellen politischen Fragen der Diskriminierung, Rassifizierung und algorithmischen Überwachung in einem anderen Licht.

Der Workshop

Der Workshop fand im Rahmen der ersten Colour of Surveillance Europe Conference statt, die von der Vereinigung europäischer Organisationen für digitale Rechte (EDRi) organisiert wurde und sich mit der stark rassistisch geprägten und diskriminierenden Natur der digitalen Überwachung in Europa befasste.

Spekulative Governance

Die Methodik des Workshops wurde durch das Digital Democracy Workshop Kit von Michel Hohendanner und Chiara Ullstein und Liberating Structures inspiriert. Der Workshop verfolgte einen spekulativen Design-Ansatz und zielte darauf ab, sich zukünftige Szenarien vorzustellen, in denen konkrete Werkzeuge, Aktivitäten und Praktiken der Kunst dabei helfen, politische Einflüsse nachzuvollziehen. Diese Werkzeuge waren gezwungen, die stark rassistisch geprägten Anwendung von KI in der Einwanderungs- und Grenzkontrolle zu berücksichtigen, sowie betroffene Gemeinschaften in die Entwicklung dieser Werkzeuge einzubeziehen.

Aufgeteilt in zwei Gruppen verfassten die Teilnehmer*innen eine spekulative Zeitungsüberschrift und einen Aufmacher, die darlegen, wie ein zukünftiges Kunstereignis ein ausgewähltes Tool einsetzt, um die problematischen Fragen, die die Smart Wall aufwirft, zu untersuchen. Durch diese spekulativen Zukunftsszenarien, in denen Kunst und Technologie sich mit Fragen der algorithmischen Einwanderung und Grenzkontrolle auseinanderzusetzen, konnte der Workshop politische Fragen der Diskriminierung, Rassifizierung und algorithmischen Überwachung in einem neuen Licht betrachten.

Ergebnisse: Überbrückung der Kluft zwischen Zentrum und Peripherie

Die beiden Gruppen setzten sich aus interdisziplinären und kulturübergreifenden Teilnehmer*innen zusammen, von denen die Hälfte einen Migrationshintergrund hatte.

Die erste Gruppe konzentrierte sich darauf, wie die von der Smart Wall betroffenen Gemeinschaften in den Vordergrund gerückt bzw. sichtbar gemacht werden können. Gemeinsam planten die Teilnehmer*innen ein künstlerisches Projekt, das die Realität der Grenzüberschreitung in der digitalen Festung Europa mittels Projektion in das Herz europäischer Städte bringt. Das Projekt zielt darauf ab, Szenen der Migration an der Smart Wall auf Regierungsgebäude in europäischen Hauptstädten sowie auf historische Wahrzeichen wie die Berliner Mauer zu projizieren. Dieses spekulative Projekt befasst sich nicht nur mit diskriminierenden Praktiken, sondern verankert diese auch in der lokalen Geschichte. Indem es diese Themen visuell in den öffentlichen Raum bringt, wird das Wegschauen zur Unmöglichkeit.

Die zweite Gruppe beschäftigte sich mit der Frage, wie sichere Übergänge für Migrant*innen geschaffen werden können. Die Gruppe plante eine künstlerische Ausstellung, die Ziel- und Herkunftsländer digital miteinander verbindet. Diese spekulative Ausstellung soll durch lokale Formen des Geschichtenerzählens und der Folklore sichere Passagen erleichtern, indem sie die Feinheiten der Smart Wall dekonstruiert. Gleichzeitig versucht die Ausstellung, durch digitale Verbindungen Verbündete in den Zielländern zu mobilisieren, die als Vermittler fungieren, um die Anwendung von Algorithmen bei der Einwanderung und Grenzkontrolle zu beeinflussen. Mit anderen Worten: Die zweite Gruppe stellte sich vor, dass die Kunst zu einem grenzüberschreitenden Instrument der Verbindung und Mobilisierung wird.

(Re-)Politisierung von Kunst und Technologie

Kunst und Technologie und ihre neuere Entwicklung, die digitale Kunst, verbreiten sich rasch in der ganzen Welt, seien es immersive Kunstinstallationen, audiovisuelle Performances oder die jüngsten Entwicklungen im Web3, in der virtuellen Realität, im Metaverse und in den NFTs. Zwar gibt es einzelne Künstler, die kritische Perspektiven auf eben diese Technologien und ihre soziopolitischen Grundlagen einbringen, doch fehlen Strukturen, die wirklich in der Lage sind, die Kraft dieser künstlerischen Praktiken auf einer grundsätzlichen Ebene zu mobilisieren. Es wäre sicherlich naiv zu glauben, dass die Kunst in der Lage ist, inhärent komplexe Probleme wie die intelligente Wand zu lösen. 

Was aber kann die Kunst zu diesen Gesprächen beitragen? Wie dieser Workshop gezeigt hat, hat die Kunst das Potenzial, die Dinge anders zu sehen und sich vorzustellen, auf wirkungsvolle Art und Weise Akzente zu setzen und Menschen über Grenzen hinweg zu verbinden. Was kann Kunst noch leisten, wenn wir sie uns nicht nur als Ausstellung visionärer Kunstwerke vorstellen, sondern als politisierte Ausdrucksformen – Formen, die es nicht wagen, nach diesen Visionen zu handeln?

Referenzen

Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim code. Polity.

Biselli, A. (2020, January 9). Dialektanalyse bei Geflüchteten: Automatisiertes Misstrauen. netzpolitik.org. https://netzpolitik.org/2020/automatisiertes-misstrauen/

Frontex. (2021). Artificial Intelligence-based capabilities for the European Border and Coast Guard.

Ghaffary, S. (2019, May 16). The “smarter” wall: How drones, sensors, and AI are patrolling the border. Vox. https://www.vox.com/recode/2019/5/16/18511583/smart-border-wall-drones-sensors-ai

Hall, L., & Clapton, W. (2021). Programming the machine: Gender, race, sexuality, AI, and the construction of credibility and deceit at the border. Internet Policy Review, 10(4). https://doi.org/10.14763/2021.4.1601

Molnar, P. (2018). Governments’ use of AI in immigration and refugee system needs oversight. Policy Options. https://policyoptions.irpp.org/fr/magazines/october-2018/governments-use-of-ai-in-immigration-and-refugee-system-needs-oversight/

Molnar, P., & Gill, L. (2018). Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada’s Immigration and Refugee System (Research Report No. 114). Citizen Lab and International Human Rights Program (Faculty of Law, University of Toronto).

Noble. (2018). Algorithms of Oppression. NYU Press.

Oluwasanmi, M. (2021). Algorithms and the Border: The Human Rights Implications of Automated Decision Systems in Canadian Immigration. Federalism-E, 22(1). https://ojs.library.queensu.ca/index.php/fede/issue/view/896

Schneider, T., Hong, G. H., & Le, A. V. (2018). Japan’s combination of artificial intelligence and robotics may be the answer to its rapidly shrinking labor force, but will this be good news or bad for human labor? 4.

Walia, H. (2021). Border and rule: Global migration, capitalism and the rise of racist nationalism.

Wright, J. (2019). Robots vs migrants? Reconfiguring the future of Japanese institutional eldercare. Critical Asian Studies, 51(3), 331–354. https://doi.org/10.1080/14672715.2019.1612765

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Maurice Jones

Ehem. Assoziierter Forscher: Entwicklung der digitalen Gesellschaft

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.