Unsere vernetzte Welt verstehen
Künstliche Intelligenz, menschliche Ohnmacht – wie wir mit K.I. unsere eigene M.I. wiederentdecken können
Künstliche Intelligenz wird menschlicher, der Mensch mehr zur Maschine! Eine steile These? Oder treffen sich Mensch und Maschine schon bald in der Mitte, weil auch der Mensch zunehmend durch seine technisierte Umwelt programmiert wird? Dieser Frage widmet sich Innovationsberater Hans Rusinek in einem zweiteiligen Blogpost.
Wenn es um die Zukunft der künstlichen Intelligenz (KI) geht, machen wir vor keinen Horrorszenarien halt. Die Szenarien folgen immer einem aus anderen Angstfantasien bekannten Muster: Erst lernen die Maschinen von uns, dann nehmen sie uns den Job weg und am Ende sogar die Geliebte. Uns alten Analogen ist in diesem Szenario lediglich eine Zuschauerrolle zugeschrieben. Wie sehr ist diese Angst gerechtfertigt und sind wir wirklich passive Beobachter dieser Entwicklungen?
Zu einer der bekanntesten Anekdoten im Bereich der KI gehört die Geschichte von Robert Epstein und dem Chat-Bot Ivana. Da chattete Professor Epstein, Psychologe, Computerwissenschaftler und einer der Vordenker im Bereich KI über Monate mit einer gewissen Ivana, von der er glaubte, dass sie eine gutaussehende russische Dame sei, die ebenfalls auf der Suche nach einem Partner wäre. Doch dann kam es, wie es kommen musste: die osteuropäische Dame war eine Software, und der Computerwissenschaftler düpiert.
Die Moral von der Geschichte gibt es in zwei Versionen. In Version Eins, der offensichtlichen, ist Ivanka ein verblüffendes Beispiel dafür, wie menschenähnlich Chatbots bereits kommunizieren können. Die Maschine wird tatsächlich immer menschlicher. Ob dies wirklich schon ein Indiz dafür ist, dass Maschinen “uns mit ihrer Intelligenz” überholen, wie Christoph Kucklick diese Anekdote liest, ist eine andere Frage.
Interessant ist, dass diese Anekdote noch eine zweite Lehre liefert, eine, die wir in den Debatten zu Mensch-Maschine-Interaktion absolut übersehen. Es ist nicht nur die Maschine in Form von Ivana, die erstaunlich menschlich war. Es ist auch der Mensch in Form von Robert, der durch wenig Input ein schnelles unkritisches Urteil fällte, der also erstaunlich maschinell agierte. Das ist nicht ein Algorithmus, der so clever ist wie Robert. Da ist auch ein Robert, der so reflexionsarm agiert wie ein Computerprogramm.
Denn Robert Epstein wähnte sich in menschlicher Gesellschaft, weil die Erwartungen an diese so gering waren. Hätte er die Dame auf Blinýs eingeladen oder sie gar angerufen, wäre der Schein erloschen. Am anderen Ende der Leitung ist niemand. Mensch und Maschinen treffen sich also in der Mitte. Was sind die Mechanismen dahinter?
Die Menschine ist programmierbar
Der erste Mechanismus besteht darin, dass wir mehr und mehr programmierbar werden. Diese Programmierbarkeit zwingt uns immer mehr in ein maschinelles Menschenkorsett, ohne es wirklich zu merken. Techno-social engineering nennen das die Autoren Selinger und Frischmann, zwei führenden Experten im Bereich “Gesellschaftliche Auswirkungen der künstlichen Intelligenz”. Im techno-social Engineering werden technologische mit sozialen Werkzeuge kombiniert genutzt, um im Web unser menschliches Verhalten zu beeinflussen, an den richtigen Stellen zu nudgen oder sogar ganz neu zu konstruieren. Ivana ist dafür nur ein sehr primitives Beispiel, auch wenn sie immerhin das sehr komplexe Gefühl eines erotischen Interesses ausgelöst hat. Ein ganz anderes Level aber wird erreicht, als Facebook 2014 in einem gigantischen sozialen Experiment die Gefühle von 700.000 Nutzern verändert. In diesem Mood Manipulation Experiment sahen die ausgewählten Nutzer verzerrte Ergebnisse ihrer Freunde und reagierten entsprechend mit ebenfalls angepassten Emotionen. Dann im Dezember 2016 beschrieb ein Artikel im Schweizer Das Magazin, erstens, wie wenige Likes genügen, um eine Einschätzung über eine Person zu treffen (10, um besser als seine Arbeitskollegen zu sein) und zweitens, wie sich dadurch ein Mikrotargeting ermöglichen lässt, welches die Wahl in den USA beeinflusst haben sollte. In beiden Experimenten ließ sich der User programmieren.
Dabei ist techno-social Engineering per se nicht das Problem: Jede Kultur lebt davon bestimmte Normen zu formen oder bestimmtes Verhalten zu belohnen. Auf der Arbeit, in der Schule, selbst in der Familie findet auch eine Art Engineering statt. Während wir uns aber von anderen Bereichen, wo Verhalten geformt wird, auch distanzieren können, weil sie eben nur ein Ort sind, ist beim digitalen techno-social engineering die Präsenz totaler. Offline zu sein, wird immer mehr zu einer absurden, kaum durchsetzbaren Vorstellung. Die digitale Sphäre ist eben kein Ort, sondern vielmehr ein Filter der sich zwischen uns und die Umwelt legt und eine digiloge Welt konstruiert, wie der zweite Mechanismus zeigen wird.
Die Menschine ist über Schnittstellen an die Umwelt montiert
Der erste Mechanismus zeigt wie Programmierbarkeit möglich gemacht wird, der zweite Mechanismus baut darauf auf und geht eine Stufe weiter. Nicht nur Verhalten wird geformt, wir verlagern auch unsere Erlebnis- und Erfahrungsräume in die digitale Sphäre. Und ermöglichen damit, dass sich unsere Wahrnehmung filtern lässt.
Als um die Jahrtausendwende die ersten Kochshows im Fernsehen liefen, bestand der Clou in den Augen der Produzenten darin, dass man sich danach die Rezepte mailen lassen konnte. Doch daran hatte fast niemand Interesse. Denn: Es ging gar nicht um das Nachkochen, es ging nur darum, anderen beim Kochen zuzusehen. Heute ist uns das allen klar: Wir schauen uns in Realityshows an, wie andere leben, in Lets Play-Videos, wie andere gamen und in Unboxing-Videos, wie andere neue Produkte auspacken z.b. Sneaker oder Platten. Und finden das zutiefst befriedigend.
Der Philosoph Robert Pfaller gruppiert diese Phänomene unter dem Begriff Interpassivität. Interpassivität bedeutet, die Handlungen, die uns Genuss versprechen, zu delegieren und auf Externes zu verschieben. Zum Beispiel auf die Kamera. Sie genießt an unserer Stelle den Blick auf den Strand, das Meer oder die Sehenswürdigkeiten. Dazu gehört auch der notorische Zwang beim Essen, erstmal ein Foto vom Essen schießen zu müssen. Wir müssen zwar immer noch selber essen aber die Kamera isst zuerst, wie es der Internetforscher Robert Simanowski so schön sagt. Unser wahrer Genuß ist dann der Like-Button.
Für Pfaller ist der Grund dahinter der folgende: Das Individuum will nicht mit dem ultimativen Genuss konfrontiert werden, es schützt sich geradezu vor echter Anteilnahme. Irgendwo zu sein, live und direkt, wo man nicht jeden Tag ist, scheint im Sinne der Interpassivität manchmal schlicht und ergreifend zu viel, zu intensiv für uns zu sein und uns zu verletzbar zu machen.
Diese Begründung kann man kaufen, muss man aber nicht. Wichtig ist: Wir schieben durch dieses Phänomen der Interpassivität Zwischenebenen in unsere Erlebniswelt. Wie die Kamera, das Chatprogramm, das Unboxing-Video. Der Genuss wird schon vorverdaut. Diese Zwischenebenen ermöglichen es dann durch techno-social engineering gestaltet zu werden und damit Output und Input zwischen Menschen und ihrer sozialen Umwelt zu steuern. Und genau dies ermöglichte auch dem Chatbot Ivana Schmetterlinge im Bauch des Computerwissenschaftlers auszulösen. Die Unterhaltung, fand auf einem Chatkanal statt, der die Unterschiede zwischen Bot und Mensch erst verschwinden lässt. Wie eine Maschine können wir uns programmieren lassen, weil wir über weitere Maschinen durch Schnittstellen und Produktionsabläufe an unsere Umwelt montiert sind.
Fortsetzung folgt…
Hans Rusinek ist Innovationsberater bei Sturm und Drang und arbeitet hauptsächlich an der Entwicklung nutzerzentrierter Geschäftsmodelle inmitten der digitalen Transformation. Zusätzlich setzt er sich als Redakteur beim „Transform Magazin“ mit Fragen des guten Lebens in einer sich wandelnden Gesellschaft auseinander. Er studierte VWL, Philosophie und Internationale Politik in Bayreuth und an der London School of Economics.
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de
Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Digitale Zukunft der Arbeitswelt
Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?
Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.
Beschäftigte durch Daten stärken
Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?
Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk
Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.