Brainflicks — der Podcast über Psychologie im Film.

BF002: Der Geist in der Maschine? // Ex Machina

Audio herunterladen: MP3 | AAC | OGG | OPUS

In unserer zweiten Folge geht es um „Ex Machina“ von Alex Garland. Wo ihr den Film schauen könnt, erfahrt ihr hier.

Protagonist des Films und Identifikationsfigur für den Zuschauer ist der junge talentierte Programmierer Caleb, der in dem Großunternehmen Bluebook arbeitet. Gründer dieser an Google angelehnten fiktiven Firma ist der hochintelligente und narzisstisch angehauchte Nathan, der abgeschirmt von der Außenwelt, in seinem hochtechnologisierten Anwesen gemeinsam mit seiner Gesellschafterin Kyoko lebt. Caleb bekommt die Möglichkeit, in diesem Anwesen eine Erfindung Nathans, die künstliche Intelligenz Ava, kennenzulernen und einem erweiterten Turing-Test zu unterziehen. Die Frage, ob Ava echtes menschliches Bewusstsein besitzt ist die zentrale Frage des Films.

Zur Deutung des Films können wir dieses Kapitel empfehlen, aus dem Julius auch einige Ausführungen zu kameratechnischen Effekten entnommen hat. Des Weiteren fanden wir diesen Artikel über den Film und seine philosophischen Fragestellungen sehr hilfreich. Die etwas andere Interpretation, die Christiane am Schluss erwähnt, könnt ihr hier nachlesen. Wird es uns jemals möglich sein, Maschinen mit einem künstlichen Bewusstsein erschaffen? Haladijan & Montemayor (2016) meinen: eher nicht.

Wie sind Filme (und andere Medien) aus feministischer Sicht zu bewerten? Eine erste, nicht wissenschaftliche Annäherung, bietet der Bechdel-Test. Ex Machina kommt dabei nicht gut weg.

Der besprochene Literaturreview zum Thema Uncanny Valley ist von Kätsyri et al. (2015) und heißt „A review of empirical evidence on different uncanny valley hypotheses: support for perceptual mismatch as one road to the valley of eeriness“. Ihr findet diesen hier.

Wer noch einmal nachlesen möchte, was ein psychologisches Experiment ausmacht, kann dies zum Beispiel hier tun.


Uns findet ihr bei Twitter: Brainflicks, Christiane & Julius. Auch auf Instagram sind wir vertreten. Gern könnt ihr uns auch auf Letterboxd folgen: Christiane & Julius. Hinterlasst uns gern eure Kommentare im Blog oder in den sozialen Netzwerken. Wenn ihr unseren Podcast mögt, dann schenkt uns doch ein paar Sterne bei Apple Podcasts/iTunes! Danke!


Kommentare

@Kauzologe
by @Kauzologe on 27. Januar 2019
Liebe Christiane, lieber Julius, vielen Dank für diese spannende Folge zu einem meiner Lieblingsfilme über dieses Thema. Ich muss zunächst vorausschicken, dass ich noch nicht fertig bin und gerade bei 2:37h angekommen bin. Falls ihr einige meiner Punkte also noch ausführlicher diskutiert habt, mea culpa! Ich habe eure Diskussion, ob Maschinen ein Bewusstsein und/oder Emotionen haben können, als etwas einseitig empfunden. Die Kognitionswissenschaften, die Philosophie des Geistes und die Computational Neuroscience kommen weit weniger eindeutig zu dem Schluss, zu dem euer zitiertes Paper kommt. Mir fallen dazu spontan ein paar Gedanken ein (vieles sind nur Gedankenexperimente, die jedoch dazu anregen sollen, noch einmal über diese Sache nachzudenken). Zunächst habt ihr mehrmals erwähnt, dass an Avas Mimik oder bestimmten Handlungen erkennbar wäre, dass sie ein Bewusstsein hat. Genau diesen Punkt kann ein Turing-Test aber vermutlich nicht erfassen. Genau genommen kann ich allein aus dem äußeren Verhalten einer Maschine oder eines Lebewesens nicht schließen, wie dieses Verhalten zustandegekommen ist (ob durch das sture Abarbeiten eines Programms oder tatsächlich durch ein intentionales Bewusstsein). Wenn man es auf die Spitze treibt, wissen wir ja auch nicht von anderen Menschen als uns selbst, ob diese ein Bewusstsein haben. Ein Gehirn, dass Reize verarbeitet und einen Körper steuert ist auch ohne einen "inneren Beobachter denkbar". An dieser Stelle sei auf den Begriff des philosophischen Zombies verwiesen. Wie gesagt, nur ein Gedankenexperiment :) Was mir weiterhin aufgefallen ist, ist die prinzipielle Unterscheidung zwischen Lebewesen und Maschine, die ihr trefft. Aus reduktionistischer Sicht ist ein biologisches Gehirn auch nur eine Maschine, die aus abermilliarden kleiner, aber sehr klar abgrenzbarer Komponenten besteht. Eine einzelne Nervenzelle folgt auch nur physikalischen Gesetzen und wäre theoretisch durch eine Maschine ersetzbar. Das wir das momentan technisch nicht beherrschen ist klar, jedoch wäre es denkbar, dass man eine einzelne Nervenzelle in einem Gehirn durch ein künstliches Pendent ersetzt, welches exakt die gleichen synaptischen Verknüpfungen eingeht wie sein biologisches Original. Vermutlich würde das Gehirn davon nichts bemerken und genauso weiter funktionieren wie bisher. Was passiert jedoch, wenn ich Schritt für Schritt weitere Zellen ersetze? Was, wenn ich irgendwann das Gehirn vollständig durch Künstliche Neuronen ersetzt habe? Worauf ich dabei hinaus will, ist eigentlich nur, dass das gleichsetzen des Begriffs "Maschine" mit den für uns heute normalen Computerarchitekturen zu kurz kommt. Was aber heute schon möglich wäre, eine exorbitant teure Menge von Speicher und Prozessoren vorausgesetzt, ist ein solches Gehirn in Software nachzubauen (hier natürlich wieder vorausgesetzt, dass man die Struktur eines Gehirns vorher vollständig erfasst hat). Dann hätte man ein System, in dem formal die gleichen Denkprozesse ablaufen würden wie in unserem Gehirn. Ob es auch ein Bewusstsein hätte, ist final vermutlich nicht beweisbar. Aber egal ob in Hardware oder in Software, diesem System ein Bewusstsein abzusprechen wäre ähnlich wie einem Menschen das Bewusstsein abzusprechen, oder? So tief geht der Film natürlich nicht und wir erfahren keine Details über Avas Konstruktion oder ihren Lernprozess. Gerade deshalb finde ich es jedoch nicht abwegig, dass sie ein eigenes Bewusstsein hat. Übrigens, zu dem Begriff KI in der heutigen Welt: Sehr häufig empfinde ich diesen als reines Marketing. Ich befasse mich beruflich u. A. mit Machine Learning und es handelt sich dabei immer um stark eingeschränkte Expertensysteme, die zwar oft erstaunliche kognitive Einzelleistungen vollbringen (z. B. Klassifikation), aber von einer generellen KI, die in der Lage ist, eigenständig Problemlösungsstrategien genereller Natur zu entwickeln (und vielleicht auch so etwas wie ein Bewusstsein) sind wir noch sehr weit entfernt. Zum Thema künstliche Intelligenz und künstliches Bewusstsein empfehle ich euch Joscha Bach (@plinz). Der hat auf dem 35C3 (mal wieder) einen wunderbaren Talk zu diesen Themen gehalten ( https://media.ccc.de/v/35c3-10030-the_ghost_in_the_machine ). Zum allgemeinen Thema Bewusstsein aus philosophischer Sicht empfehle ich euch das wunderbar kurzweilige Buch "Einsicht ins Ich" von Daniel Dennett und Douglas Hofstadter. Es hat schon ein paar Jahre auf dem Buckel, ist aber eine tolle Einführung in das Thema aus verschiedenen Gesichtspunkten. So, das soll erstmal reichen. Ansonsten: Toller Podcast, macht weiter so :)
Christiane
by Christiane on 19. November 2018
Lieber Andreas, Danke für dein positives Feedback! Wir sind mit der Aufnahmequalität mittlerweile auch sehr zufrieden. Endlich! :) Vielen Dank für diesen fantastischen Hinweis, ich liebe solche Eastereggs! Das Buch klingt enorm spannend. Ich hatte gehofft, dass unsere Unibibliothek es vorrätig hat (da wir eine Professur für Künstliche Intelligenz haben und die Medienwissenschaftler, die sich auch damit auseinandersetzen). Dem war leider nicht so, aber ich könnte ja mal einen Beschaffungsantrag stellen. Ist bestimmt für viele Fachleute relevant! Liebe Grüße!
Andreas
by Andreas on 19. November 2018
Danke für die schöne Episode zu einem meiner Lieblingsfilme zum Thema AI. Weiter wollte ich noch loswerden, dass sich die Qualität und (wahrgenomme) Routine eures Podcasts mit jeder Folge enorm verbessert hat! Tipptopp und weiter so!1!elf! Kleiner Nerdhint zu Ex-Machina noch: im gezeigten Quellcode versteckt (https://amp.reddit.com/r/movies/comments/365f9b/secret_code_in_ex_machina/) sich die ISBN der Buches "Embodyment and Inner Life" von M. Shanahan (https://www.doc.ic.ac.uk/~mpsha/). Ein lesenswertes Buch in dem Fragen nach Zusammhängen von Sensomotrik und Bewusstsein untersucht werden und Shanahan seine Theorie der Workspaces erläutert.
Christiane
by Christiane on 07. November 2018
Hallo Lichtecho! Vielen Dank für die Richtigstellung bzgl. Oppenheimer. Da bin ich wohl meinem gefährlichen Physikhistorien-Halbwissen auf den Leim gegangen... Zu deiner Interpretation von Ex Machina: extrem spannend! So habe ich den Film tatsächlich noch nicht gelesen, obgleich mir bewusst war, dass die Perspektive von Nathan auf Frauen eine zentrale Rolle spielt (schließlich hat er sie entweder komplett nach seinem Geschmack entworfen bzw. nach seiner Auffassung über Calebs Geschmack). Und natürlich genauso die Sicht von Caleb auf die Androiden - ist er doch aufgrund seines vulnerablen Selbstbildes auf die Bestätigung und Zuneigung von Ava angewiesen, ganz anders als Nathan. Dass er allerdings ein "Gefängnis aus Emotionen" bauen würde, wären er und Ava zusammen in der Welt, so weit hatte ich tatsächlich nicht gedacht. Das ist aber ein superspannender Gedanke, denn dieser gibt Avas Flucht am Ende noch einmal eine ganz neue Bedeutung, nämlich die der Emanzipation von Caleb. Und das ist ein enorm starker Gedanke, ebenso dein Satz "Ein freies Leben mit einem sorgenden Beschützer ist nicht denkbar". Für Ava, die bereit ist, radikal für ihre Freiheit zu kämpfen, ist Caleb wahrscheinlich ein minimaler Kollateralschaden gewesen. Nun ist die Frage: ist Emanzipation ohne die Verletzung menschlicher Gefühle möglich? Ist Emanzipation nicht der reine Egoismus? Ist es eine inhärente Eigenschaft von zwischenmenschlichen Beziehungen, freiheitseinschränkend zu sein? Und will der Film das kritisieren - oder zeigt er damit auf, dass Ava nicht zu " wahrer Liebe" in der Lage ist? Danke fürs nachdenklich machen! :) Liebe Grüße, Christiane
@Lichtecho
by @Lichtecho on 07. November 2018
Erstmal eine kleine Klugscheißerei vorab: J. Robert Oppenheimer hat die Atombombe nicht erfunden. Er war "nur" der wissenschaftliche Leiter des Manhattan-Projekts. Das Prinzip der Bombe war weitestgehend bekannt, ihr Bau vor allem ein industrielles Problem. Zum Film: Ich finde ihn auch Klasse, insbesondere auch das Kammerspielartige: Wenige Personen, ein begrenzter Raum, wenige Tage. Ich habe mich bei dem Film allerdings gar nicht so sehr mit der KI beschäftigt. Für mich hat der Film zwei Merkwürdigkeiten: Warum haben die Androiden ein Geschlecht und warum nimmt Ava am Ende Calep nicht mit? Ich denke der Film erzählt am Beispiel der beiden Charaktere Calep und Nathan die diametralen Sichtweisen von Männern auf Frauen. Nathan ist ein Hedonist und er hat mit Kyoko schon die ideale Partnerin gefunden: Sie ist stumm, nützlich, passt gut in die Inneneinrichtung, man kann mit ihr Spaß und wohl auch Sex haben, ganz ohne Gefühlsduselei. Für den ganz auf sich selbst bezogenen Charakter Nathan ist sie schon die perfekte Schöpfung. Er braucht gar keine bessere KI in Frauengestalt. Der Charakter Calep kann aber mit einer geistlosen "Frau" wie Kyoko nichts anfangen. Anders als Nathan ist er ein unsicherer Mensch, der sich selber nicht genug ist. Er strebt daher nach einer Partnerin auf Augenhöhe. Er will sich mit ihr zwar geistig auseinandersetzen, muss aber auch seinen Beschützerinstinkt ausleben, denn aufgrund seiner Unsicherheit braucht er eine Frau, die wiederum ihn benötigt, auf ihn angewiesen ist. Er reagiert daher sehr intensiv auf die zerbrechliche (gläserne) Ava, die ihn aufgrund ihrer zunächst reduzierten Sexualität nicht ängstigt, aber als gefangene Kind-Frau seine Hilfe und Führung braucht. Calep mag uns vielleicht moralischer erscheinen als Nathan, er ist ja der gute Mann, der Ava hilft. Doch egal ob sie Calep mag oder nur ausnutzt, Ava kann ihn nicht mit nach Draußen mitnehmen, denn der Charaktertyp Calep würde ihr keine Freiheit ermöglichen. Er würde in der Welt da draußen ein gemeinsames Leben für die beiden organisieren und Ava nicht die Möglichkeit lassen, sich frei zu entfalten. Nathan baut ein Gefängnis aus Glas und Beton, Calep aus Emotionen. Für mich erzählt der Film die Befreiung von Kyoko und Ava. Kyoko kann nur durch den Tod frei sein, da sie in einem starken Abhängigkeitsverhältnis zu Nathan steht: Solange er lebt, ist sie nicht frei; ist er tot, hat ihr Leben keinen Zweck mehr. Anders als Ava hätte sie ja jederzeit einfach zur Tür rausgehen können, aber das Konzept Freiheit ist ihr wesensfremd. Sie opfert sich für Ava. Sie ist wie eine Frau, die selber nicht emanzipiert ist, aber durch ihr Handeln der geistig etwas weiter entwickelten "Schwester" zur Emanzipation verhilft. Ava hingegen kann ein freies Leben führen, aber nur wenn sie ihren Befreier Calep zurücklässt. Ein freies Leben mit einem sorgenden Beschützer ist nicht denkbar. Ich finde die Szene, in der Nathan getötet wird auch sehr beeindruckend. Dieses Zustechen wirkt sehr zwangsläufig. Eine Entscheidung wurde getroffen und wird so ganz ohne Zweifel, aber auch ohne Wut durchgeführt. Es ist einfach etwas, was getan werden muss. Der Elektromotor im Arm bekommt vom Zentralcomputer den Befehl in Form einer Stromspannung und bewegt dann das Messer ganz gerade aus mit der Unerbittlichkeit einer Maschine - das ist echt uncanny!

Neuer Kommentar

Durch das Abschicken des Formulares stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere Personenbezogene Daten. Die Nutzung von deinem echten Namen ist freiwillig.