Wat probeerde Nathan in Ex Machina te bereiken?

8

In de film wordt ons getoond dat Nathan een echte AI wil maken, die de Turing-test doorstaat.

Later blijkt dat de test niet is wat wij en Caleb eerst dachten, maar verder gaan.

Wat ik niet zeker weet, is wat Nathan precies wilde creëren? Vergeleken met het eerdere model dat we in de video's zagen, is het weergeven van gevoelens van Ava vrij slecht. Het eerdere model wordt boos en wanhopig, schreeuwt "Laat me eruit" en valt de glazen wand aan die haar eigen armen breekt, ondanks dat het / zij wel van de futiliteit heeft geweten. Dit is voor mij een veel betere weergave van "echte" gevoelens, dan alles wat Ava (het geavanceerde model) doet.

Dus het lijkt mij dat het creëren van een kunstmatige mens met echte gevoelens niet zijn uiteindelijke doel was. Hij lijkt dat doel al bereikt te hebben met zijn eerdere prototypen en zijn geavanceerde model lijkt een achterstand van dat doel te zijn.

Bewerken:

verwijderd "Ook de" menselijke gelijkenis "van eerdere modellen (met huid) is beter dan die van Ava." Vanwege commentaar.

    
reeks Hothie 16.01.2017 / 09:31

3 antwoord

6

Dit werd besproken in een interview met Alex Garland, de schrijver en regisseur van de film. Kortom, Nathan, die een echte AI heeft gebouwd en erkent dat het menselijk ras op de rand van uitsterving staat, is verwikkeld in een wild zelfvernietigend gedragspatroon. Hij nodigt een van zijn medewerkers uit om hem te helpen zijn robot te verbeteren en te kijken of ze in staat is om hem te manipuleren om te ontsnappen.

Onda: The cat-and-mouse games between Nathan and Caleb and Caleb and Ava really drive the film forward. Is Nathan’s reluctance to indulge Caleb’s “smart” questions a way of deflecting him from exploring the subjectivity of the Turing Test as it’s being used in this situation?

Garland: I think he’s doing all sorts of different things at different times, but largely what he’s doing is manipulating him. For the purposes of his tests, what he wants to see is how Ava is going to be able to interact with this guy. Is she going to be able to manipulate him, is she going to be able to befriend him, are they gonna fall in love with each other? What is gonna happen when these two things interact with each other? And it’s useful, from his point of view, to present himself as something from which the robot needs to be rescued. So, to an extent, he’s always happy to let Caleb see him as implicitly violent – because he’s always whacking the punch bag – and unpleasant to women who we kind of know are gonna turn out to be robots.

Some of what Nathan is doing is an act. He’s also pretty damaged and broken. He is drinking too much, he has been isolated too long. He is obsessed with this guy Oppenheimer, who created the atomic bomb. He’s sort of committing suicide in a complicated way. What he’s doing is creating a succession of robots, each more intelligent than the last.

And he knows that, at some point, one of these robots is gonna outsmart him, and he knows that when that happens, it’s not gonna end that well for him. And, likewise, it’s not gonna end that well for the rest of us, but he can’t stop himself from doing it, and that kind of messes with his head.

I Thought I Understood ‘Ex Machina’ Until I Met Director Alex Garland

Houd er rekening mee dat het probleem niet is of ze intelligent is (ze is duidelijk), maar of de singularity is bereikt en of haar intelligentie groter is dan de zijne.

it is.

    
antwoord gegeven 17.01.2017 / 21:33
11

Al vroeg in de film suggereert Nathan dat hij een Turing-test uitvoert. Het probleem met de Turing-test (zoals gepresenteerd in deze film) is echter dat het niet echt is dat de machine sentient is; het bewijst alleen maar dat de machine nep bewustzijn voldoende kan foppen om een mens voor de gek te houden.

Zoals Caleb het zegt:

CALEB: ... Like trying to test a chess computer by only playing chess.

NATHAN: How else would you test a chess computer?

CALEB: It depends what you’re testing it for. You can play it to find out if it makes good moves. But that won’t tell you if it knows it’s playing chess. Or if it even knows what chess is.

NATHAN: So it’s simulation versus actual.

CALEB: Exactly. And I think being able to differentiate between those two is the "Turing test" you want me to perform. The difference between an ‘AI’ and an ‘I’.

Hij noemt het nog steeds een "Turing-test" (waarschijnlijk voor de eenvoud) maar in werkelijkheid gaat dit veel verder dan de oorspronkelijke Turing-test, zoals beschreven in de link die je hierboven hebt gegeven. Dan, later, hebben we deze uitwisseling:

NATHAN: Although I’ve got to admit, I’m surprised. I mean, did we ever get past the chess problem, as you phrased it? As in: how do you tell if a machine is expressing a real emotion, or a just a simulated one?

NATHAN pauses.

NATHAN: Does Ava actually like you? Or not?

NATHAN: Though now I stop to think, there is a third option. Not whether she does or doesn’t have the capacity to like you. But whether she’s pretending to like you.

CALEB: Pretending.

NATHAN: Yeah.

CALEB: Why would she do that?

NATHAN: I don’t know. Perhaps - if she saw you as a means of escape.

En nu beginnen we aan het echte motief van Nathan in de film. Hij wil bewijzen dat Ava echt intelligent is - niet alleen maar intelligentie simuleren in een mate die de meeste mensen voor de gek zou houden. De middelen die hij besloot te bewijzen dat Ava in gevangenschap zou worden gezet (een situatie die een echte mens onaanvaardbaar zou vinden) en kijken of ze de motivatie en de middelen om te ontsnappen vindt - uit eigen wil, niet omdat ze geprogrammeerd was om te doen dus - door interactie met een echt mens en hem te overtuigen om haar te helpen.

CALEB: What was the real test?

NATHAN: You. Ava was a mouse in a mousetrap. And I gave her one way out.

[Ed: De "one way out" was haar gesprek met Caleb - ze kan haar kamer nooit anders verlaten. Zelfs wanneer je met Caleb praat, is er een glazen wand tussen, zodat ze hem fysiek niet kan dwingen haar te helpen.]

NATHAN: To escape, she would have to use imagination, sexuality, self-awareness, empathy, manipulation - and she did. If that isn’t AI, what the f--- is?

Het is dus een variatie op de originele Turing-test. Niet voor de machine om een persoon ervan te overtuigen dat het een mens is, maar voor de machine om een persoon te overtuigen, verdient het om behandeld te worden als een mens, ook al is het duidelijk niet.

    
antwoord gegeven 16.01.2017 / 16:14
1

DISCLAIMER: dit antwoord bevat spoilers en slecht doordachte interpretaties.

Aan het begin van de film had Nathan al machines die het menselijk gedrag konden imiteren. Met dit experiment wilde Nathan testen of AI gevoelens en innerlijke motivaties van een mens kan waarnemen.

Nathan gebruikte een enorme hoeveelheid echte gegevens als een trainingsset voor zijn AI. Zoals je al hebt opgemerkt, waren eerdere modellen al in staat om geloofwaardig te handelen. Het probleem was dat Nathan niet kon nagaan of machines de redenen achter hun acties begrepen. Elke, zelfs de meest oprechte emotionele reactie (bijvoorbeeld wanhopige zelfmoordaanslag) kan worden geïnterpreteerd als een simulatie van het gedrag van de statistisch gemiddelde persoon of willekeurig gekozen aandelenreactie. Als gevolg hiervan was het onduidelijk of AI een mechanisme had dat vergelijkbaar was met menselijke gevoelens.

Nathan had Caleb niet nodig om het AI-gedrag te testen, hij kon het zelf doen. Nathan had Caleb nodig om te controleren of Ava de menselijke gevoelens kon begrijpen. Ava was gemotiveerd om te ontsnappen, en de enige manier om dit te doen was om Caleb te manipuleren. Als een resultaat van het experiment bevestigde Nathan dat zijn AI niet eenvoudig de menselijke reacties nabootst, maar zich tot op zekere hoogte bewust is van emotionele toestanden en innerlijke motivaties.

Enkele extra punten:

Het feit dat Ava Caleb heeft bedrogen, betekent niet dat ze echte menselijke gevoelens had. Caleb was slechts de eerste, niet echt gecompliceerde, test voor AI. Nathan koos hem juist omdat hij gemakkelijk te manipuleren was. Zelfs het uiterlijk en de stem van Ava zijn afgestemd op de smaak van Caleb. De game was vanaf het begin afgetuigd.

Ava's ontsnapping betekent ook niet noodzakelijk dat AI de mens heeft overtroffen. De ontsnapping gebeurde meestal als gevolg van een overzicht van Nathan's. Van wat we weten, is Ava slechts een testmodel met een primitief ingebouwd doel: om een druk kruispunt te bereiken en naar mensen te staren . Ze was een beetje ongemakkelijk in een gesprek en er is geen reden om aan te nemen dat ze de echte Turing-test zou halen. Nathan was zeker van plan zijn ontwerp te verbeteren en er was ruimte voor verbetering.

    
antwoord gegeven 18.01.2017 / 20:18