Deepfakes door AI gecreeerde gezichten zien er nu echter uit

Deepfakes: door AI gecreëerde gezichten zien er nu echter uit dan echte foto’s

Zelfs als je denkt dat je goed bent in het analyseren van gezichten, blijkt uit onderzoek dat veel mensen geen betrouwbaar onderscheid kunnen maken tussen foto’s van echte gezichten en afbeeldingen die door de computer zijn gegenereerd. Dit is vooral problematisch nu computersystemen realistisch ogende foto’s kunnen maken van mensen die niet bestaan.

Onlangs haalde een vals LinkedIn-profiel met een computergegenereerde profielfoto het nieuws omdat het bijvoorbeeld met succes contact legde met Amerikaanse functionarissen en andere invloedrijke personen op het netwerkplatform. Contraspionage-experts zeggen zelfs dat spionnen routinematig spookprofielen met dergelijke foto’s aanmaken om buitenlandse doelwitten via sociale media op te sporen.

Deze diepe vervalsingen worden wijdverbreid in de alledaagse cultuur, wat betekent dat mensen zich meer bewust moeten zijn van hoe ze worden gebruikt in marketing, reclame en sociale media. De beelden worden ook gebruikt voor kwaadaardige doeleinden, zoals politieke propaganda, spionage en informatieoorlog.

Om ze te maken wordt een diep neuraal netwerk gebruikt, een computersysteem dat de manier nabootst waarop de hersenen leren. Dit wordt “getraind” door het bloot te stellen aan steeds grotere datasets van echte gezichten.

In feite worden twee diepe neurale netwerken tegen elkaar afgezet, in een strijd om de meest realistische beelden te produceren. Als resultaat worden de eindproducten GAN-beelden genoemd, waarbij GAN staat voor Generative Adversarial Networks. Het proces genereert nieuwe beelden die statistisch niet te onderscheiden zijn van de trainingsbeelden.

In onze studie, gepubliceerd in iScience, toonden we aan dat het niet kunnen onderscheiden van deze kunstmatige gezichten van het echte gezicht gevolgen heeft voor ons online gedrag. Ons onderzoek suggereert dat de nepbeelden ons vertrouwen in anderen kunnen aantasten en de manier waarop we online communiceren ingrijpend kunnen veranderen.

Mijn collega’s en ik ontdekten dat mensen GAN-gezichten nog echter vonden dan echte foto’s van echte mensengezichten. Hoewel het nog niet duidelijk is waarom dit zo is, benadrukt deze bevinding de recente vooruitgang in de technologie die wordt gebruikt om kunstmatige beelden te genereren.

En we vonden ook een interessant verband met aantrekkelijkheid: gezichten die als minder aantrekkelijk werden beoordeeld, werden ook als echter beoordeeld. Minder aantrekkelijke gezichten kunnen als meer typisch worden beschouwd en het typische gezicht kan worden gebruikt als referentie waarmee alle gezichten worden geëvalueerd. Daarom zouden deze GAN-gezichten er echter uitzien omdat ze meer lijken op mentale sjablonen die mensen in het dagelijks leven hebben opgebouwd.

Maar het zien van deze kunstmatige gezichten als authentiek kan ook gevolgen hebben voor het algemene niveau van vertrouwen dat we uitbreiden naar een kring van onbekende mensen – een concept dat bekend staat als “sociaal vertrouwen”.

We lezen vaak te veel in de gezichten die we zien, en de eerste indrukken die we vormen bepalen onze sociale interacties. In een tweede experiment dat deel uitmaakte van onze laatste studie, zagen we dat mensen eerder geneigd waren informatie te vertrouwen van gezichten die ze eerder als echt hadden beoordeeld, zelfs als ze kunstmatig waren gecreëerd.

Het is niet verrassend dat mensen meer vertrouwen stellen in gezichten waarvan ze denken dat ze echt zijn. Maar wij vonden dat het vertrouwen werd aangetast zodra mensen werden geïnformeerd over de mogelijke aanwezigheid van kunstmatige gezichten in online interacties. Ze hadden dan minder vertrouwen, ongeacht of de gezichten echt waren of niet.

Dit resultaat kan in sommige opzichten als nuttig worden beschouwd, omdat het mensen wantrouwiger maakt in een omgeving waar nepgebruikers actief kunnen zijn. Maar vanuit een ander perspectief kan het de aard van onze communicatie geleidelijk uithollen.

In het algemeen gaan we ervan uit dat andere mensen in principe waarheidsgetrouw en betrouwbaar zijn. De toename van nepprofielen en andere kunstmatige online-inhoud doet de vraag rijzen in hoeverre hun aanwezigheid en onze kennis daarover deze “standaardwaarheids”-toestand kan veranderen en uiteindelijk het sociale vertrouwen kan aantasten.

Onze standaardwaarden veranderen

De overgang naar een wereld waarin wat echt is niet te onderscheiden is van wat niet echt is, zou ook het culturele landschap kunnen verschuiven van hoofdzakelijk waarheidsgetrouw naar hoofdzakelijk kunstmatig en bedrieglijk.

Als we regelmatig vraagtekens zetten bij het waarheidsgehalte van wat we online ervaren, zou dat kunnen betekenen dat we onze mentale inspanning moeten verleggen van de verwerking van de berichten zelf naar de verwerking van de identiteit van de boodschapper. Met andere woorden, het wijdverbreide gebruik van zeer realistische, maar kunstmatige, online inhoud zou ons kunnen verplichten anders te denken – op manieren die we niet hadden verwacht.

In de psychologie gebruiken we een term die “reality monitoring” heet voor hoe we correct identificeren of iets uit de externe wereld komt of uit onze hersenen. De opmars van technologieën die valse, maar zeer realistische gezichten, beelden en videogesprekken kunnen produceren, betekent dat realiteitscontrole gebaseerd moet zijn op andere informatie dan onze eigen oordelen. Het vraagt ook om een bredere discussie over de vraag of de mensheid het zich nog wel kan veroorloven om de waarheid als uitgangspunt te nemen.

Het is cruciaal dat mensen kritischer zijn bij het beoordelen van digitale gezichten. Dit kan inhouden dat ze omgekeerd zoeken naar afbeeldingen om te controleren of foto’s echt zijn, op hun hoede zijn voor social media profielen met weinig persoonlijke informatie of een groot aantal volgers, en zich bewust zijn van de mogelijkheid dat deepfake technologie wordt gebruikt voor snode doeleinden.

De volgende stap op dit gebied zijn verbeterde algoritmen voor het detecteren van valse digitale gezichten. Deze zouden dan kunnen worden ingebouwd in sociale media platforms om ons te helpen de echte van de valse te onderscheiden als het gaat om de gezichten van nieuwe connecties.

Het enige echte gezicht in de samengestelde afbeelding hierboven bevindt zich in de tweede kolom van links, vierde afbeelding van boven.

Manos Tsakiris ontvangt financiering van de Stichting NOMIS.