deepfake: alles wat je moet weten over de door ai aangedreven nep-media

Deepfake: alles wat je moet weten over de door AI aangedreven nep-media

Al zolang er foto’s en film bestaan verzinnen mensen vervalsingen die bedoeld zijn om de kijkers te misleiden of te amuseren. Maar de nieuwste tak van vervalsingen, deepfakes, zouden het ons heel goed onmogelijk kunnen maken om straks nog feiten van fictie te onderscheiden.

Wat is deepfake?

Deepfaketechnologie manipuleert video en audio en creëert mensen die niet bestaan, of laat echte mensen dingen zeggen en doen die ze niet gezegd of gedaan hebben.

Deepfakes zijn de meest prominente vorm van synthetische media: beelden, geluid en video die met traditionele middelen gemaakt lijken te zijn, maar in feite door ingewikkelde software gemaakt zijn.

Deepfakes zijn, in hun meest voorkomende vorm, video’s waarin het gezicht van een persoon overtuigend vervangen is door een computer-gegenereerd gezicht, dat vaak op een tweede persoon lijkt.

Je hoeft alleen maar een paar gezichten te bekijken op thispersondoesnotexist.com om te weten te komen hoe levensecht AI fictionele personen kan maken.

Waar staat het ‘deep’ in deepfake voor?

Het ‘deep’ in deep fake verwijst naar ‘deep learning’, een vorm van kunstmatige intelligentie (AI) . Het is dit element, en het feit dat de gezichten geheel door een computer gegenereerd worden, dat deepfake anders en potentieel gevaarlijker maakt dan vervalsingen die handmatig door mensen gemaakt zijn.

De computers en software leren bij deep learning op de manier waarop organische hersenen leren. De systemen verwerken bepaalde taken steeds opnieuw, soms helemaal zonder supervisie van mensen, om te leren wat de beste manier is om bepaalde input om te zetten in een gewenste output.

Bij deepfake betekent dit het gezicht van een persoon veranderen in dat van een ander, op manieren waar een menselijke bewerker misschien niet aan denkt of niet in staat zou zijn op te merken.

Er is niets dat het maken van een deepfake-algoritme tegenhoudt die andere dingen doet dan gezichtsbewerking, maar dat speelt niet in op de sterke punten van deep learning en zou waarschijnlijk gemakkelijker met andere middelen bereikt kunnen worden.

De kracht zit hem in de gezichtsveranderende software. Alle gezichten hebben gemeenschappelijke kenmerken, zelfs bij mensen met een heel verschillend uiterlijk. Zolang die elementen consistent zijn zijn onze hersenen geneigd te geloven wat ze zien.

Waarvoor worden deepfakes gebruikt?

Goedaardige doelen deepfakes

De mogelijkheid om automatisch gezichten te verwisselen om geloofwaardig en realistisch ogende fakevideo’s te maken heeft interessante toepassingen in bijvoorbeeld de bioscoop en in de spelindustrie.

Er is daarnaast geen tekort aan deepfakes die gebruikt worden voor humor en satire, zoals clips die antwoord geven op vragen als ‘hoe zou Nicolas Cage eruit zien als hij in “Raiders of the Lost Ark” was verschenen?’

Deepfakes zijn niet beperkt tot alleen video’s. Deepfake-audio is een snel groeiend veld dat een enorm aantal toepassingen kent. Programmeurs kunnen in-game personages alles laten zeggen in plaats van te vertrouwen op een beperkte reeks scripts die vóór de uitgave van het spel werden opgenomen.

Kwaadaardige doelen deepfakes

De bedoeling van deepfake is nep-inhoud te gebruiken om kijkers en luisteraars te beïnvloeden zodat ze geloven dat er iets gebeurd is wat niet zo is. De kwaadaardige mogelijkheden zijn dus ook eindeloos. Deepfakes worden vaak gebruikt om verkeerde informatie te verspreiden. Mogelijke kwaadaardige doelstellingen van deepfakes zijn:

  • Phishing
  • Datalekken
  • Hoaxes
  • Pornografie van beroemdheden
  • Het besmeuren van reputatie
  • Manipulatie van verkiezingen
  • Sociale manipulatie
  • Geautomatiseerde desinformatie-aanvallen
  • Identiteitsdiefstal
  • Financiële fraude
  • Chantage

In dat laatste geval beweren chanteurs dat ze een valse maar schadelijke video van je zullen vrijgeven als je ze geen geld of iets anders van waarde geeft.

Deepfake-porno

De term deepfake werd populair in 2017 toen een Redditgebruiker die zichzelf deepfakes noemde gemanipuleerde, pornografische video’s deelde. Hij zette gezichten van beroemdheden op lichamen van anderen door Google’s open-source, deep-learning technologie te manipuleren.

In de r/deepfakes subreddit begonnen leden pornografische video’s te delen waarop populaire vrouwelijke beroemdheden leken te staan. Het was duidelijk dat de beroemdheden geen aandeel hadden in het maken van de video’s, maar de gebruikte technieken zorgden ervoor dat ze veel overtuigender waren dan traditionele vervalsingen waarbij het gezicht uit de ene video op het lichaam uit een andere video werd overgezet.

Sinds die tijd heeft porno, vooral wraakporno, herhaaldelijk het nieuws gehaald. In september 2019 publiceerde het Amsterdamse bedrijf Deeptrace, een organisatie die zich toelegt op het onderzoek naar de evoluerende mogelijkheden en bedreigingen van diepe vervalsingen, een studie naar de bijna 15.000 deepfakes die op dat moment online circuleerden. Het ontdekte dat 96 procent pornografisch was, waarvan 99 procent met de gezichten van vrouwelijke beroemdheden.

Uit de studie bleek ook dat de top vier websites gewijd aan deepfake-pornografie, waarvan de eerste in februari 2018 werd gelanceerd, al bijna 135 miljoen videoweergaven hadden. De meeste mainstream-sites waaronder Reddit hebben deepfake-pornografie inmiddels verboden.

Deepfake-politiek

Deepfake-video’s zijn ook in de politiek gebruikt. In 2018 bracht een Belgische politieke partij bijvoorbeeld een video uit van Donald Trump die een toespraak hield waarin hij België opriep zich terug te trekken uit het klimaatakkoord van Parijs. Trump hield die toespraak echter niet. Het was een deepfake.

Dat was niet het eerste gebruik van een deepfake om misleidende video’s te maken, en technisch onderlegde politieke deskundigen zetten zich schrap voor een toekomstige golf van nepnieuws waarin steeds overtuigendere realistische deepfakes voorkomen.

Het journalistieke platform De Correspondent plaatste 28 oktober 2021 een deepfake-filmpje van demissionair premier Mark Rutte. In de neptoespraak luidt Rutte de noodklok over de klimaatveranderingen en kondigt hij aan verregaand beleid door te voeren.

Deepfake-cyberpesten

Er zijn daarnaast grote gevolgen voor cyberpesten als iedereen een TikTok-account of een ander video-account heeft met honderden uren selfie-video’s. Zeker als toekomstige technologie het makkelijk maakt om van die beelden deepfakes te maken. Het kan moeilijk zijn om je onschuld te bewijzen als je leeftijdgenoten een video in handen krijgen waarop te zien is dat je iets onaangenaams doet.

Hoe kun je deepfake herkennen?

Op het oog deepfakes spotten

Hoewel de technologie zeer indrukwekkend is, het idee dat eendeepfake niet van echte opnamen te onderscheiden is nog slechts theoretisch. Een poging om werkelijk te misleiden vereist ongelooflijk geavanceerde software, veel gegevens en een manier om zowel de stem van het onderwerp als het gezicht te imiteren. Maar naarmate de detectietechnologie vooruitgaat, neemt ook de kwaliteit van deepfake-technologie toe.

Dit zijn tekenen dat je te maken hebt met een deepfake:

  • Onnatuurlijke oogbewegingen. Oogbewegingen die er niet natuurlijk uitzien, of een gebrek aan oogbeweging, verraad deepfake-technologie. Het is moeilijk om het oogknipperen na te bootsen op een manier die er natuurlijk uitziet, of de manier waarop menselijke ogen iemand volgen die praat.
  • Onnatuurlijke gezichtsuitdrukkingen. Als er iets niet klopt aan een gezicht, kan dat wijzen op gezichtsmorphing waarbij de ene afbeelding over de andere is gezet.
  • Onhandige plaatsing van gelaatstrekken. Als iemands gezicht de ene kant op wijst en zijn neus de andere kant, moet je sceptisch zijn over de echtheid van de video.
  • Een gebrek aan emotie. Je kunt ook gezichtsmorphing opmerken als iemands gezicht niet de emotie lijkt te vertonen die hoort bij wat hij of zij beweert te zeggen.
  • Onhandig uitziend lichaam of houding. Een ander teken is als iemands lichaamsvorm er niet natuurlijk uitziet of als er sprake is van een onhandige of inconsequente houding van hoofd en lichaam. Dit kan een van de gemakkelijker inconsistenties zijn om op te merken, omdat deepfake-technologie zich meestal meer op gelaatstrekken dan op het hele lichaam richt.
  • Onnatuurlijke lichaamsbewegingen. Als iemand er vervormd of afgewend uitziet als hij zich opzij draait of zijn hoofd beweegt, of als zijn bewegingen van het ene beeld naar het andere schokkerig en onsamenhangend zijn, is de video waarschijnlijk nep.
  • Onnatuurlijke kleuren. Abnormale huidskleur, verkleuringen, vreemde belichting, en misplaatste schaduwen zijn allemaal tekenen dat wat je ziet waarschijnlijk nep is.
  • Haar dat er niet echt uitziet. Je zult geen pluizig of wapperend haar zien, want nepbeelden kunnen deze individuele kenmerken niet goed overbrengen.
  • Tanden die er niet echt uitzien. Algoritmes kunnen soms geen afzonderlijke tanden genereren, dus het ontbreken van contouren van afzonderlijke tanden kan een aanwijzing zijn.
  • Vaagheid of scheefstand. Als de randen van beelden wazig zijn of beelden verkeerd uitgelijnd – bijvoorbeeld waar iemands gezicht en hals samenkomen met zijn lichaam – dan weet je dat er iets niet in orde is.
  • Onsamenhangend geluid of audio. Deepfake-makers besteden meestal meer tijd aan de videobeelden dan aan het geluid. Het resultaat kan slechte lipsynchronisatie zijn, robotachtig klinkende stemmen, vreemde woorduitspraken, digitale achtergrondruis, of zelfs het ontbreken van geluid.
  • Beelden die er bij vertragen onnatuurlijk uitzien. Als je een video bekijkt op een scherm dat groter is dan je smartphone of video-bewerkingsprogramma’s hebt die het afspelen van een video kunnen vertragen, kun je inzoomen en beelden nauwkeuriger bekijken. Inzoomen op lippen, bijvoorbeeld, helpt je om te zien of ze echt praten of dat het slechte lipsynchronisatie is.
  • Hashtag tegenstrijdigheden. Er is een cryptografisch algoritme dat videomakers helpt aan te tonen dat hun video’s authentiek zijn. Het algoritme wordt gebruikt om op bepaalde plaatsen in een video hashtags in te voegen. Als de hashtags veranderen kan dat een teken zijn dat de video gemanipuleerd is.
  • Digitale vingerafdrukken. Blockchain-technologie kan ook een digitale vingerafdruk voor video’s maken. Deze op blockchain gebaseerde verificatie kan helpen de echtheid van een video vast te stellen.
  • Omgekeerd zoeken naar afbeeldingen. Een zoekactie naar een origineel beeld, of een omgekeerde zoekactie met behulp van een computer, kan online gelijksoortige video’s opgraven om te helpen bepalen of een beeld, audio, of video op een of andere manier veranderd is. Hoewel omgekeerde video zoektechnologie nog niet voor iedereen beschikbaar is kan investeren in een hulpmiddel als dit nuttig zijn.

Met technologie deepfakes detecteren

Verschillende groepen bedenken manieren om meer transparantie van AI te bevorderen en mensen tegen deepfakes te beschermen:

  • Sociale media platforms als Twitter en Facebook hebben het gebruik van kwaadaardige deepfakes verboden.
  • Google werkt aan tekst-naar-spraak conversie gereedschappen om sprekers te verifiëren.
  • Adobe heeft een systeem waarmee je een soort handtekening aan je inhoud kunt hechten die de details van de creatie ervan specificeert. Adobe ontwikkelt ook een hulpmiddel om te bepalen of een gezichtsfoto gemanipuleerd is.
  • Onderzoekers van de University of Southern California en de University of California, Berkeley konden met behulp van machine-learning technologie die biometrische kenmerken onderzoekt zoals gezichtsuitdrukking en de manier waarop iemand spreekt, deepfakes opsporen met 92 tot 96 procent nauwkeurigheid.
  • Deepfake Detection Challenge en gelijke organisaties stimuleren oplossingen voor deepfake-detectie door innovatie door samenwerking aan te moedigen. De DFDC deelt een dataset van 124.000 video’s waarop acht algoritmen voor gezichtsaanpassing te zien zijn.
  • Deeptrace. Dit in Amsterdam gevestigde bedrijf ontwikkelt geautomatiseerde deepfake-detectiemiddelen om achtergrondscans van audiovisuele media uit te voeren. Het is vergelijkbaar met een deepfake-antivirus-programma.
  • U.S. Defense Advanced Research Projects Agency. DARPA financiert onderzoek om geautomatiseerde screening van deepfake technologie te ontwikkelen via een programma dat MediFor heet, of Media Forensics.

Makers van opsporingsalgoritmen reageren op de nieuwste deepfakes met hun eigen nieuwe technologie. Op hun beurt reageren de mensen achter die deepfakes op de nieuwe detectietechnologie.

Deze lijst zal dus lang niet altijd voldoende zijn om deepfakes te spotten. Het helpt als je sceptisch bent over video’s die je op het internet ziet en voorzichtig met het sturen van geld tot je zeker weet dat de stem aan de andere kant van de lijn legitiem is.

Hoe maak je deepfake?

Er zijn verschillende methoden om deepfakes te maken, maar de meest gebruikelijke berust op het gebruik van diepe neurale netwerken met autoencoders die een gezichtsverwisseltechniek toepassen. Je hebt eerst een doelvideo nodig om als basis van de deepfake te gebruiken en dan een verzameling videoclips van de persoon die je in de doelvideo wilt invoegen.

De video’s kunnen volkomen ongerelateerd zijn; het doel kan bijvoorbeeld een clip uit een Hollywoodfilm zijn, en de video’s van de persoon die je in de film wilt invoegen kunnen willekeurige van YouTube gedownloade clips zijn. Door de verschillende stukjes video met elkaar te vergelijken probeert de software te leren hoe je het gezicht vanuit alle hoeken kunt reconstrueren.

Speciale tweedelige deep-learning systemen, generatieve adversaire netwerken (GAN’s) genoemd, zijn in staat van alles te genereren, van originele scenario’s tot schilderijen van compleet verzonnen landschappen. Het systeem speelt in wezen een spel tegen zichzelf, waarbij het zijn eigen output bekritiseert en evalueert aan de hand van wat het denkt dat mensen als echt zullen accepteren. Bij deepfakes kan dit kunstmatige valse video’s opleveren zonder waarneembare gebreken.

Verschillende apps en softwares maken het maken van deepfakes gemakkelijk, zelfs voor beginners, zoals de Chinese app Zao, DeepFace Lab, FaceApp (dat is een fotobewerkingsapp met ingebouwde AI-technieken), Face Swap, en de inmiddels verwijderde DeepNude, een bijzonder gevaarlijke app die valse naaktfoto’s van vrouwen genereerde.

Een grote hoeveelheid deepfakesoftware is te vinden op GitHub, een open-source-gemeenschap voor software-ontwikkeling. Sommige van deze apps worden gebruikt voor pure amusementsdoeleinden terwijl andere waarschijnlijk kwaadwillig gebruikt worden.

Bronnen

Stephen Wolfram, CC BY-SA 4.0 https://creativecommons.org/licenses/by-sa/4.0, via Wikimedia Commons