Iedereen met een computer kan nu jouw hoofd in een willekeurige porno plaatsen. Geloof ons, het is bijna niet van echt te onderscheiden. En dat is precies wat het doodeng maakt.
Er zijn van die dagen waarop je denkt: wow, wat is technologie toch prachtig en wat gaan we een fantastische toekomst tegemoet! Vandaag is niet zo’n dag. Al lange tijd zijn er alarmerende berichten te lezen over de opkomst van Artificial Intelligence (AI). En nu is er wel een heel eng bericht naar buiten gekomen. Met behulp van slimme algoritmes kan je nu redelijk simpel filmpjes manipuleren. Zo kun je bijvoorbeeld beroemde mensen zoals Obama dingen te laten zeggen die ze nooit echt gezegd hebben.
Dit filmpje van The Verge laat dat perfect zien.
Maar hier blijft het niet bij. Er zijn mensen die het onvermijdelijke hebben bedacht. Als je deze techniek kan gebruiken om nepnieuws te maken, kan je het dan ook gebruiken om nepporno te maken? Het antwoord is ‘ja’. Dat kan.
Zo begon het allemaal
Motherboard kwam achter deze nieuwe ontwikkeling via het online forum Reddit. In december ontdekte de site daar een gebruiker genaamd deepfakes, die een wel heel bijzondere hobby had. In zijn of haar vrije tijd maakt-ie met behulp van een zelfgeschreven algoritme zeer overtuigende pornofilmpjes waarin beroemdheden zoals Taylor Swift en Maisie Williams een hoofdrol leken te spelen.
Dit is geen rocket science meer
Motherboard schreef daar in december dit artikel over en sindsdien lijkt er geen houden meer aan. Steeds meer mensen probeerden de nieuwe techniek uit en binnen twee maanden was daar FakeApp. Een nieuw software programma waarmee iedereen (écht iedereen) die daar zin in heeft nepporno kan maken. Of zoals AI-researcher Alex Champanard tegen Motherboard zegt: “Dit is geen rocket science meer.”
Een luttele vijf uur
Er zitten nog wat kinderziektes in de software, dus sommige filmpjes mislukken nog grandioos. Maar er zijn nu al videos te vinden die uiterst overtuigende neppornobeelden laten zien, bijvoorbeeld van actrice Jessica Alba. Volgens de Reddit-gebruiker die dit filmpje maakte, was het ‘super makkelijk’ en deed hij er slechts een luttele vijf uur over om het te maken.
Wij doen hier niet aan mee
We laten je het bovenstaande filmpje zien om je een idee te geven hoe realistisch deze nepfilmpjes eruit zien. Er zijn beelden die veel grafischer zijn, maar omdat wij dit ronduit walgelijk vinden, willen we niet bijdragen aan de verspreiding van deze filmpjes. Aan de andere kant willen we ook niet onze kop in het zand steken. Dit gebeurt. En we kunnen ons er maar beter bewust van zijn.
Zo werkt het
Volgens deepfakes - die zijn identiteit geheim wil houden - is zijn software gebaseerd op verschillende open-source libraries. Zo gebruikt hij pornografische beelden die beschikbaar zijn voor hergebruik en verkrijgt hij de foto’s en video’s van beroemdheden via Google, Youtube en stockfoto-websites.
Voor de nieuwe software FakeApp moeten gebruikers nu nog hun eigen dataset samenstellen. Deze appgebruiker zeggen hun data vaak te halen uit de Instagram Stories en Snapchat-filmpjes van beroemdheden. Dat is de reden waarom er nog wel een paar uur werk in gaat zitten (en het soms ook nog mislukt). Als je goed kijkt, zie je nu nog wel eens het verschil tussen een echt en een nepfilmpje dat met deze app gemaakt is. Ze lopen nét niet lekker, of haperen een beetje.
Een kind kan de was doen
Maar waarschijnlijk hoeft het zelf verzamelen van foto- en videobeelden binnenkort niet meer. De gebruiker deepfakeapp - die de FakeApp maakte - liet aan Motherboard weten dat zijn doel met de app is ‘om deze technologie toegankelijk te maken voor mensen zonder technische achtergrond of programmeerervaring’.
Of zoals deepfakeapp het zelf verwoordt: “Ik denk dat de huidige versie van de app een goed begin is, maar ik wil hem nog beter maken de komende dagen en weken. Uiteindelijk wil ik de app zo goed maken, dat gebruikers een filmpje op hun computer kunnen selecteren, een dataset kunnen downloaden van het gezicht van een beroemdheid en vervolgens het gezicht van de pornoacteur kunnen verwisselen met dat van een beroemdheid. Gewoon, met een simpele druk op een knop.”
Dit zijn de implicatie
De ontwikkeling van deze techniek is natuurlijk doodeng en geeft een hele nieuwe dimensie aan wraakporno. Het is straks verdomde simpel een nepfilmpje van iemand te maken en hem of haar daarmee te chanteren. Of wat dacht je van het bewerken van speeches van politici? Ook nepnieuws wordt binnenkort echter dan ooit.
Ethisch gezien zijn de gevolgen van deze techniek gigantisch, zegt ook AI-researcher Alex Champandard. We kunnen het simpelweg niet stoppen, maar we kunnen er wél iets tegenin brengen.
“We moeten een zeer luid en publiek debat hierover hebben,” betoogt hij. “Iedereen moet weten hoe makkelijk het is om deze filmpjes te maken. En op een rare manier is dit ook een goed iets. Nu kunnen we de focus leggen op het veranderen van onze samenleving, zodat we hiertegen bestand zijn.”
Wees kritisch! Nu meer dan ooit
Een gewaarschuwd mens telt voor twee, zullen we maar zeggen. Dus drukken we jullie nogmaals op het hart: wees mega kritisch op wat je op het internet ziet. Nu meer dan ooit.
Wil je meer weten over dit onderwerp? Lees dan even het hele verhaal van Motherboard via de onderstaande links.