De politie heeft een 38-jarige man uit Amersfoort opgepakt die ervan wordt verdacht een nep-pornofilm van Welmoed Sijtsma te hebben geknutseld. De presentatrice maakte een persoonlijke TV-serie van haar zoektocht naar deze voor haar zo schaamtevolle 10 minuten.

In het programma ‘Welmoed en de sexfakes’ onderzocht ze de schimmige wereld van deepfake-porno met als centrale vraag wat kun je doen tegen deze nieuwe vorm van seksueel misbruik?

Gestolen identiteit

Ze hoort via een volger op social media dat er een seksvideo van haar op internet staat. In eerste instantie wil Welmoed niet kijken, maar later doet ze het toch. “Vanuit mijn buik voelde ik het bloed naar boven stromen richting mijn hoofd dat knalrood en warm werd”, vertelt Welmoed bij LINDA.nl. “Ik zie dat het niet mijn haar en lichaam is, maar mijn hoofd lijkt echt heel erg. Ik heb vrij specifieke rimpels in mijn wangen als ik lach. Het voelt alsof het over jou gaat, omdat je naar jezelf zit te kijken.” Ook de reacties die geplaatst worden bij de fake-video’s zijn behoorlijk persoonlijk. ‘Fijn dat ze eindelijk haar mond houdt’, dat niveau.

Wet van 2020

Met hulp van cyberspecialisten Rickey Gervers & Anthony van der Meer komt Welmoed erachter wie het filmpje van haar in elkaar zette. Het lukt hen ook om deze offline te krijgen, echter slechts van één site. Al snel komt ze erachter dat als een beeld eenmaal in de digitale wereld zweeft, het moeilijk wordt dit helemaal weg te krijgen. Haar naaktbeelden blijken inmiddels op 900 andere plekken van het internet te staan. Ze doet uiteindelijk aangifte op basis van een nieuwe wet uit januari 2020 die wraakporno aan banden legt. Hierin staat dat je geen materiaal van iemand anders mag versturen zonder nadrukkelijke toestemming. Maar, zo vraagt ze zich af: geldt dit wetsartikel ook als het niet jouw lijf is maar wél je hoofd? Jurist Royce de Vries legt uit dat het nou eenmaal zo is dat wetten achter de snelle technische ontwikkelingen aanhobbelen. Hij waarschuwt vooral de ‘argeloze kijkers’ deze rommel niet door te sturen en zo verantwoordelijkheid te nemen.

Toxische schaamte

Het blijkt voor Welmoed en haar team niet makkelijk om mede-getroffenen hierover te spreken. Het komt zelfs voor dat BN’ers die benaderd worden geen enkel idee hebben van het bestaan van deze deepfake video’s met hun gezicht. En om te voorkomen dat er dus wél aandacht op wordt gevestigd, willen de geschrokken vrouwen niet meewerken aan de docuserie. Een geval van omgedraaide schaamte: niet de makers schamen zich, maar de vrouw wiens gezicht en identiteit gestolen zijn. Of zoals Welmoeds eigen moeder het in een aflevering noemt: “Het is weer een aantasting van de vrouw. De welbekende positie.”

Mensen oordelen

Influencer Nochtli Peralta Alvarez durft het wel aan. Bij haar werd op een willekeurige naaktfoto haar hoofd ‘geplakt’. Ondanks dat ook veel andere vrouwen die slachtoffer zijn van deepfake-porno weten dat het nep is, heerst er toch een gevoel van schaamte als zij zien dat zij zomaar ineens naakt op het internet verschijnen. “Het lijkt zo echt, dus veel mensen hangen daar gelijk een oordeel aan vast. Nog voordat je kunt zeggen dat het niet echt is. Daar zit de schaamte in.” Hiermee naar de politie stappen, waar Peralta Alvarez zelf vroeger in dienst was, is zo eenvoudig nog niet. “Ik weet dondersgoed hoe dit behandeld wordt. Ze kunnen er niet veel mee en het wordt snel op afgehandeld gezet. Dat ging bij mij ook binnen een maand zo.”

De Infocalyps

Nina Schick is desinformatie-expert en auteur van ‘Deep­fakes & the Info­calyps. What You Urgently Need to Know’. De term ‘infocalyps’ is een samentrekking van informatie en apocalyps. Oftewel: een voorspelling van het einde der tijden voor wat betreft betrouwbare informatievoorzieningen. Ze beschrijft een samenleving waarin desinformatie (bewuste misleiding) en mis­informatie (slechte informatie vanuit onkunde) welig kunnen tieren en bevolkingsgroepen uit elkaar drijven.

De consument gelooft wat hij ziet

De ‘deep nudes’ betreffen het gebruik van synthetische media om verdeeldheid te zaaien of mensen in een slecht daglicht te plaatsen. Het zijn stukken tekst, geluid en/of beeld die er levensecht uitzien, maar in werkelijkheid zijn bewerkt middels AI. Vanaf het allereerste moment werd dit gericht tegen vrouwen. Hun gezichten werden ‘naadloos’ op die van pornoactrices gemonteerd. 96% van de nu bestaande deepfakes is seksgerelateerd. Niet alleen van celebs, maar ook van onbekende vrouwen. En de huidige consument ‘gelooft’ wat hij of zij ziet, leest en hoort. Met hele nare gevolgen.

This is not Morgan Freeman

Is de techniek dan alleen maar verderfelijk? Filmmaker Bob de Jong vergelijkt het met een mes. Daarmee kun je iets goed doen zoals brood snijden, maar je kunt er tevens iemand mee verwonden of doodmaken. Hij maakte zelf een deepfake-video van Morgan Freeman, juist om de kijkers mediaijsheid bij te brengen, over wat echt nieuws en nepnieuws is. Dit deed hij met behulp van software met kunstmatige intelligentie (AI). Het typische Morgan Freeman-geluid werd overigens gedaan door stemacteur Boet Schouwink en is niet met de computer bewerkt. Bob de Jong legt Welmoed tevens uit dat ‘haar pornovideo’ gemaakt moet zijn met bewegende beelden, die waarschijnlijk gepikt zijn van een Op1-uitzending.

Mediawijsheid is geboden

Tegenstanders van de Indiase journaliste Rana Ayyub verspreidden een deepfake-pornovideo van haar via Whats­App om haar monddood te maken. “Zoals zo vaak in het internettijdperk staan vrouwen in de frontlinie” vertelt Nina Schick in een interview met de Belgische krant ‘De Morgen’. “Maar naarmate deze technologie breder beschikbaar wordt, zal ze op veel meer manieren worden misbruikt. Er zijn al fraudegevallen met deepfake-technologie bekend. Een Brits energiebedrijf raakte €250.000,- kwijt aan oplichters die een deepfake hadden gebruikt van de stem van de Duitse directeur.” Er is niet één manier om dit aan te pakken, aldus Schick. Het is belangrijk dat meer mensen begrijpen hoe het werkt. Daarnaast moeten burgers zich er tegen kunnen verdedigen met behulp van journalistiek, wetenschap en organisaties die desinformatie in kaart brengen, maar ook met software die laat zien waar en wanneer iets is gemaakt. Tenslotte hebben mensen een ‘psychologische verdedigingsmuur’ nodig, waar desinformatie niet zomaar langskomt.

Digitaal seksueel misbruik

Het begint dus bij de consument die moet gaan snappen wat er (nu reeds) mogelijk is aan beduvelarij en dat die technieken steeds vernuftiger worden. Het is nodig te begrijpen dat alles wat belangrijk is voor het overleven van de mens, onze aandacht trekt. En dat zijn dus eten, drinken en seks. Daar maken reclamemensen natuurlijk al tijden gebruik van, maar nu zijn we terecht gekomen in een periode waarin niet langer geldt ‘what you see is what you get’. Als het hoofd van een vrouw die jij kent (in het echt of vanuit de media) op een willekeurige porno-actrice wordt gemonteerd, zul je in eerste instantie geloven wat je ogen zien. Dat voelt voor bekenden alsof jouw vriendin of jouw moeder wordt aangerand en voor de bewuste getructe vrouw, voelt het zelfs als een verkrachting. Met als gevolg dus schaamte. Tweede Kamer-leden Sylvana Simons en Lilian Marijnissen zijn ook ‘gedeepnuded’. Ze willen er wel met Welmoed over praten, maar weigeren beiden de beelden te bekijken. Begrijpelijk.

E-whoring

En dan is er het fenomeen e-whoring. Hierbij worden foto’s van vrouwen illegaal via onder andere Telegram-groepen en online fora verhandeld. Het gaat hier om beelden die stiekem van social media-accounts zijn geplukt. Deze worden vervolgens schaamteloos misbruikt. Zij zetten ze op social media in en lokken daarmee mannen naar datingsites. Een heel sterk staaltje catfishing, maar dan op professioneel niveau. Cyberexpert Anthony van der Meer toont Telegramgroepen aan Welmoed Sijtsma waar zulke foto’s zelfs gewoon te koop zijn, waaronder ook in Nederland. Je kunt ‘aanbieden’ wie je wilt, zelfs minderjarige meisjes. Welmoed Sijtsma bezoekt daarom de Britse Jess Davies. Haar foto’s zijn  op honderden nepprofielen verschenen. Davies denkt dat ze slachtoffer is geworden van e-whoring, omdat ze veel foto’s post in allerlei situaties. Van een sexy shoot maar ook staand achter de pannen, TV-kijkend of tijdens het uitgaan. Ze legt uit hoe listig haar afbeeldingen worden misbruikt. “Dus wanneer zo’n catfisher van een datingsite ‘in gesprek is’ en de man die hij oplicht vraagt: ‘Wat ben je aan het doen?’, dan kunnen ze antwoorden met: ‘Ik zit op de bank’ en daar hebben ze dan meteen een foto van paraat.”

Mannen denken een relatie te hebben

Zulke mannen worden vervolgens boos op ‘Jess’, omdat ze niks meer horen en sturen vervolgens beledigende berichten naar haar via social media. Ze zijn in de waan dat ze een relatie met haar aan het opbouwen en willen weten hoe het zit. De oplichters gaan zo ver dat ze  foto’s niet alleen jatten, maar ook nog eens bewerken op social media, inclusief fake-rijbewijs. “Het is een nieuwe manier om vrouwen weer eens te shamen en ze te reduceren tot een object, ze ruilen ons alsof we honkbalplaatjes zijn. Op die fora zeggen ze tegen elkaar: ‘Ik heb een stapel Jess Davies-foto’s, wat heb jij?’”

There’s an app for that

Privacy-expert Bart van der Sloot legt uit dat het ook al mogelijk eens om met behulp van AI personen te genereren. Deze docent aan de Universiteit van Tilburg, heeft samen met collega’s een rapport geschreven over wat men zou kunnen doen om deze smerige en snel opkomende industrie aan banden te leggen. Het lastige daarvan is dat deepfake-technieken al langere tijd binnen handbereik zijn van de doodgewone burger en ook als dat verboden wordt, zijn er de geheime wegen. “Er zijn altijd mensen die bijvoorbeeld via het darkweb de wet kunnen omzeilen. Maar de meeste mensen doen dit gewoon via hele bekende sites en apps. En die zouden dan simpelweg geblokkeerd kunnen worden.”

Zedendelict

Van der Sloot voegt eraan toe dat er geïnvesteerd moet worden in de handhaving, want de politie staat op dit vlak machteloos. Zij moeten immers achterhalen of een video of foto überhaupt fake is en of er al dan niet toestemming is gegeven. Voorts moet de politie zich buigen over de vraag wie het heeft geüpload, wie het heeft gemaakt en wie het ook verder verspreidde. En daar is veel mankracht voor nodig. Deskundigen en slachtoffers zijn het over eens dat het maken van deze pornografische beelden met gestolen identiteiten zou moeten komen te vallen onder het kopje ‘zedendelicten’.

De politiek

Het onderzoek van het Openbaar Minister loopt nog. De verdachte is verhoord, heeft bekend en is weer vrijgelaten, in afwachting van de resultaten van het onderzoek. Ondertussen heeft ook de Tweede Kamer gealarmeerd gereageerd op het onderzoek van het programma. D66 en het CDA willen verdere stappen ondernemen en ook de VVD beraadt zich hierover. Daar sluit de SP zich bij aan, aldus kamerlid Renske Leijten bij ‘Goedemorgen Nederland’. “Dit gaat denk ik over de partijen heen. Wij willen heel graag dat de politie hier (digitale) capaciteit voor heeft. Daar vragen wij al heel lang om. Er gebeuren namelijk veel zaken op internet die echt niet kunnen.” Leijten noemt het programma van Welmoed Sijtsma baanbrekend. “Want het is ook heel kwetsbaar hiermee naar buiten te stappen en dat doen heel veel mensen niet.”

Help Wanted helpt slachtoffers (eventueel anoniem) van online seksueel misbruik in alle vormen.

De serie ‘Welmoed en de sexfakes’ staat op de NPO-player en de documentaire ‘Zien is geloven’ met Nina Schick op de site van de VPRO