Onderzoek: sexting, deepfakes en de realiteit van 2025

Komende maanden start ik samen met mijn team, en mijn zoon Issam Latour, een onderzoek naar het socialmediagedrag van pubers: hoe sexting ontstaat, hoe snel het zich verspreidt en hoe AI de risico’s vergroot.

We doen dit om te waarschuwen, te onderwijzen en straks concrete handvatten te geven aan ouders, scholen en jongeren. Het onderzoek wordt uitgevoerd door mijn bedrijf NEXD Media B.V. uit Oldenzaal, in samenwerking met Politie Twente. We zullen deze post tussentijds een aantal keer updaten.

Even helder: wat is sexting?

Sexting is het delen van intieme teksten, foto’s of video’s via telefoon of social media. Onder volwassenen kan dat met wederzijds consent en duidelijke afspraken. Bij jongeren ligt dat totaal anders: impuls, groepsdruk en onervarenheid maken dat één screenshot kan uitgroeien tot een kettingreactie met blijvende schade.

Hoe werkt het in combinatie met AI

Mainstream AI-tools zoals ChatGPT, Grok, Gemini van Google en vergelijkbare generatieve AI-apps zijn allemaal beperkt. Ze kunnen geen naaktbeelden of pornografische afbeeldingen maken. Dit is bewust afgeschermd, zodat er alleen binnen vastgestelde kaders beelden kunnen worden gegenereerd.

Met illegale tools op de zwarte markt kan alles

Deze tools zijn niet te vinden via Google of in de App Store. Ze bestaan uitsluitend in de digitale onderwereld. Uit cijfers van 2024 blijkt dat er wereldwijd zo’n 173 miljard dollar per jaar wordt verdiend met deepfakes. Je begrijpt: dit is een extreem lucratieve business.

Toegang krijg je niet zomaar. Je moet worden uitgenodigd in besloten groepen en communities, vaak via versleutelde platforms en betaald met crypto. Binnen die kringen circuleren namen van tools die op het eerste gezicht professioneel lijken, maar puur voor misbruik zijn ontworpen. Denk aan:

PhantomDiffuse
Een aangepast diffusion-model met een “NSFW unlock” die alleen met een invite code te activeren is.

FaceForge Pro
Een desktop app met “one-click training” en creditsysteem voor face-swaps.

NightShift Studio
Een GPU-cloudservice voor massale batch-swaps, volledig anoniem en betaald in crypto.

SilkMask Mobile
Een mobiele app die selfies koppelt aan doelvideo’s en in seconden 15s deepfake-clips oplevert.

Hij lijkt er extreem op, maar de persoon bestaat helemaal niet.

In dit onderzoek gebruiken we een gewone vakantiefoto van mijn zoon. Een onschuldige foto bij het zwembad, waarop zijn gezicht duidelijk zichtbaar is.

Deze illegale tools analyseren een foto op meer dan 41 miljoen pixelpunten. Op basis daarvan creëren ze een volledig nieuw gezicht dat bijna niet te onderscheiden is van de originele persoon.

En dat is het verraderlijke: de persoon die in die deepfake rondgaat, bestaat helemaal niet. Het is geen echte foto van mijn zoon, maar een door AI gegenereerde versie die er sprekend op lijkt.

Een beeld dat nauwelijks van echt te onderscheiden is, maar juridisch en praktisch onvoorstelbare schade kan aanrichten. Want voor een buitenstaander lijkt het alsof het echt je zoon of dochter is.

Mensen die de gegenereerde foto zien weten niet dat de persoon in een pikante setting totaal niet bestaat. Maar hij of zij lijkt wel op iemand.

En zolang meerdere mensen maar denk dat het een daadwerkelijk die persoon is, in het geval van dit onderzoek mijn zoon Issam, dan wordt het rondgestuurd alsof het daadwerkelijk zo is. Mensen worden feitelijk in de maling genomen maar hebben het niet door en de gevolgen voor jouw kind zijn desastreus.

Dat maakt het zo extreem gevaarlijk! Jouw zoon of dochter loopt ook gevaar. Kinderen in deze leeftijdscategorie lopen gevaar.

Waarom AI het probleem verergert

En hier zit het grote gevaar anno 2025: AI kan van een onschuldige vakantiefoto van je kind een beeld maken dat zó echt oogt, dat niemand meer twijfelt of het nep is. Foto’s en video’s die met deze tools worden gemaakt, zijn nauwelijks van echt te onderscheiden. En je kunt je wel voorstellen wat er vervolgens allemaal van zo’n foto gemaakt kan worden. Te walgelijk voor woorden.

Juist daarom gaan wij in ons onderzoek ook bewust delen van mijn zoon meenemen: niet intiem, maar wél persoonlijk genoeg dat leeftijdsgenoten denken “dit is echt”. Zo willen we aantonen hoe snel zoiets uit de hand kan lopen, hoe eenvoudig beelden in verkeerde handen vallen en hoe razendsnel ze zich verspreiden.

Onze onderzoeksvraag

Hoe ontstaan en verspreiden intieme of gemanipuleerde beelden (echt of nep) binnen tienergroepen, welke factoren versnellen die verspreiding en welke interventies werken om schade te beperken?

Belangrijke kanttekening en ethiek

Ons onderzoek is zorgvuldig opgezet met ethische waarborgen, ouderlijke toestemming waar nodig, en in samenwerking met experts. Alles wat we delen is bedoeld om te waarschuwen en te testen hoe jongeren reageren — zonder dat er iemand écht in gevaar wordt gebracht.

Methodologie in het kort

  1. Deskresearch
    Analyse van bestaande studies, meldpunten en jurisprudentie over sexting en deepfakes bij jongeren.
  2. Anonieme surveys en interviews (met ouderlijke toestemming)
    Vragen naar ervaring met druk, delen, doorsturen, melden en omgaan met nepbeelden.
  3. Verspreidingssimulaties met persoonlijke, maar onschuldige content van mijn zoon Issam Latour
    Zo meten we hoe snel en hoe ver content zich verspreidt binnen tienergroepen.
  4. Technische tests
    Vergelijking van publieke deepfake-detectors, hashing en watermerken, en wat jongeren feitelijk snappen van deze tools.
  5. Interventie-proeven
    A/B-testen van waarschuwingsteksten, klas-workshops en peer-to-peer scripts: welke boodschap remt delen het meest af?
  6. Socialmediaplatformen
    Het onderzoek start de komende tijd en zal plaatsvinden op verschillende platforms die jongeren dagelijks gebruiken. Met name Snapchat is in deze doelgroep extreem populair en speelt daarom een belangrijke rol in ons onderzoek.

Persoonlijke noot

Als vader vind ik dit zwaar. Dat je tegenwoordig met een simpele AI-tool van een onschuldige vakantiefoto van je kind een intieme foto kunt maken die er levensecht uitziet, is ronduit angstaanjagend. Het idee alleen al is walgelijk. Toch wil ik dit onderzoek doen — omdat jongeren en ouders moeten zien hoe snel dit misgaat.

Ik ben trots dat mijn zoon Issam Latour mee wil werken en begrijpt hoe belangrijk dit is. Het gaat niet om sensatie, maar om bescherming.

Update:

Issam lacht zich rot om het spel dat hij heeft gespeeld. Ook-al was hij niet de persoon op de foto, heeft hij zich de hele zomervakantie verbaast over hoe naïef en dom zijn leeftijdsgenoten zijn om zonder enige schaamte, beelden te verspreiden zonder na te denken over de gevolgen dat het voor iemand heeft.

Het moeilijkste gedeelte vond hij om elke dag op de socials in zijn rol te blijven. Want je blijft praten. Je blijft chatten. Doen alsof er niets aan de hand is, en af en toe alsof er vanalles aan de hand is. Issam grapt afsluitend: “het voelt alsof ik het spel Wie is de Mol en De verraders tegelijk heb uitgespeeld. 🤣”

Meedoen of meelezen?

  • Werk je op een school of jongerenorganisatie en wil je meedoen aan de simulatie of interviews? Stuur me een bericht.
  • Ben je ouder en wil je op de hoogte blijven van de resultaten zodra die er zijn? Laat je mail achter.
  • Werk je bij een platform of tool en wil je inzichten delen of onze aanbevelingen toetsen? Laten we praten.