Back to blog
Scam Prevention
7 min

Deepfakes herkennen: een praktische gids voor het spotten van AI-gegenereerde media

Leer hoe je deepfake-video's, afbeeldingen en audio herkent met visuele aanwijzingen, verificatietools en omgekeerd zoeken op afbeeldingen.

LOCK.PUB
2026-01-25

Deepfakes herkennen: een praktische gids voor het spotten van AI-gegenereerde media

Een video van een CEO die een fusie aankondigt. Een audiofragment van een politicus die een controversiële uitspraak doet. Een foto van een beroemdheid die een product aanprijst. Elk van deze kan volledig verzonnen zijn met AI — en de technologie wordt elke maand beter.

Deepfakes zijn door AI gegenereerde of gemanipuleerde media die ontworpen zijn om authentiek te lijken. Ze worden gebruikt bij oplichting, desinformatiecampagnes en identiteitsfraude. Deze gids behandelt de praktische technieken die je kunt gebruiken om ze te herkennen.

Wat zijn deepfakes

Deepfakes gebruiken deep learning-modellen — meestal generative adversarial networks (GAN's) of diffusiemodellen — om video, audio of afbeeldingen te creëren of te wijzigen. De term omvat:

  • Gezichtswisseling — het gezicht van de ene persoon op het lichaam van een ander plaatsen
  • Gezichtsreconstructie — iemand laten lijken alsof die dingen zegt of doet die nooit zijn gebeurd
  • Stemklonen — synthetische spraak genereren die een specifieke persoon nabootst
  • Volledig synthetische generatie — geheel fictieve personen of scènes creëren

Visuele aanwijzingen in deepfake-video's

Onnatuurlijke oogbewegingen en knipperen

Vroege deepfakes hadden een bekend probleem: de personen knipperden zelden. Hoewel nieuwere modellen zijn verbeterd, blijven knipperpatronen vaak onregelmatig. Let op:

  • Ongewoon weinig of snel knipperen
  • Ogen die niet natuurlijk meebewegen met hoofdbewegingen
  • Pupillen die verschillend van grootte of vorm lijken

Lip-sync problemen

Lipbewegingen die niet helemaal overeenkomen met de audio zijn een van de betrouwbaarste indicatoren. Let op:

  • Lichte vertragingen tussen woorden en lipbeweging
  • Lippen die vervagen of vervormen tijdens het spreken
  • Mondvormen die niet overeenkomen met de geproduceerde klanken

Artefacten bij gezichtsgrenzen

De grens waar het gegenereerde gezicht het originele beeld raakt, onthult vaak de manipulatie:

  • Lichte kleur- of textuurverschillen bij de kaaklijn of haarlijn
  • Vervaging of verzachting rond de randen van het gezicht
  • Huidtint die verschuift wanneer het hoofd draait

Inconsistenties in belichting en schaduwen

AI-modellen worstelen met complexe belichting. Let op:

  • Schaduwen die niet overeenkomen met de schijnbare lichtbron
  • Reflecties in ogen die verschillende omgevingen tonen
  • Huidaccenten die statisch blijven terwijl het gezicht beweegt

Haar en accessoires

Fijne details zoals haar, oorbellen en brillen zijn moeilijk consistent te renderen voor AI:

  • Haar dat wazig of geschilderd lijkt in plaats van individuele strengen
  • Oorbellen die van vorm veranderen tussen frames
  • Brillenmonturen die vervormen of tijdelijk verdwijnen

Detectie van audio-deepfakes

Onnatuurlijke spraakpatronen

  • Monotone voordracht of ongewoon ritme
  • Ademhaling die mechanisch klinkt of geheel afwezig is
  • Woorden die samenvloeien zonder natuurlijke pauzes

Achtergrondgeluid

  • Inconsistent achtergrondgeluid (plotseling verschijnend of verdwijnend)
  • Audiokwaliteit die niet overeenkomt met de schijnbare opnameomgeving
  • Echopatronen die halverwege de opname veranderen

Emotionele mismatch

  • Stem die kalm klinkt bij een emotioneel onderwerp
  • Stresspatronen die niet overeenkomen met wat een echte spreker zou vertonen
  • Gelach of zuchten die kunstmatig klinken

Detectietools en -technieken

Omgekeerd zoeken op afbeeldingen

Als je vermoedt dat een afbeelding synthetisch of gemanipuleerd is, gebruik dan omgekeerd zoeken om de oorsprong te vinden:

Tool Beste voor
Google Afbeeldingen (omgekeerd zoeken) Originele versies van gemanipuleerde foto's vinden
TinEye Bijhouden waar een afbeelding online is verschenen
Yandex Images Bredere resultaten voor gezichten en locaties

AI-detectietools

Verschillende tools zijn specifiek ontworpen om door AI gegenereerde content te detecteren:

  • Hive Moderation — detecteert door AI gegenereerde afbeeldingen en tekst
  • Content Credentials (C2PA) — controleert op digitale herkomstmetadata
  • FakeCatcher (Intel) — analyseert bloedstroompatronen in videopixels
  • Deepware Scanner — mobiele app voor het scannen van deepfake-video's

Metadata-analyse

Authentieke media bevat metadata (EXIF-data) van het opnameapparaat. Deepfakes missen vaak deze data of bevatten inconsistente metadata:

  • Controleer op cameramerk, model en instellingen
  • Verifieer GPS-coördinaten indien aanwezig
  • Zoek naar handtekeningen van bewerkingssoftware

Frame-voor-frame analyse

Een video pauzeren en frame voor frame doorspoelen kan artefacten onthullen die bij normale afspeelsnelheid onzichtbaar zijn:

  • Gezichtskenmerken die flikkeren of verschuiven tussen frames
  • Compressieartefacten die alleen rond het gezicht verschijnen
  • Achtergrondelementen die vervormen nabij het hoofd van de persoon

Verificatiemethoden

Bronverificatie

Voordat je media-inhoud vertrouwt, verifieer de bron:

  1. Controleer de oorspronkelijke uitgever. Is het geplaatst door een officieel account of een onbekende bron?
  2. Kruisverwijzing met andere bronnen. Heeft een ander geloofwaardig medium dezelfde beelden?
  3. Controleer de datum. Wordt de content in de oorspronkelijke context gepresenteerd?

Contextuele analyse

  • Komt de content overeen met wat je weet over de persoon?
  • Is de setting plausibel?
  • Zijn er andere getuigen of opnames van hetzelfde evenement?

Neem contact op met de afgebeelde persoon

Neem indien mogelijk contact op met de persoon die zogenaamd in de content wordt afgebeeld via geverifieerde kanalen.

Veelvoorkomende deepfake-oplichting

Scenario Hoe het werkt
CEO-fraude Deepfake-video of spraakoproep die een directeur imiteert om overboekingen goed te keuren
Romantische oplichting Nep-videogesprekken met een ander gezicht om vals vertrouwen op te bouwen
Beroemdheidsaanbevelingen Verzonnen video's van beroemdheden die frauduleuze producten promoten
Politieke desinformatie Nepspeeches of uitspraken toegeschreven aan publieke figuren
Afpersing Synthetische expliciete content gemaakt met iemands gelijkenis

Wat te doen als je een vermoedelijke deepfake tegenkomt

  1. Deel het niet. Delen vergroot de schade, zelfs als je het als mogelijk nep labelt.
  2. Rapporteer het aan het platform waar je het vond.
  3. Verifieer via officiële kanalen. Controleer de officiële accounts of websites van de afgebeelde personen.
  4. Gebruik detectietools. Laat de content door de hierboven genoemde tools lopen.
  5. Bewaar bewijs. Sla de URL en een screenshot op voor het geval het nodig is voor rapportage.

Jezelf beschermen

  • Wees sceptisch over sensationele content, vooral van onbekende bronnen
  • Verifieer voor je deelt — een controle van 30 seconden kan verspreiding van desinformatie voorkomen
  • Houd je eigen afbeeldingen en video's waar mogelijk privé om bronmateriaal voor deepfakes te verminderen
  • Gebruik diensten zoals LOCK.PUB om gevoelige content te delen via met wachtwoord beveiligde links in plaats van openbaar te posten

Vertrouwen door verificatie

In een wereld waarin zien niet langer geloven is, doet verificatie er meer toe dan ooit. Wanneer je belangrijke informatie deelt, gebruik dan kanalen die ingebouwd vertrouwen bieden. LOCK.PUB laat je links, memo's en berichten delen via met wachtwoord beveiligde toegang op een consistent, geverifieerd domein — zodat ontvangers weten dat de content authentiek is en afkomstig van iemand die ze vertrouwen.

Maak een beveiligde link -->

Keywords

deepfake herkennen
deepfake detectie
nepvideo herkennen
AI-gegenereerde media
deepfake aanwijzingen
omgekeerd zoeken afbeeldingen

Create your password-protected link now

Create password-protected links, secret memos, and encrypted chats for free.

Get Started Free
Deepfakes herkennen: een praktische gids voor het spotten van AI-gegenereerde media | LOCK.PUB Blog