// JavaScript Document

Kort voor de verkiezingen ging er een video rond waarin Frans Timmermans zogenaamd een toespraak hield die hij nooit had gegeven. Zijn stem, gezichtsuitdrukkingen en manier van praten leken overtuigend echt, maar de beelden waren volledig nep. Gemaakt met kunstmatige intelligentie (AI). Een voorbeeld van hoe snel en geloofwaardig zogenoemde AI-video’s, ook wel deepfakes, zich verspreiden.

Steeds vaker duiken dit soort filmpjes op. In een paar minuten kan iemand een video maken waarin stem, gezicht en omgeving volledig door een computer worden gegenereerd. De nieuwste techniek heet tekst-naar-video, waarbij je alleen nog hoeft te typen wat je wilt zien. Een van de bekendste voorbeelden is Sora, ontwikkeld door OpenAI.

Het resultaat is indrukwekkend, maar ook verwarrend. Want hoe weet je nog wat echt is, als zelfs een video kan liegen? En wat betekent dat voor ons als kijkers in een tijd waarin beelden de waarheid lijken te bepalen? In dit artikel gaan we in op hoe AI-video’s onze kijk op de werkelijkheid veranderen

De opkomst van AI-video’s

De mogelijkheid om beelden en geluid te manipuleren bestaat al langer, denk aan filters, face-swaps of gemonteerde filmpjes op sociale media. Maar de nieuwste generatie AI-modellen tilt dit naar een ander niveau. Tools als Sora kunnen vanuit een korte tekstbeschrijving een complete video maken: inclusief omgeving, belichting, bewegingen en geluid. Waar filmmakers vroeger dagen aan werk hadden, kan nu binnen enkele minuten een realistische scène ontstaan.

Die snelheid en eenvoud maken de techniek aantrekkelijk, maar ook uitdagend. Want als iedereen overtuigende video’s kan maken, wordt het steeds lastiger om te zien wat echt is en wat niet.

De kansen van AI-video’s

AI-video’s openen een wereld aan nieuwe mogelijkheden. Voor makers, bedrijven en organisaties kan deze technologie enorm helpen. Denk aan voorlichtingsvideo’s, uitleg over digitale veiligheid of creatieve campagnes, zonder dat daar een groot productieteam voor nodig is. Een kleine ondernemer kan bijvoorbeeld met een paar regels tekst een heldere instructievideo maken, of een leraar kan een lesonderdeel tot leven brengen met een geanimeerde uitleg.

Deze technologie maakt het mogelijk om verhalen sneller, creatiever en op maat te vertellen. Dat is niet alleen handig, maar ook inspirerend, als we het verantwoord gebruiken.

De risico’s van AI-video’s

Toch heeft deze ontwikkeling ook een schaduwkant. Hoe overtuigender nepbeelden worden, hoe groter het risico dat mensen misleid raken. Een video van een politicus die iets zegt wat hij nooit heeft gezegd, of een bekende Nederlander die zogenaamd een product aanprijst, kan in korte tijd veel schade aanrichten. Zo’n nepvideo kan emoties oproepen, reputaties beschadigen of geld kosten.

Daarnaast spelen privacy en toestemming een grote rol. Iemands gezicht of stem kan zonder dat die persoon het weet worden gebruikt in een AI-video. Dat roept vragen op over eigendom: van wie is jouw gezicht eigenlijk, als het digitaal kan worden nagebootst?

Er is ook een maatschappelijk risico. Als we steeds vaker twijfelen of iets echt is, kan dat het vertrouwen in media en in elkaar aantasten. We raken gewend om alles in twijfel te trekken en dat kan uiteindelijk schadelijker zijn dan een enkele nepvideo.

Hoe herken je een AI-video (of nepvideo)?

Sommige signalen helpen je om een nepvideo sneller te herkennen:

  • Onnatuurlijke bewegingen: lippen bewegen niet precies mee met de stem, of ogen knipperen nauwelijks.

  • Inconsistenties: de achtergrond wisselt subtiel, of schaduwen kloppen niet.

  • Broncontrole: komt de video van een betrouwbare organisatie, of van een onbekend socialmedia-account?

  • Metadata of watermerken: sommige AI-tools voegen een melding toe dat de video is gegenereerd.

  • Gezond wantrouwen: vraag je af of wat je ziet logisch is en wie er baat bij heeft dat jij dit gelooft.

Wat kun jij zelf doen?

  • Wees nieuwsgierig, maar kritisch. Geloof niet alles wat je ziet, zeker niet als het sterke emoties oproept.

  • Deel je persoonlijke beelden en stemmen niet onnodig. Minder materiaal betekent minder kans op misbruik.

  • Bespreek het onderwerp met familie en vrienden. Bewustwording is de beste bescherming.

  • Let bij organisaties en bedrijven op transparantie: vermelden ze wanneer iets met AI is gemaakt?

  • En bovenal: blijf opletten bij opvallende of sensationele video’s. Als iets te mooi (of te schokkend) lijkt om waar te zijn, dan is het dat vaak ook.

Blijf kritisch

De grens tussen echt en nep vervaagt, maar dat hoeft niet beangstigend te zijn. AI-video’s kunnen ons helpen verhalen te vertellen, te leren en te creëren, zolang we de techniek met gezond verstand gebruiken. Als we kritisch blijven kijken en ons bewust zijn van de risico’s, kunnen we het beste van twee werelden combineren: de creativiteit van mens én machine.

Want uiteindelijk bepaalt niet de technologie wat waar is, maar wijzelf: de kijkers.