Hoe AI-video’s op TikTok racistische haat normaliseren

Foto: Solen Feyissa | Commons Wikimedia
We lazen dit verontrustende bericht op Tagesschau.de. De redactie beschrijft hoe op TikTok en Instagram op grote schaal AI-video’s worden gedeeld die racistische stereotypen versterken – vaak vermomd als satire of straatinterviews. De impact is zorgwekkend.Een zogenaamd onschuldige scène: een zwarte man zit in een park met een chocoladereep. Een agent zegt: “Pas op, dat je je eigen vinger niet afbijt.” In een andere video staat een zwarte familie voor een apenverblijf. De associatie is overduidelijk – en bewust zo gemonteerd. De filmpjes worden veelvuldig bekeken, geliket en gedeeld.Volgens desinformatie-onderzoeker Pia Lamberty is de werking van zulke clips verraderlijk: “We worden overspoeld met korte inhoudelijke prikkels en hebben nauwelijks tijd om die bewust te verwerken.” Daardoor kunnen de beelden toch onbewust hun effect hebben. “Hoe vaker mensen zulke video’s zien, hoe normaler racisme en haat kunnen gaan lijken.”De beelden zijn vaak volledig door kunstmatige intelligentie gegenereerd. Zo wordt in een straatinterview een zwarte man gevraagd: “Wilt u Duitsers hun banen afnemen?” Zijn zogenaamd spontane antwoord: “Nee, ik neem Bürgergeld en rijd Mercedes.” In de reacties roepen gebruikers op om hem “per rubberboot terug te sturen”. Veel kijkers hebben niet door dat het om deepfakes gaat.

“Een gespleten samenleving is kwetsbaarder. En juist dat lijkt het doel van dit soort video’s.”
— Pia Lamberty

De filmpjes spelen in op diepgewortelde angsten en onderbuikgevoelens rond migratie, werkloosheid en vervreemding. Wat op het eerste gezicht komisch lijkt, blijkt bij nader inzien een effectief propagandamiddel dat verdeeldheid zaait. “De dosis maakt het gif”, zegt Lamberty. “Hoe vaker dit soort beelden opduiken, hoe meer ze bijdragen aan normalisering.”

Wie stopt deze stroom?

Experts waarschuwen dat de platforms te weinig verantwoordelijkheid nemen. Meta – het moederbedrijf van Facebook en Instagram – zou zelfs de algoritmes hebben aangepast waardoor onbekende accounts vaker opduiken in de tijdlijn. Daardoor komen AI-clips ook bij gebruikers terecht die deze accounts nooit volgden.

De technologie is inmiddels zó geavanceerd dat AI-video’s nauwelijks nog van echte beelden zijn te onderscheiden. In een voorbeeldvideo laat een supermarktmedewerker een klant afrekenen. De klant – een Indiase man – zet een pan op de toonbank en zegt: “Ik betaal met Chicken Tikka Masala Pay.”

Volgens Lamberty is er dringend politieke actie nodig. “Plattformen verschuilen zich achter het argument van vrije meningsuiting. Maar dat mag geen excuus zijn om haat en racisme ongemoeid te laten.”

🔍 Over Pia Lamberty

Pia Lamberty is psycholoog en directeur van het Center für Monitoring, Analyse und Strategie (CeMAS). Ze doet al jaren onderzoek naar complottheorieën, desinformatie en hun impact op de samenleving.

Lees ook: Het oorspronkelijke artikel op Tagesschau.de