Sociale media moeten verplicht worden om de herkomst van AI-gegenereerde beelden zichtbaar te maken en misleiding actief te beperken. Wie beelden verspreidt zonder transparantie over de AI-herkomst, ondermijnt het publieke debat.

Onderstaande artikel verscheen op 17 februari 2026, iets ingekort, in dagblad Trouw.

Uit diverse onderzoeken blijkt dat AI-gegenereerde beelden actief worden ingezet in online netwerken rond radicaal-rechtse thema’s, bijvoorbeeld om sentiment over migratie of verkiezingen te beïnvloeden. Een verzonnen beeld, slim gepositioneerd, gaat sneller viraal dan een genuanceerd artikel. Labels, áls ze al worden gebruikt, veranderen daar weinig aan. Het beeld staat al op het netvlies van de kijker; de emotie heeft haar werk al gedaan.

Daarnaast circuleren regelmatig AI-gegenereerde foto’s met bijvoorbeeld namaakbeelden van de Holocaust. Kinderen die een sneeuwpop maken in een kamp; een meisje in kampkleding dat viool speelt. Alleen wie op de details let, ziet dat het nep is. Zulke foto’s zijn niet alleen misleidend; ze doen onrecht aan de slachtoffers. Ze vervormen het collectieve geheugen met als platvloers doel: likes genereren.

Halfslachtig

Ondanks de smakeloosheid en maatschappelijke impact van nepbeelden, blijft de reactie van platforms halfslachtig. LinkedIn heeft met C2PA een voorzichtige stap gezet richting labeling van AI-beelden. Maar het systeem verkeert nog in een testfase. Toen ik het uitprobeerde, bleek AI-beeld nog eenvoudig ongelabeld te kunnen worden gepubliceerd (en weer verwijderd natuurlijk). Dat is geen serieuze waarborg. Meta en andere platforms wijzen graag op hun inspanningen: detectietechnologie, experimenten met labels, samenwerking met factcheckers. Maar de kern is dat labeling grotendeels vrijwillig en reactief blijft. Wie wil misleiden, vindt moeiteloos een route om onder de radar te blijven.

Vergelijk dat eens met de strengheid waarmee andere regels worden gehandhaafd. Naaktbeelden worden vrijwel onmiddellijk verwijderd. Wie op Instagram een bericht wil rapporteren, krijgt duidelijke categorieën: pesten, geweld, fraude, seksuele handelingen, onjuiste informatie. Maar een specifieke categorie voor AI-gegenereerde of gemanipuleerde beelden ontbreekt. Terwijl juist daar het risico op maatschappelijke schade snel toeneemt.

Dat is een merkwaardige prioriteit. Platforms treden kordaat op tegen bloot, maar laten gemanipuleerde beelden over migratie of historische gruweldaden passeren vaker ongemerkt. Alsof morele verontwaardiging over huid groter is dan over het manipuleren van de werkelijkheid. Het argument dat automatische detectie technisch lastig is, overtuigt steeds minder. Bedrijven investeren miljarden in AI om content te personaliseren en gedrag te voorspellen. Dan mogen we ook verwachten dat zij technologie inzetten om AI-beelden systematisch te labelen en herhaald misbruik te signaleren.

Bovendien is Europa al een stap verder dan de platforms doen voorkomen. De nieuwe Europese AI Act verplicht aanbieders van AI-systemen om duidelijk te maken wanneer content kunstmatig is gegenereerd, zeker bij zogeheten deepfakes. In combinatie met de Digital Services Act legt Europa grote platforms een zorgplicht op om risico’s zoals manipulatie van verkiezingen actief te beperken.

Volgens een rapport van het Europees Parlement uit december 2025 kunnen generatieve AI-tools informatie-manipulatie sterk versnellen en democratische processen ondermijnen. Dat vraagt niet om vrijblijvende gedragscodes, maar juridische kaders. De vraag is niet óf transparantie nodig is, maar hoe streng die wordt gehandhaafd.

Door AI is elke foto verdacht

Accounts die herhaaldelijk AI-beelden verspreiden rond controversiële thema’s zonder duidelijke vermelding, moeten (tijdelijk) worden geblokkeerd. Niet om debat te smoren, maar om manipulatie te ontmoedigen.

De journalistiek kent hoor en wederhoor en de plicht tot bronvermelding. Wie publiceert, draagt verantwoordelijkheid. Sociale platforms zijn de infrastructuur van het publieke debat geworden. Bij die positie hoort een vergelijkbare zorgplicht. Transparantie over de aard van een beeld is de ondergrens.

Wie nalaat duidelijkheid te scheppen, accepteert dat fictie zich vermomt als feit. In een tijd waarin vertrouwen toch al broos is, maakt dat elke foto verdacht.

Karel Zwaan

Doorpraten over de inzet van AI? Neem contact met me op.