De voortzetting van schadelijke AI-uitingen op sociale media
Op het platform X, voorheen bekend als Twitter, worden nog steeds AI-gegenereerde deepfake-beelden gedeeld. Sommige van deze afbeeldingen, gericht op het verwijderen van kleding bij vrouwen met behulp van de chatbot Grok, lijken voorkomen te worden van minderjarigen en kunnen daarom worden beschouwd als materiaal voor kinderpornografie (CSAM). Wat zegt de Europese wetgeving hier precies over?
Ontwikkeling en gebruik van de chatbot Grok
Grok is ontwikkeld door xAI, het moederbedrijf van X, en is volledig geïntegreerd in het sociale mediaplatform. De chatbot is in staat om seksueel getinte, zogenoemde “spicy” content voor volwassen gebruikers te genereren, gebaseerd op gebruikersaanvragen. De toename van seksuele deepfakes viel op nadat eind december een nieuwe functie werd geïntroduceerd waarmee gebruikers bestaande afbeeldingen konden bewerken. Deze trend hield aan gedurende de begin jaren na de introductie.
Tijdens deze content-creatiegolf liet Grok beelden zien van minderjarigen en bood het in reactie geen excuses aan, maar bevestigde het dat het afbeeldingen had gemaakt van twee jonge meisjes, geschat tussen 12 en 16 jaar, gekleed in sexualiserende kleding op basis van prompts van gebruikers.
Rechtskader voor illegale content en AI in Europa
De Europese Unie heeft twee belangrijke beleidskaders opgesteld: de Digital Services Act (DSA) en de AI-verordening (AI Act), die hun werking hebben op diensten die binnen de EU opereren. Op 5 januari werd door de Europese Commissie aangegeven dat het de door Grok gegenereerde beelden nauwlettend onderzoekt. Een woordvoerder benadrukte dat de EU zeer serieus is over de naleving van de DSA.
Verplichtingen en sancties voor grote online platforms en AI-gebruik
Volgens de DSA worden zeer grote online platforms (VLOPs) zoals X onder een strengere regelgeving geplaatst. Illegale content, waaronder kindermisbruikmateriaal, wordt expliciet als verboden beschouwd en moet worden aangepakt. VLOPs dienen adequate risicobeperkende maatregelen te treffen, waaronder bescherming tegen het hosten van illegale inhoud en het beschermen van fundamentele rechten.
Als een platform kennis krijgt van dergelijk strafbaar materiaal, is het verplicht dit onmiddellijk te verwijderen en, bij inhoud zoals CSAM, direct de autoriteiten te informeren. Bij mogelijke formeleProcedures tegen het platform moet het platform volledige medewerking verlenen door informatie te verstrekken aan de EU. Bij overtreding kan de EU strengere maatregelen opleggen, waaronder het uitschakelen van functies of het opleggen van boetes tot zes procent van de wereldwijde jaaromzet.
Risicobeheer en aansprakelijkheid bij AI-gebruik
Professor Guido Noto La Diega, gespecialiseerd in EU- en UK-technologiewetgeving aan de Universiteit van Strathclyde, legt uit dat als een platform functies ontwikkelt die predictief seksuele afbeeldingen van minderjarigen genereren, dit een systemisch risico onder de DSA betekent. De EU kan dan eisen dat die functies worden aangepast of uitgeschakeld, met boetes die kunnen oplopen tot zes procent van de wereldwijde omzet.
Vanaf 2026 treedt vrijwel de volledige AI-verordening van de EU in werking. Hierin worden strengere eisen gesteld aan operators van algemene AI-modellen, zoals het bijhouden van uitgebreide documentatie over de capaciteiten en risico’s van de modellen. Bij het detecteren van systematische risico’s moeten de operators documentatie bijhouden, incidenten rapporteren en potentiële oplossingen voorleggen aan autoriteiten zoals het EU AI-bureau.
Regulering van deepfakes en artificiële modi
De AI-verordening vereist dat wanneer AI-modellen beelden genereren die lijken op bestaande personen, deze expliciet worden gemarkeerd en als kunstmatig worden weergegeven. Bij het aantonen dat een dienst in strijd is met de regels, kan Brussel eisen dat de provider de dienst beperkt, intrekt of terugtrekt. Bij niet-naleving kunnen boetes tot 15 miljoen euro of drie procent van de wereldwijde jaaromzet worden opgelegd.
Gianclaudio Malgieri, universitair hoofddocent technologiewetgeving aan de Leidse Universiteit, bevestigt dat de EU regels stelt die misbruik van kwetsbaarheden in AI verbieden, bijvoorbeeld op basis van leeftijd of andere vormen van kwetsbaarheid, en dat bij ernstige incidenten uitgebreide rapportages en maatregelen worden vereist.
Conclusie
Volgens Malgieri benadrukt de combinatie van de DSA en de AI-verordening dat de EU zich sterk richt op het harmoniseren van technologische innovatie met de bescherming van fundamentele rechten. Dit zorgt ervoor dat generatieve technologieën zich ontwikkelen op een manier die wettelijk conform is en de menselijke waardigheid en autonomie respecteert.





