In onze steeds verder geautomatiseerde wereld vertrouwen we meer dan ooit op kunstmatige intelligentie (AI). Van medische diagnoses en financiële beslissingen tot dagelijkse keuzes over wat we eten, kijken en lezen — AI is overal. Ons vertrouwen in deze technologie lijkt grenzeloos. Maar wat als dat vertrouwen niet alleen wordt bedreigd door de AI zelf, maar ook door onze eigen mogelijkheid om haar te manipuleren?
De grootste bedreiging van AI is niet per se dat het fouten maakt of uit de hand loopt. Nee, het echte gevaar schuilt in een fenomeen dat we zelden overwegen: de subtiele en systematische ondermijning van AI door mensen. Dit is geen dystopische toekomstvisie, maar een reëel en actueel risico.
Om deze dynamiek beter te begrijpen, heb ik een reeks begrippen en afkortingen ontwikkeld die inzicht geven in waar deze risico’s zich bevinden. Deze concepten maken duidelijk dat AI niet alleen een instrument is, maar ook een doelwit voor manipulatie — met potentieel verstrekkende gevolgen.
De Gereedschappen van Manipulatie en Sabotage
Hieronder staan vier sleutelbegrippen die de risico’s blootleggen: AIRO, AII, MoM en PoM. Elk van deze termen beschrijft een specifieke manier waarop mensen opzettelijk AI-systemen kunnen beïnvloeden, manipuleren of zelfs saboteren.
AIRO – AI Response Optimization
AIRO beschrijft hoe gebruikers AI-systemen doelgericht manipuleren door slim geformuleerde prompts of invoer. Hoewel het in eerste instantie lijkt op het ‘optimaliseren’ van AI-antwoorden, kan dit snel omslaan in sabotage. Denk aan het uitlokken van absurde of schadelijke output door een model buiten zijn grenzen te duwen. AIRO laat zien hoe zelfs subtiele menselijke interventies grote gevolgen kunnen hebben voor de betrouwbaarheid van AI.
AII – AI Influencers
In dit concept draait het om omgekeerde beïnvloeding: niet AI die mensen stuurt, maar mensen die AI manipuleren om zélf invloed uit te oefenen. Dit kan door doelbewust onjuiste data aan te leveren of AI te trainen in het verspreiden van desinformatie. AII laat zien hoe kwetsbaar AI is voor gecoördineerde campagnes die het ‘waarheidsmechanisme’ ondermijnen.
MoM – Mass Oriented Manipulation
MoM draait om massa-invloed: grote groepen gebruikers — al dan niet gecoördineerd — overspoelen een AI met specifieke input. Kwaliteit maakt plaats voor kwantiteit. Omdat AI leert van interactie, kan gerichte en kwaadaardige input leiden tot verkeerde aannames of vertekende patronen. Een klassiek voorbeeld is de sabotage van Microsoft’s Tay-chatbot, die binnen één dag racistische en beledigende uitspraken begon te doen na massale negatieve input.
PoM – Parallel Orchestrated Manipulation
PoM is de strategische variant van MoM. Hier werken groepen mensen of bots bewust samen om een AI-systeem te manipuleren of compleet te ondermijnen. Deze ‘zwermtactieken’ kunnen AI destabiliseren of zelfs onbruikbaar maken door het systeem te overspoelen met onjuiste, schadelijke of zinloze input. PoM vormt een directe bedreiging voor elk AI-systeem dat afhankelijk is van schaalbare interacties.
Van Concept naar Praktijk: DASA en SAIS
Naast bovenstaande vier concepten zijn er twee aanvalsmethoden die deze principes in praktijk brengen:
SAIS – Swarm AI Sabotage
SAIS gaat nog een stap verder door een zwerm van bots of mensen tegelijk in te zetten om AI-systemen doelgericht te saboteren. Deze methode beperkt zich niet tot input-overload, maar stuurt de AI-uitvoer strategisch, bijvoorbeeld door het genereren van grote hoeveelheden valse data.
DASA – Distributed AI Sabotage Attack
DASA is een aanval waarbij AI-systemen worden overspoeld met irrelevante of misleidende input — vergelijkbaar met een klassieke DDoS-aanval, maar dan op het “bewustzijn” van de AI. Het doel: de betrouwbaarheid van AI ondermijnen en het maatschappelijke vertrouwen in deze technologie vernietigen.
Waarom dit ertoe doet
We vertrouwen AI steeds vaker bij cruciale toepassingen: medisch advies, juridische beoordelingen, en zelfs morele vraagstukken. Maar wat gebeurt er wanneer een AI wordt gesaboteerd? Wat als kwaadwillenden het systeem beïnvloeden om foute of gevaarlijke antwoorden te geven? De dreiging is niet alleen technologisch, maar ook maatschappelijk: ons vertrouwen in AI kan volledig verdwijnen als de systemen niet langer betrouwbaar zijn.
Dit vraagt om actie — nú. Hoe beschermen we AI-systemen tegen DASA, SAIS en de bredere risico’s van AIRO, AII, MoM en PoM?
Een open vraag aan jou
Hoe bouwen we AI die weerbaar is tegen manipulatie — zonder te vervallen in censuur of verlies van openheid?
Maarten Meijer — an Imaginologist. A conceptual thinker who moves between creativity, systems and strategy. I design visions, frameworks and futures that challenge the expected and open new possibilities.
My mission is simple: To initiate creation.
By disrupting fixed patterns, I help people think differently — to imagine what could be, and make it real.