Jesse Burger
Terug naar blog
Productiviteit·Uitleg

Hoe Je AI-Onzin Herkent

Jesse Burger··10 min leestijd
§

Een arts in de VS gebruikte ChatGPT om juridisch advies te zoeken voor een rechtszaak. Het model noemde zes relevante uitspraken, inclusief exacte zaaknamen, rechters en datumsaanduidingen. Die uitspraken bestonden niet. Ze waren volledig verzonnen, maar perfect opgemaakt als echte rechtspraak.

Dat is niet een extreem randgeval. Het is een goed voorbeeld van hoe AI-output eruitziet als het mis gaat: zelfverzekerd, gedetailleerd en volledig onjuist.

Waarom AI zo zelfverzekerd liegt

Eerst de mechanica, want die helpt bij het herkennen van het probleem.

Grote taalmodellen werken door het volgende token te voorspellen op basis van statistische patronen in trainingsdata. Miljarden zinnen, boeken, artikelen, forums, alles wat ooit op het internet stond, zijn verwerkt tot een enorm netwerk van gewichten. Het model genereert tekst die aannemelijk klinkt gegeven de context.

Het fundamentele probleem: het model heeft geen mechanisme om te controleren of iets waar is. Het heeft geen toegang tot een database van feiten die het kan raadplegen. Het combineert patronen tot plausibele tekst. Als de trainingsdata iets zelden of nooit bevat, maar het model toch een antwoord moet genereren, produceert het iets dat eruitziet als een antwoord. De toon is hetzelfde of je een veelgestelde vraag beantwoordt of iets verzint.

Dit fenomeen heet hallucinatie. De term is iets te poëtisch voor wat er eigenlijk gebeurt: het model raapt statistisch aannemelijke tekst bij elkaar die nergens op slaat. Het "weet" niet dat het liegt, het heeft geen concept van liegen. Het produceert gewoon de meest waarschijnlijke volgende tokens.

Wat het extra gevaarlijk maakt: hallucinaties komen het vaakst voor bij precies de zaken waar je moeilijk kunt controleren. Obscure feiten, namen van weinig bekende mensen, specifieke data, citaten van wetenschappelijke papers, wetteksten uit vreemde jurisdicties. Dingen die je niet uit je hoofd weet, en die je dus ook niet snel herkent als onjuist.

Meer zekerheid is geen garantie voor meer nauwkeurigheid

Als een taalmodel een antwoord geeft met veel specifieke details (exacte getallen, volledige namen, precieze data) klinkt het overtuigend. Maar die specificiteit correleert niet met accuratesse. Een model dat een getal verzint, verzint het even gedetailleerd als een model dat een correct getal ophaalt. De zelfverzekerde toon is ingebakken in hoe de output geproduceerd wordt, niet een signaal van betrouwbaarheid.

Rode vlaggen bij AI-tekst

Een paar patronen die de moeite waard zijn om te herkennen.

Specifieke claims over weinig bekende onderwerpen. Als een model een biografie schrijft over een historische figuur die je niet kent, klinkt alles plausibel. Maar datums, functies en citaten kunnen volledig verzonnen zijn. Hoe obscuurder het onderwerp, hoe groter de kans op hallucinaties.

Citaten en bronvermeldingen. Taalmodellen citeren slecht. Ze produceren ISBN-nummers die niet bestaan, DOI-links naar papers die nooit geschreven zijn, en parafraseren auteurs op manieren die de oorspronkelijke betekenis omdraaien. Elk citaat dat een model geeft, moet afzonderlijk worden geverifieerd voordat je het ergens gebruikt.

Wetteksten, regelnummers, uitspraken. Dit is het domein waar AI het gevaarlijkst tekortschiet. Rechtbankvonnissen, wetgeving, regelgeving: het model kan correct ogende tekst produceren die juridisch niet bestaat. Dat is het soort fout dat in een professionele context serieuze gevolgen heeft.

Recente gebeurtenissen. Modellen hebben een trainingsknip (de datum waarna geen nieuwe data meer is verwerkt). Alles wat daarna is gebeurd, weet het model niet. Sommige modellen hebben toegang tot internet, maar ook dan moeten de resultaten met scepsis worden gelezen.

Statistieken zonder bron. Een model dat zegt "70 procent van de bedrijven doet X" heeft die statistiek ergens vandaan, of heeft hem verzonnen. Er is geen manier om van binnenuit te zien welke van de twee het is.

Hoe je AI-output verifieert

De basisregel is eenvoudig genoeg: behandel AI-output als een eerste aanzet, niet als een eindproduct. Verifieer claims die ertoe doen.

Specifieke claims: zoek ze apart op. Als het model zegt dat een wet in 2019 is ingegaan, zoek dat dan op bij de primaire bron: de officiële wettenbank, een betrouwbare nieuwsbron, Wikipedia als startpunt (niet eindpunt). Een minuut zoeken is genoeg om de meeste eenvoudige feitelijke fouten te ontmaskeren.

Gebruik perplexity of zoekmachines met bronnen. Tools als Perplexity.ai zijn ontworpen om bronnen mee te geven bij claims. Dat maakt verificatie makkelijker dan met een losse chatbot die geen links geeft.

Stel het model zelf vraagtekens. Vraag: "Hoe zeker ben je hiervan? Kan je dit verifiëren?" Modellen zijn slecht in het aangeven van onzekerheid tenzij je ze daartoe uitnodigt. Na zo'n vraag komt soms een herziening die er al op wijst dat het model zijn eerdere output zelf niet volledig vertrouwde.

Kruis-check bij specialisten. Voor medisch, juridisch of financieel advies is een taalmodel een gevaarlijke eerste en enige bron. Die informatie moet langs een persoon die verantwoordelijk is voor het advies.

AI-gegenereerde afbeeldingen: de signalen

Gegenereerde afbeeldingen zijn moeilijker te onderscheiden dan ze twee jaar geleden waren. Toch zijn er nog patronen te herkennen als je weet waar je op let.

Handen. Het bekendste probleem, en nog altijd een betrouwbare indicator. AI-modellen hebben structureel moeite met handen: te veel vingers, vingers die samengroeien, verkeerde hoeken, ringen op onlogische plekken. Dit verbetert per generatie, maar voor complexe handposities is het nog vaak zichtbaar.

Tekst in afbeeldingen. Letters en woorden in AI-gegenereerde afbeeldingen zijn frequent misvormd. Een bord, een krantenkop, een naam op een naambordje: die tekst is vaak onleesbaar of bevat letters die nergens op slaan. Modellen die getraind zijn op beeldherkenning begrijpen dat er tekst moet zijn, maar produceren geen echte woorden.

Oren, tanden en haar. Oren zijn assymetrisch of ontbreken gedeeltelijk. Tanden zijn uniform en te regelmatig, of juist verkeerd ingedeeld. Haar bij randen, waar het tegen een achtergrond grenst, heeft soms een wazige of onnatuurlijke overgang.

Achtergronden en objecten. Details in de achtergrond zijn soms logisch inconsistent. Stoelen met te veel poten, reflecties die niet kloppen, schaduwen in verkeerde richtingen. Dit vereist meer aandacht om te zien, maar als je goed kijkt aan de randen van de afbeelding, komen dit soort fouten vaker naar boven.

Textuur en materiaal. Leer, stof, hout, metaal: AI produceert plausibele texturen maar mist soms de kleine imperfecties die echte materialen kenmerken. Een leren jas in een gegenereerde afbeelding ziet er soms te glad uit, zonder de vouwen en gebruikssporen die een echte jas zou hebben.

Er zijn ook tools die helpen. AI-or-Not, Hive Moderation en Illuminarty zijn detectietools voor gegenereerde afbeeldingen. Ze zijn niet onfeilbaar, maar kunnen een nuttige aanwijzing geven bij twijfelachtig beeldmateriaal.

Deepfakes: wat werkt en wat niet

Video-deepfakes zijn een stap complexer dan stilstaande afbeeldingen. De kwaliteit varieert enorm: van duidelijk nep tot gevaarlijk overtuigend.

Lip-synchronisatie. Bij deepfakes van lagere kwaliteit klopt de mondbewegingen niet precies met het gesproken geluid. Het valt op bij consonanten die grote mondbewegingen vereisen, zoals p, b en m-klanken.

Oogbewegingen. Natuurlijk knipperen volgt een onregelmatig patroon. Vroegere deepfakes knipperden te weinig of te regelmatig. Moderne modellen zijn hier beter in geworden, maar het is nog altijd de moeite waard om op te letten.

Randen van het gezicht. De grens tussen het ingeplakte gezicht en het originele beeld is soms zichtbaar als een subtiele rand, een lichte onscherpte of een kleurovergang die niet strookt met de rest van het beeld.

Licht en schaduw. Kunstmatig toegevoegde gezichten hebben soms inconsistente belichting ten opzichte van de omgeving. Als het licht van links komt maar de schaduwen op het gezicht van rechts vallen, klopt er iets niet.

Context en motivatie. Niet elke deepfake verraadt zichzelf visueel. De meest betrouwbare vraag is: waarom zou deze video bestaan? Als een bekend persoon in een video iets zegt dat compleet buiten karakter is, dat commercieel of politiek voordeel oplevert voor iemand anders, en dat nergens anders te verifiëren valt, is scepticisme op zijn plaats.

Authenticiteitstools van platforms

YouTube, Facebook en TikTok verplichten inmiddels content-creators om te labelen of AI-gegenereerde elementen zijn gebruikt in een video. Die labels zijn echter alleen aanwezig als de maker zich aan de regels houdt. Kwaadwillende actoren labelen niet vrijwillig. De afwezigheid van een label is geen bewijs van echtheid.

AI-gegenereerd nieuws

Het probleem met AI in de nieuwscontext is niet alleen feitelijke fouten. Het is ook schaalvoordelen voor desinformatie.

Vroeger kostte het schrijven van honderd nepnieuws-artikelen tijd en mensen. Nu kost het een paar minuten en een goede prompt. AI maakt het mogelijk om grote hoeveelheden plausibel klinkende content te produceren op een schaal die eerder niet mogelijk was. Dat verandert de verhoudingen in het informatie-ecosysteem.

Een paar herkenningspunten bij verdacht nieuws:

Generieke stockfoto's of gegenereerde afbeeldingen bij het artikel. Nepsites gebruiken beelden die geen duidelijke bron hebben, of die bij nader onderzoek gegenereerd blijken te zijn.

Geen auteur, of een auteur die nergens anders te vinden is. Echte journalisten hebben een digitale voetafdruk. Een naam die alleen bij dit ene obscure domein voorkomt, is een signaal.

Extreme of sensationele kop, gevolgd door een vaag artikel. AI-gegenereerde content is goed in beginnen met een pakkende bewering en vervolgens weinig concreets te zeggen. Als de kop veel belooft maar het artikel geen bronnen noemt en herhaling bevat, is voorzichtigheid geboden.

Domeinnaam die lijkt op een bekende nieuwssite. ABCnews.com.co in plaats van ABCnews.com. Dit is een bekende techniek die niets met AI te maken heeft, maar in combinatie met AI-content vaker voorkomt.

Controleer via fact-checkers. Snopes, FactCheck.org, AFP Fact Check en de Nederlandse nieuwscheckers van NOS en RTL zijn nuttige startpunten. Ze controleren niet alles, maar bij viraal gegaan nieuws is er relatief snel een check beschikbaar.

Praktisch denken in een AI-tijdperk

Er is een risico aan te veel waakzaamheid, namelijk dat je alles gaat wantrouwen en daardoor evenmin goed kunt functioneren. Het doel is geen paranoia, maar proportionele scepsis.

Een bruikbaar raamwerk:

Hoe hoog zijn de gevolgen als dit onjuist is? Voor een vraag over welk restaurant vanavond open is, maakt een AI-fout weinig uit. Voor medisch advies, juridische informatie of iets wat je publiekelijk gaat delen, is verificatie de moeite waard.

Hoe verifieerbaar is de claim? Als iets makkelijk te checken is via een primaire bron (een officiële website, een wettenbank, een nieuwsarchief), doe dat dan. Het kost minder tijd dan je denkt.

Heeft iemand een belang bij het verspreiden van dit bericht? Desinformatie heeft altijd een doel. Het verzwakt een politieke tegenstander, het drijft verkeer naar een site, het verkoopt een product. Vraag jezelf af: wie profiteert als dit waar is?

Is de bron herkenbaar en controleerbaar? Niet "klinkt dit als een betrouwbare bron", want AI-gegenereerde tekst klinkt altijd als een betrouwbare bron. Maar: kan je de bron terugvinden? Heeft de auteur een bewezen staat van dienst? Verwijst het artikel naar primaire bronnen die je kunt opzoeken?

Het vraagt oefening. De meeste mensen zijn opgegroeid in een tijd waar de drempel voor publicatie hoog genoeg was om als een filter te functioneren. Die drempel bestaat niet meer. Dat betekent dat een deel van het filteren is opgeschoven naar de lezer.

Dat is geen prettige ontwikkeling. Maar het is de situatie.

Welke signalen heb jij leren herkennen, en zijn er gevallen geweest waarbij je bijna voor AI-gegenereerde content was gevallen?

§
JB

Jesse Burger

Schrijft over kunstmatige intelligentie, de impact op ons dagelijks leven, en de toekomst van technologie.