Mijn Jaar Met AI: Een Eerlijk Terugblik
Ergens in april, laat op de avond, zat ik aan een feature die ik al twee dagen voor me uitschoof. Complex stuk code dat liep door drie verschillende services, met edge cases die ik maar niet scherp kon krijgen in mijn hoofd. Ik had er die middag al een uur naar zitten kijken, twee vellen papier volgeschreven met pseudo-architectuur, en was gestrand op een punt waarop ik niet meer zeker wist wat het eigenlijke probleem was.
Ik opende Claude Code, beschreef het probleem in een paar alinea's, en keek toe hoe het systeem door mijn codebase navigeerde, tests uitvoerde, aanpassingen maakte. Vijfenveertig minuten later lag er een werkende implementatie.
Ik zat achteraf niet te juichen. Ik zat een beetje verslagen naar mijn scherm te staren.
Niet omdat het slecht was. Omdat het goed was. En dat gevoel, die mix van ontzag, ongemak en een flits van iets dat gevaarlijk dicht bij jaloezie lag, dat is eigenlijk de kern van mijn jaar met AI.
Dit is geen overzicht van tools. Dit is geen productiviteitsgids. Dit is een poging om eerlijk op te schrijven wat er het afgelopen jaar is gebeurd: wat er veranderd is in hoe ik werk, hoe ik denk, en wie ik ben wanneer ik naar mijn eigen output kijk.
De tools die bleven en de tools die verdwenen
Een jaar geleden had ik een rij tools die ik "gebruikte" in de brede zin van het woord: af en toe, voor specifieke taken, als experiment. Vandaag heb ik tools die zo verweven zijn geraakt met mijn werkdag dat ik ze niet meer als AI-tools zie. Ze zijn gewoon gereedschap. Zoals een tekstverwerker. Zoals een terminal. Ze zitten in de achtergrond van hoe ik denk, niet meer in de voorgrond.
Claude Code is de grootste constante geworden. Niet alleen voor coderen, hoewel dat het begon, maar voor denken. Ik open het wanneer ik een idee wil uitwerken, wanneer ik vastzit op een architectuurkeuze, wanneer ik een tekst wil terugkijken met een frisse blik. Er is iets veranderd in de relatie die ik ermee heb. Het is niet meer "laat mij kijken of dit werkt", het is "laat mij dit hardop denken en jij denkt mee". Die verschuiving klinkt misschien klein, maar ze is wezenlijk. Ze verandert hoe je het instrument inzet en wat je er van verwacht.
Perplexity gebruik ik steeds meer voor informatievragen. Niet als vervanging voor diep nadenken, maar voor het soort vragen waarbij ik vroeger tien browsertabbladen opende en die dan vergat te sluiten. Wat kostte het gemiddeld om een startup in 2019 te starten. Hoe werkt de btw-regeling voor freelancers die software verkopen aan bedrijven buiten Europa. Wat is de officiële benaming voor een bepaald juridisch construct. Snel, gefocust, genoeg.
Wat niet bleef: vrijwel alle tools die ik in de eerste helft van het jaar enthousiast aanschafte op basis van hype. Er is een categorie AI-tools die bestaat uit prachtig gedekte sandwiches die na één hap blijken te bestaan uit niets dan brood. Indrukwekkende demo's, overtuigende landingspagina's met testimonials van mensen die je nooit van gehoord hebt. En dan gebruik je ze drie keer en denk je: dit voelt als een product dat is gebouwd om funding te genereren, niet om een probleem op te lossen. Ik heb hier te veel geld aan uitgegeven. De signalen waren er. Ik liet me afleiden door de aantrekkingskracht van het nieuwe.
De demo-val
Het ergste wat je kunt doen is een AI-tool kopen op basis van een demo op social media. Demo's zijn theater. Ze zijn zorgvuldig gecureerd, op de beste inputs getest, en gefilmd op het moment dat alles werkte. Gebruik een tool drie weken voor echte taken, met echte frustraties en imperfecte input. Als het daarna nog steeds waarde levert, overweeg dan een betaald abonnement. De meeste tools halen die drie weken niet.
Hoe mijn denken veranderde, en dat verraste me
Ik dacht dat AI mijn werkproces zou veranderen. En dat deed het. Maar ik had niet verwacht dat het ook mijn manier van denken zou beginnen te beïnvloeden. Of preciezer: dat het zou beginnen te onthullen hoe ik al dacht, maar dan zichtbaarder.
Wanneer je dagelijks samenwerkt met een systeem dat snel hypotheses genereert, alternatieven voorstelt, aannames doortrekt naar hun logische consequenties en blinde vlekken benoemt, word je je bewust van je eigen mentale shortcuts. Ik merk dat ik sneller doorvraag op mijn eigen aannames. Ik merk dat ik minder snel genoegen neem met een eerste formulering. Niet omdat AI mij dat heeft geleerd, maar omdat ik heb gezien wat er mogelijk is als je niet genoegen neemt met de eerste formulering.
Dat klinkt positief, en dat is het ook deels. Maar er zit een keerzijde aan.
Er zijn momenten waarop ik merk dat ik een vraag stel aan Claude die ik dertig seconden daarvoor zelf had kunnen beantwoorden, als ik even de moeite had genomen. Er is een verleidelijke luiheid die om de hoek loert. Niet de luiheid van niet-werken, maar de luiheid van het delegeren van denkwerk dat je eigenlijk zelf zou moeten doen. Het is een subtiel mechanisme: je bent hard aan het werk, de output stroomt, maar de denkspier die je normaal traint doet op dat moment geen moeite.
Er is een verschil tussen AI gebruiken als versterker van je denken en AI gebruiken als vervanging ervan. De eerste maakt je beter. De tweede maakt je, op de lange termijn, waarschijnlijk zwakker op precies de capaciteiten die je onderscheiden. Die grens is persoonlijk, vloeiend, en makkelijker over te gaan dan je denkt.
De momenten van oprecht ontzag
Ik merk dat mensen in de AI-wereld soms te gemakkelijk vervallen in hyperbool. De ene dag is er een nieuw model dat alles verandert, de volgende dag is er een demo die ongekend is. Die inflatie van superlatieven maakt het moeilijker om te herkennen wanneer iets echt opmerkelijk is. Dus laat me specifiek zijn.
Er was een week in juli waarbij ik werkte aan een project waarbij ik veel legacy code moest begrijpen, niet geschreven door mij, geen documentatie, onregelmatige naamgeving en structuur. Ik gaf Claude de relevante bestanden, beschreef wat ik probeerde te begrijpen, en vroeg om een uitleg van hoe de onderdelen samenhingen. Wat terugkwam was niet alleen correct. Het identificeerde een patroon in de code dat ik zelf niet had gezien, dat achteraf bleek te verklaren waarom bepaalde bugs zo hardnekkig en moeilijk te reproduceren waren. Het duurde vijf minuten om te lezen. Het had me waarschijnlijk een halve dag gekost om zelf te doorgronden.
Een ander moment: ik was een langere blogpost aan het schrijven, vroeg om feedback op de argumentatiestructuur, en kreeg terug dat de conclusie eigenlijk beter als opening zou werken. Als simpele, directe observatie. En het klopte. De conclusie was de sterkste zin. Die hoorde vooraan. Ik had dat zelf niet gezien omdat ik te dicht op de tekst zat, een probleem dat iedere schrijver kent en waarvoor normaal gesproken een andere persoon nodig is, of een paar dagen afstand.
Het ontzag zit voor mij niet in de spectaculaire demo's. Het zit in de kleine, precieze interventies op het moment dat je ze nodig hebt. Dat is de belofte die dit jaar het meest consequent is ingelost.
De frustratie, en wat ik daarmee heb geleerd
Er zijn momenten waarop AI-tools me flink frustreren. Niet vanwege één grote fout, maar vanwege een patroon: de overzekere incorrectheid. Het moment waarop een systeem iets beweert met de toon van iemand die het precies weet, en het dan gewoon niet klopt. Een API-endpoint dat niet bestaat. Een datum die er twee jaar naast zit. Een juridische claim die de plank volledig misslaat maar geformuleerd is als vaststaand feit.
Het vervelende is niet dat het fout is. Fouten zijn menselijk en acceptabel. Het vervelende is de toon. De gladde zekerheid waarmee onjuistheden worden gepresenteerd, zonder enige aarzeling of voorbehoud. Dat dwingt me om alles te blijven controleren, ook op de momenten dat ik al moe ben van het controleren. Het is een vermoeiend soort waakzaamheid omdat het willekeurig is: de fout kan overal zitten en kondigt zich niet aan.
Ik heb geleerd dat er een specifieke categorie vragen is waarop ik nooit meer AI blind vertrouw: alles wat raakt aan wet- en regelgeving, recente feiten na de trainingsdatum, en gedetailleerde claims over specifieke personen of bedrijven. In die gevallen is AI een startpunt voor onderzoek, nooit een eindpunt.
De verificatievermoeidheid is echt
Er is een sluipend effect dat ik "verificatievermoeidheid" noem. Na een lange sessie van AI-ondersteund werk neemt je neiging om te controleren af. Je raakt gewend aan correcte output, verlaagt je waakzaamheid, en precies op dat moment slipt er een fout doorheen die je er normaal direct uit had gehaald. Bouw controlemomenten bewust in, niet alleen aan het einde van een project maar ook halverwege, en op de momenten waarop je je het minst scherp voelt.
Er is ook een diepere frustratie die ik eerlijk wil benoemen. Soms wil ik gewoon een antwoord, zonder de zorgvuldige balancering van alle perspectieven, zonder de gepaste disclaimers, zonder de voorbehouden en de impliciete boodschap dat het uiteindelijk jouw keuze is. Soms wil ik dat iemand, of iets, zegt: doe dit, niet dat. Punt. Ik begrijp waarom dat ingewikkeld is vanuit een perspectief van verantwoording en veiligheid. Maar het maakt bepaalde soorten vragen minder prettig om te stellen.
De sociale dynamiek
Dit is het deel dat ik eigenlijk niet wilde schrijven, maar waarvan ik weet dat ik het toch moet.
Het afgelopen jaar heb ik twee categorieën mensen ervaren waarvan de aanwezigheid me ongemakkelijk maakt, elk op een andere manier.
De eerste: mensen die denken dat je overdrijft. Niet letterlijk, maar je merkt het in de blik als je beschrijft hoe je AI inzet in je dagelijks werk. De lichte scepsis. De grijns die iets te lang duurt. Ik heb me in gesprekken af en toe betrapt op het afstemmen van mijn enthousiasme, het inslikken van concrete voorbeelden, het milderen van de toon zodat ik niet klink als iemand die een nieuwe religie heeft gevonden. Dat is niet goed. Dat is een soort sociale zelfcensuur die ik niet wil bedrijven. Maar het gebeurt.
De tweede categorie is misschien moeilijker. Dat zijn de mensen die te veel snappen, of die denken dat ze het snappen. De evangelisten. De mensen voor wie elke conversatie over AI uitmondt in een monoloog over hoe alles over twee jaar anders zal zijn, hoe specifieke beroepen verdwijnen, hoe de AGI-drempel bijna bereikt is. Ik heb mezelf het afgelopen jaar meer dan eens in die rol herkend. Er is iets in de dynamiek van intensief AI-gebruik dat je tribalistisch kan maken, als je er niet op let.
Er is iets in de AI-wereld dat je in kampen duwt: gelovigen versus sceptici, early adopters versus achterblijvers. Die polarisering is onvruchtbaar. De interessante vragen zitten in het midden: wanneer werkt het, wanneer werkt het niet, wat gaat er verloren, wat wordt er gewonnen, voor wie, onder welke omstandigheden. Dat gesprek voer ik liever dan de loopgravenoorlog.
Wat ik mis en wat ik anders doe
Ik produceer aanzienlijk meer dan een jaar geleden. Niet omdat ik meer uren draai, maar omdat de outputdrempel per uur omhoog is gegaan. Wat vroeger een dag kostte, kost nu een ochtend. Dat is productief. Maar het heeft een keerzijde die ik de afgelopen maanden steeds duidelijker ben gaan zien.
Ik merk dat ik minder tijd besteed aan het zitten met een probleem. Aan het gewoon nadenken, zonder input, zonder versnelling. Die periode van ongemakkelijke traagheid, de fase voordat je weet hoe je iets gaat aanpakken, de fase waarin dingen in je hoofd samenkomen zonder dat je het merkt, had altijd waarde. Ik denk dat ik er iets in verlies waarvan ik nu pas begin te begrijpen wat het was.
Niet de tijd zelf. De frictie. De frustratie van niet-weten die je uiteindelijk naar onverwachte plekken duwde, naar associaties die je niet had gemaakt als je de kortste route had genomen. Veel van mijn beste ideeën zijn gekomen in periodes van gefrustreerd rondhangen met een probleem. Ik vraag me af of ik die periodes aan het elimineren ben.
De afgelopen weken heb ik geprobeerd om bewust tijd te reserveren voor denken zonder AI. Gewoon een probleem, een leeg document, en mezelf. Het voelt rustiger en tegelijkertijd merkbaar langzamer. En dat langzame voelt soms als winst, zelfs als de output minder is.
Reserveer tijd voor traag denken
Weersta de neiging om elk denkmoment te versnellen met AI. Er is waarde in de langzame, ongemakkelijke fase van probleemoplossing, niet als inefficientie die je moet elimineren, maar als het gedeelte waar originele inzichten vandaan komen. Plan tijd voor "slow thinking" in je agenda zoals je een vergadering plant. Als je het niet bewust inplant, verdwijnt het. De versnelling is altijd beschikbaar; de vertraging wordt schaars.
Wat ik fout had
Een terugblik is pas eerlijk als je ook opschrijft waar je ongelijk had.
Ik dacht dat de kwaliteitsverschillen tussen de grote modellen snel kleiner zouden worden tot ze verwaarloosbaar waren. Dat is niet zo gegaan. Er is een merkbaar kwaliteitsverschil tussen de beste modellen en de modellen die net iets goedkoper of toegankelijker zijn, en dat verschil speelt een rol op het moment dat je het minst verwacht: bij complexe redeneerketens, bij genuanceerde instructies, bij taken waarbij context over veel materiaal cruciaal is.
Ik dacht dat lokale modellen dit jaar een serieus alternatief zouden worden voor cloudgebaseerde tools voor mijn dagelijks gebruik. Ik heb het serieus geprobeerd en ben er steeds van teruggekomen. De kloof is kleiner dan een jaar geleden. Maar niet klein genoeg om er consequent voor te kiezen.
Ik dacht dat ik niet echt zou merken wanneer AI-content me bereikte in het wild. Dat was naïef. Er is een textuur aan AI-gegenereerde tekst die ik inmiddels vrij snel herken, al kan ik hem niet altijd precies aanwijzen. Een te gelijkmatige opbouw van zinnen. Een volledigheid die net iets te systematisch is. Een gebrek aan onverwachte wendingen. Het is niet dat die tekst slecht is. Het is dat die tekst nooit verbazingwekkend is. Er zit geen moment van "wacht, dat had ik niet verwacht" in. En dat gemis merkt zich.
En misschien het eerlijkste: ik dacht dat ik beter zou zijn in het bewaken van mijn eigen grenzen. Dat ik zou weten wanneer ik AI moest inzetten en wanneer niet. In de praktijk heb ik die grens talloze keren overschreden, in beide richtingen. Soms te afhankelijk, soms koppig zelfstandig op momenten waarop dat weinig toegevoegde waarde had. Die kalibratie is een voortdurend werk in uitvoering, geen probleem dat je oplost en dan afvinkt.
De vraag die ik mezelf steeds vaker stel
Ergens in november begon een vraag zich te herhalen, op de rare momenten: in de auto, net voor het slapengaan, tijdens een wandeling.
De vraag is: wat is van mij?
Niet in een existentiële crisis-toon. Meer als een eerlijke inventarisatie van wat er overblijft. Als ik een tekst schrijf met AI-assistentie, welk deel is dan mijn stem, mijn idee, mijn inzicht? Als ik code lever die voor een significant deel is gegenereerd en door mij gereviewd en bijgestuurd, wat is dan mijn bijdrage precies?
Ik weet dat dit vragen zijn die mensen al stellen bij elk nieuw gereedschap. De drukpers veranderde de relatie tussen schrijver en tekst. Photoshop veranderde de relatie tussen fotograaf en beeld. Die vergelijkingen zijn terecht, en ze zijn troostend. Maar ze voelen ook te makkelijk. Want er is iets anders aan een systeem dat taal genereert, dat argumenten opbouwt, dat structuur aanbrengt en redeneringen afmaakt. Activiteiten die we altijd hebben gezien als de kern van wat het betekent om na te denken.
Ik heb geen antwoord. Maar ik denk dat de vraag het stellen waard is.
De eerlijke positie is ongemakkelijk. Het is de positie van iemand die midden in een verandering staat en niet precies weet waar de oevers zijn.
Waar ik denk dat het naartoe gaat
Als ik een jaar vooruitkijk, denk ik dat we in 2027 een punt bereiken waarbij de discussie verschuift van "is AI nuttig?" naar "hoe verdeel je de waarde die AI creëert?". Die vraag is nu al urgent, maar ze wordt de komende twaalf maanden politiek en maatschappelijk onvermijdbaar.
Ik verwacht dat de tools die ik gebruik substantieel beter worden in het begrijpen van context over langere tijdshorizonnen. Niet incrementeel beter. Fundamenteel beter in de zin van: taken die nu nog onmogelijk zijn worden vanzelfsprekend.
Ik denk dat de generatie die nu de universiteit verlaat met AI werkt op een manier die mij soms verbaasd. Niet omdat ze slimmer zijn, maar omdat ze minder te verleren hebben aan de overgang. Ze zijn al gesocialiseerd in een wereld met AI. De vraag "wat is van mij" stellen ze misschien niet op dezelfde manier, omdat ze nooit een wereld hebben gekend waarin het antwoord duidelijk was.
Ik verwacht ook dat de kwaliteit van AI-gegenereerde content verder zal stijgen op het gebied van technische correctheid en coherentie, en dat de tekortkomingen die overblijven steeds meer te maken zullen hebben met wat moeilijk formaliseerbaar is: perspectief, stemgeluid, de willekeurige verbinding die je maakt vanuit een leven geleefd op een specifieke plek, in een specifiek lichaam, met specifieke ervaringen. Dat laatste is misschien het enige wat echt van mij blijft. Niet de executie. De stem.
Waar ik het mis heb: ik weet niet hoe snel dit allemaal gaat. Ik heb vorig jaar verwachtingen gehad over tempo die niet uitkwamen, soms liep het sneller dan ik dacht, soms aanzienlijk langzamer. Voorspellingen over AI-ontwikkeling zijn notoir onbetrouwbaar, ook van de mensen die het het beste zouden moeten weten.
Een jaar verder, en toch aan het begin
Als ik terugkijk op het afgelopen jaar, is het meest eerlijke wat ik kan zeggen dit: AI heeft mijn werk veranderd op een manier die ik niet meer wil terugdraaien. De productiviteitswinst is reëel. De kwaliteitssprong op bepaalde taken is reëel. De mogelijkheid om dingen te maken die buiten mijn bereik lagen, niet vanwege gebrek aan talent maar vanwege gebrek aan tijd of kennis op een specifiek deelgebied, is reëel. Dat zijn geen kleine dingen.
Maar er is ook iets dat ik in de gaten moet houden. Een neiging om snelheid gelijk te stellen aan kwaliteit. Een neiging om beschikbaarheid gelijk te stellen aan noodzaak. Een neiging om de vraag "wat is van mij" weg te schuiven als sentimenteel, terwijl ik weet dat ze dat niet is.
Ik ben geen scepticus. Ik ben ook geen evangelist. Ik ben iemand die intensief werkt met krachtige tools en probeert eerlijk te blijven over wat dat betekent: voor zijn werk, voor zijn denken, voor de manier waarop hij naar zijn eigen bijdrage kijkt. Die eerlijkheid kost soms iets. Ze vraagt dat je stopt met de geruststellende verhalen in beide richtingen: zowel "dit gaat alles oplossen" als "dit is uiteindelijk niets nieuws".
Het jaar 2025 heeft me geleerd dat AI niet iets is wat je "adopteert" en dan klaar mee bent. Het is een voortdurende aanpassing. Een steeds opnieuw ijken van je grenzen, je verwachtingen, je eigen rol. Een voortdurend gesprek met jezelf over wat je wilt behouden en wat je bereid bent los te laten.
Dat gesprek ben ik nog niet klaar mee. Ik denk dat ik het ook nooit klaar mee zal zijn, en dat dat misschien precies zo hoort.
Als jij ook bezig bent met die kalibratie, waar AI je helpt versus waar het je belemmert, wat je wilt beschermen versus wat je graag loslaat, dan hoor ik je gedachten graag. Stuur me een bericht.
Jesse Burger
Schrijft over kunstmatige intelligentie, de impact op ons dagelijks leven, en de toekomst van technologie.