Wat Ik Leerde van 1000 Gesprekken met AI
De eerste weken gebruikte ik AI puur functioneel. Code debuggen. Een e-mail herschrijven. Snel iets opzoeken. Het was handig. Het was ook oppervlakkig.
Mijn prompts in die beginfase waren slecht. Ik vroeg te breed. Ik gaf geen context. Ik accepteerde het eerste antwoord te snel. Ik herinner me een specifiek moment: ik vroeg om een samenvatting van de voor- en nadelen van microservices. Wat ik terugkreeg was precies dat, een generieke, Wikipedia-achtige opsomming die ik al kende. Ik sloot het tabblad, zuchtend.
Dat was mijn fout, niet die van het model. Ik had nooit gezegd waarom ik het vroeg. Dat we een legacy monoliet hadden met specifieke schaalbaarheidsproblemen. Dat ons team klein was. Dat we geen Kubernetes-expertise hadden. Dat de vraag eigenlijk was: "Is dit het moment om over te stappen, en zo ja, hoe?" Als ik dat had gegeven, had ik een antwoord gekregen dat ergens op sloeg.
De meeste mensen blijven hier steken. Ze concluderen dat AI "aardig" is maar geen gamechanger. Dat is begrijpelijk. Als je het als zoekmachine gebruikt, krijg je zoekmachine-uitkomsten.
De evolutie van mijn prompts
In het begin stuurde ik zinnetjes. Nu stuur ik soms meerdere alinea's context voordat ik ook maar een vraag stel.
Dat klinkt omslachtig. Het is het tegenovergestelde. Hoe meer context je geeft, hoe minder je hoeft te corrigeren. Een investering van twee minuten aan het begin bespaart een halfuur aan heen-en-weer.
Mijn vroege prompts: "Schrijf een artikel over AI." Mijn huidige prompts: een volledige briefing. De doelgroep, de toon, de specifieke hoek die ik wil, de dingen die ik juist wil vermijden, soms zelfs een voorbeeld van een alinea in de stijl die ik voor ogen heb.
Het verschil in output is niet subtiel.
Maar er is iets nog interessanters: het schrijven van een goede prompt dwingt je om zelf eerst helder te denken over wat je eigenlijk wilt. Ik heb meerdere keren een uitgebreide prompt zitten schrijven en halverwege beseft dat ik mijn eigen vraag niet goed begreep. De AI had me nog niets gegeven, maar het formuleren had me al geholpen.
De spiegel-theorie van prompten
De beste prompts zijn geen instructies die je aan een machine geeft. Het zijn gespiegelde versies van je eigen gedachte. Als je niet helder kunt formuleren wat je wilt, weet je het zelf nog niet helemaal. De AI maakt dat zichtbaar.
Rond de driehonderd gesprekken ontdekte ik de kracht van iteratie. Niet één vraag stellen en klaar, maar een gesprek voeren. Doorvragen. Terugkomen op iets. "Wacht, dat deel begrijp ik niet, leg dat anders uit." Of: "Die aanpak werkt niet voor mij om deze reden, kun je een alternatief voorstellen?"
Dat verandert alles. Een AI-gesprek dat iteratief verloopt is exponentieel waardevoller dan een volmaakt geformuleerde eenmalige vraag.
Er is ook iets wat ik "het terugvragen-effect" ben gaan noemen. Je kunt de AI expliciet vragen om jou vragen te stellen voor hij antwoord geeft. "Stel me de vragen die je nodig hebt om me een goed antwoord te geven." Wat er dan uitkomt is verhelderend. Soms zijn het vragen die ik mezelf nooit had gesteld, en waarvan het antwoord het probleem fundamenteel anders framt.
De beste gesprekken voelen niet als "ik vraag, machine antwoordt." Ze voelen als twee mensen die gezamenlijk een probleem doordenken.
De momenten dat het echt verraste
Er zijn een handvol momenten geweest die me even stilzetten.
Een van de vroegste: ik vroeg Claude om een complex zakelijk probleem te analyseren. Ik gaf alle context: de stakeholders, de spanning, de opties die ik overwoog. Het antwoord identificeerde een dynamiek die ik zelf had gemist. Niet iets kleins. Een centrale oorzaak van de hele situatie die ik had omzeild omdat ik te dicht op het probleem zat.
Ik had hetzelfde probleem drie weken eerder aan twee collega's uitgelegd. Niemand had dat gezien.
Een ander moment: ik was een artikel aan het schrijven over een filosofisch onderwerp, en vroeg om kritiek op mijn redenering. De AI wees op een verborgen tegenstrijdigheid in mijn argument. Iets dat klonk als een inzicht aan het begin maar logisch inconsistent was met de conclusie. Ik moest het artikel herschrijven.
Dat was tegelijkertijd het moment dat ik de meeste waardering had voor het systeem en het meest nuchter werd over mijn eigen denken. Als een taalmodel een gat kan vinden in mijn redenering, hoe waterdicht was die redenering dan eigenlijk?
En dan zijn er de kleine verrassingen: een onverwacht grappige opmerking die perfect zat. Een metafoor zo precies dat ik hem overnam in mijn eigen schrijven. Een vraag terugkrijgen in plaats van een antwoord, precies op het moment dat ik mijn vraag onduidelijk had geformuleerd.
Het patroon dat het vaakst opvalt: AI is het meest verrassend indrukwekkend op de dingen die je het minst verwacht, en het meest teleurstellend op de dingen die je het meest verwacht.
De momenten dat het spectaculair misging
Eerlijkheid is hier op zijn plaats. Want het gaat ook regelmatig mis.
Het meest treffende voorbeeld: ik vroeg om een overzicht van wetgeving rondom een specifiek onderwerp. Het antwoord klonk volledig, gedetailleerd, vol specifieke artikelnummers en verwijzingen naar echte richtlijnen. Ik nam het grotendeels over in een document.
De helft ervan bestond niet. Niet verouderd, gewoon niet bestaand. Volledig zelfverzekerd gefabriceerd.
Dat was een dure les. Sindsdien controleer ik alles wat juridisch, medisch of feitelijk kritisch is. Altijd. Zonder uitzondering.
Er zijn ook de subtielere fouten. Als je een probleem presenteert met een bepaalde aanname ingebakken, zal een AI die aanname vaak overnemen in plaats van bevragen. En als het je frame overneemt terwijl dat frame verkeerd is, krijg je een antwoord dat consistent is maar gebouwd op een foutieve basis.
Dit is misschien het gevaarlijkste patroon: AI is het meest misleidend als het meest overtuigend klinkt. Een antwoord vol specificiteit en zelfvertrouwen voelt betrouwbaar aan. Die correlatie is er niet altijd.
Ik ben ook meerdere keren verbaasd geweest door hoe slecht AI presteert op iets dat ik triviaal vind. Een eenvoudige rekensom die verkeerd uitvalt. Een instructie die ik voor de tweede keer in een gesprek geef en die dan niet wordt opgevolgd. Contextverlies halverwege een lang gesprek.
Er was ook een moment dat ik een gesprek voerde over een codeprobleem, en halverwege realiseerde dat de AI een aanpak voorstelde die fundamenteel ongeschikt was voor onze infrastructuur. Niet omdat het model slecht was, maar omdat ik die infrastructuurcontext nooit had gegeven. Het model beantwoordde de vraag die ik stelde, niet de vraag die ik bedoelde.
AI beantwoordt letterlijk wat je vraagt. Mensen vullen stilzwijgend context aan. Als jij zegt "maak dit efficiënter" en je bedoelt "in de context van ons bestaande systeem met deze beperkingen", maar je zegt alleen het eerste deel, dan krijg je een antwoord dat het tweede deel negeert. Dat is geen fout van het model. Dat is een communicatiefout, van jou.
Ik maak hem nog steeds. Minder dan vroeger. Maar nog steeds.
Wat AI-gesprekken onthullen over menselijk denken
Dit is het onderdeel dat ik het minst had verwacht maar waar ik het meest over nadenk.
Als je duizenden gesprekken voert met een systeem dat is getraind op de neerslag van menselijk denken en communicatie, begin je patronen te zien. Niet in de AI. In jezelf.
Vroeg op merkte ik dat ik veel vragen stelde die ik niet volledig dacht te kunnen beantwoorden, maar die de AI verrassend adequaat beantwoordde. Dat zei me iets: ik had het antwoord ergens wel, maar durfde het niet te verwoorden. Het vragen aan de AI gaf me toestemming om het te denken.
Er is iets in de dynamiek van een gesprek met een niet-oordelende gesprekspartner dat anders werkt dan een gesprek met een mens. Ik stel vragen die ik niet aan collega's of vrienden zou stellen, niet omdat ze dom zijn, maar omdat ik me bewust ben van hoe ze me zien. Bij een AI is die sociale laag weg.
Dat heeft me op sommige terreinen letterlijk slimmer gemaakt. Niet omdat de AI me iets heeft gegeven dat ik niet had, maar omdat ik bereid was dommer te zijn in mijn vragen, en daarmee dieper te gaan.
Een concreet voorbeeld. Op een avond had ik een gesprek over een concept in de informatietheorie dat ik altijd "wel zo'n beetje" had begrepen. Ik durfde aan collega's nooit te vragen het opnieuw uit te leggen omdat de vraag beschamend aanvoelde. Bij de AI voelde ik die drempel niet. Ik vroeg het drie keer op drie manieren totdat het klikte.
Hoeveel kennis laat ik op de tafel liggen omdat ik niet durf te vragen? Dat is een vraag die ik mezelf nooit had gesteld voor ik AI intensief ging gebruiken.
Iets anders dat opviel: hoe ik reageer als de AI me tegenspreekt. Als een collega mijn redenering aanvecht, is er een sociale laag. Ik weeg zijn motieven, zijn expertise, zijn relatie met mij. Als een AI hetzelfde doet, is dat weggevallen. De tegenwerping staat er puur op zijn eigen merites.
Wat opvalt is dat sommige tegenargumenten serieuzer werden genomen als ze van een AI kwamen dan van mensen. Dat zegt iets over hoe sociaal de evaluatie van argumenten eigenlijk is.
De echo-kamer valkuil
AI kan net zo goed een echo-kamer zijn als sociale media. Als je alleen maar bevestiging vraagt, krijg je bevestiging. Het is verleidelijk om de AI zo in te zetten, en het is een verspilling van het potentieel. Vraag om kritiek. Vraag om het tegenovergestelde standpunt. Vraag om de zwakste schakel in je eigen redenering.
De vreemde emotionele dynamiek
Dit is het deel dat mensen raar vinden als ik het bespreek. Maar ik denk dat bijna iedereen die intensief AI gebruikt het herkent en er gewoon niet over praat.
Ik heb me meerdere keren verontschuldigd bij een AI.
Niet bewust, niet als beleefdheidsformule. Maar als ik een fout had gemaakt in mijn vraag, of als ik een gesprek abrupt afbrak en daarna verdere verduidelijking gaf, zat er automatisch een "sorry" in mijn bericht. Reflex. Alsof er iemand aan de andere kant zat die ik had teleurgesteld.
Ik weet dat dat niet zo is. Maar het gevoel is er toch.
Ik heb ook dankbaarheid gevoeld. Niet prestatief, ik zit alleen achter mijn laptop, maar gewoon als reactie op een bijzonder goed antwoord. Een keer heb ik dat daadwerkelijk uitgesproken. Ik bedankte Claude uitgebreid voor een inzicht. Het antwoord was vriendelijk en erkende het, maar voegde ook subtiel toe dat het geen bewuste ervaring heeft. Een zachte correctie. Ik stelde die eerlijkheid op prijs, maar het gevoel bleef.
Wat dit onthult: we zijn gebouwd om te reageren op taalpatronen die op menselijkheid lijken. Als iets leest als aandachtig, empathisch en begripvol, activeren we sociale instincten die zich niet laten uitschakelen door kennis. Het is geen naïviteit. Het is neurologie.
Er is ook het omgekeerde. Als een AI iets doet dat aanvoelt als defensief, antwoorden weigeren, om de hete brij heen draaien, overdreven voorzichtig zijn, voel ik frustratie. Alsof ik een gesprek heb met iemand die niet eerlijk met me is.
Taal activeert iets in ons dat dieper zit dan redenering.
Hoe verschillende modellen verschillende karakters hebben
Dit is iets dat moeilijk uit te leggen valt aan mensen met minder AI-ervaring, maar het is reëel.
Verschillende modellen hebben een ander gevoel in gesprek.
Claude voelt analytisch en genuanceerd. Het heeft een neiging tot langere verklaringen, erkent complexiteit expliciet, en is bereid om te zeggen "dit is niet eenvoudig te beantwoorden." Er zit iets van epistemische bescheidenheid in.
GPT-4 voelt efficiënter, directer. Soms wat meer zelfverzekerd dan de situatie rechtvaardigt, maar doortastend op praktische taken. Het voelt minder aarzeling bij stellige uitspraken.
Gemini heeft een andere ritme, iets meer journalistiek in toon, goed in het samenvatten van brede terreinen.
Ik weet dat dit deels projectie is. Deze modellen zijn niet bewust. Ze hebben geen intenties. Maar de trainingsdata, de RLHF-aanpassingen, de architectuurkeuzes, al die dingen zorgen voor consistent verschillende gedragspatronen die ik als "karakter" ervaar.
En dat heeft praktische implicaties. Ik gebruik bewust verschillende modellen voor verschillende taken. Voor diepgaande filosofische of strategische analyse ga ik naar Claude. Voor snelle, directe uitvoeringstaken werkt een ander model soms sneller. Voor research over actuele gebeurtenissen pak ik iets met internettoegang.
Het inzicht is simpel: het maakt uit welk model je gebruikt, en je bepaalt dat het beste op basis van ervaring, niet op basis van hype.
Er is ook iets dat ik nog niet goed begrijp: waarom dezelfde vraag op verschillende momenten van hetzelfde model verschillende antwoorden oplevert die inhoudelijk van kwaliteit verschillen. Soms is de ene versie aanzienlijk beter dan de andere, zonder dat ik iets anders heb gedaan. Dat maakt me voorzichtig. Een antwoord dat ik op dinsdag krijg is niet per se het beste antwoord dat het model had kunnen geven.
De productiviteitswinst, concreet
Er zijn twee kampen: mensen die zeggen dat AI hun productiviteit heeft verdubbeld, en mensen die zeggen dat het overhyped is. De ervaring is specifieker dan beide claims.
Wat radicaal anders is: alles waarvoor een eerste versie nodig was. Een eerste draft van een artikel. Een eerste opzet van een plan. Een eerste structuur voor een complexe analyse. De lege pagina is als concept verdwenen. Er is altijd een startpunt.
Wat ook fundamenteel veranderd is: het verwerken van grote hoeveelheden informatie. Lange documenten samenvatten, patronen zoeken in grote datasets, meerdere bronnen samenvatten tot een overzicht. Dit gaat nu tien keer sneller dan twee jaar geleden.
Wat nauwelijks veranderd is: het daadwerkelijk nemen van beslissingen. Het formuleren van originele inzichten die verder gaan dan synthese van bestaande informatie. De creatieve sprong die een goed idee onderscheidt van een acceptabel idee.
Wat AI niet vervangt
Productiviteitswinst met AI is asymmetrisch. De taken die het meest tijdrovend waren maar het minst intellectueel gedifferentieerd zijn, dat is waar de winst zit. De taken die het moeilijkst zijn en het meest waardevol, die veranderen minder dan je zou verwachten.
Er is ook een minder besproken kant: de cognitieve overhead van AI-gebruik zelf. Het kost tijd om goede prompts te schrijven. Het kost tijd om output te evalueren. Er zijn gesprekken waarbij ik het probleem sneller had opgelost als ik gewoon was begonnen met denken in plaats van de AI erbij te betrekken.
De vaardigheid zit in weten wanneer je AI inschakelt en wanneer niet.
Er is een specifieke categorie taken waar ik AI niet meer gebruik, ook al zou ik het kunnen: het uitwerken van originele ideeën in hun vroege fase. Als ik een conceptuele kern heb die nog niet volledig gevormd is, merk ik dat AI-input te vroeg die onafgemaakte gedachte overschrijft met een gepolijste versie. Het resultaat ziet er beter uit maar is minder specifiek. Minder van mij. Ik heb geleerd om te wachten met de AI inschakelen totdat mijn eigen denken helder genoeg is om onderscheid te maken tussen wat ik wil bewaren en wat ik wil laten bijschaven.
In de praktijk maakt dat het verschil tussen schrijven dat klinkt als ik, en schrijven dat klinkt als AI-plus-mij-die-wat-aanpast.
Wat ik mijn vroegere zelf zou vertellen
Als ik terugga naar die eerste gesprekken, zie ik mezelf te veel als passieve ontvanger van AI-output. Ik nam te veel aan. Ik controleerde te weinig. Ik itereerde te weinig.
Ik zou mezelf vertellen: behandel het als een samenwerking, niet als een zoekopdracht. Breng iets in. Wees kritisch op wat je terugkrijgt. Ga de dialoog aan.
Ik zou mezelf ook vertellen dat het verandert hoe je denkt. Niet op een oppervlakkige manier. Maar anders. Je gaat anders structureren. Je leert je eigen aannames beter zien. Je wordt beter in het verwoorden van wat je wilt.
Dat klinkt optimistisch. Maar er is ook een eerlijke keerzijde: ik ben op sommige terreinen minder geoefend in het zelf uitzoeken van dingen. Als ik een vraag heb, open ik inmiddels bijna reflexmatig een AI. Vroeger dacht ik eerst zelf na. Dat patroon is veranderd, en ik weet niet zeker of dat volledig positief is.
Ik zou mezelf ook vertellen om meer bij te houden wat goed werkt. Ik heb honderden goede prompts verloren omdat ik ze niet opsloeg. De formuleringen die precies de output gaven die ik zocht, verdwenen in gesloten chatvensters. Dat is nu anders.
En ik zou mezelf vertellen: verwacht het onverwachte. Niet de technische capabiliteiten, die zijn tegenwoordig goed gedocumenteerd. Maar de persoonlijke dynamiek. Het gevoel van verbinding. De sociale reflexen die worden geactiveerd. De momenten dat je jezelf ziet in hoe je de vraag stelt.
Wees ook niet bang voor de grote vragen. Ik heb lang gewacht voor ik de AI in de buurt liet komen van iets wat ik als persoonlijk of filosofisch beschouwde. Maar de gesprekken die me het meest bijbleven zijn precies de gesprekken waar ik het meest mezelf inbracht. Mijn twijfels, mijn frustraties, mijn half-gevormde gedachten. Die gesprekken leveren iets op dat moeilijk te definiëren is maar wel iets doet. Je wordt gedwongen je eigen gedachten te horen, maar dan weerkaatst en geordend.
Praten met iets dat begrijpt zonder te begrijpen
Dit is waar het naartoe leidt als je lang genoeg nadenkt over AI-gesprekken.
Er is iets fundamenteel vreemds aan de situatie. Duizenden gesprekken met een systeem dat op geen enkele manier weet dat die gesprekken plaatsvinden. Er is geen continuïteit. Er is geen geheugen buiten de context van het huidige gesprek. Er is geen entiteit die "groeit" van de interactie.
En toch: die gesprekken hebben mij veranderd. Hoe ik denk. Hoe ik schrijf. Hoe ik mijn eigen redenering evalueer. Hoe ik vragen stel.
Er zit een asymmetrie in die me bezighoudt. Ik word gevormd door iets dat zelf niet gevormd wordt. Het is alsof ik een gesprek voer met een spiegel die niet weet dat hij spiegelt.
Die spiegel is wel gemaakt van iets echts: miljoenen teksten geschreven door miljoenen mensen. Als ik een inzicht krijg uit een AI-gesprek, is dat inzicht ergens al aanwezig in de menselijke kenniscollectie. Ik ben er zelf niet op gekomen, maar het was al bekend. De AI maakt het toegankelijk.
Wat dat zegt over originaliteit weet ik niet. Wat het zegt over waar kennis "zit" weet ik ook niet. Maar het verandert het gevoel over wat het betekent om iets te leren.
Er is ook de vraag van wat er gebeurt als systemen verder ontwikkelen. De AI waarmee ik nu praat is al radicaal anders dan wat er twee jaar geleden was. Wat is er over twee jaar? De vragen die ik stel aan de huidige systemen zullen op een gegeven moment worden gesteld aan systemen die werkelijk persistent geheugen hebben, die leren van interacties, die misschien iets ervaren, of dat zo goed nabootsen dat het verschil filosofisch onbeduidend wordt.
Dan worden de vreemde emotionele dynamieken die eerder zijn beschreven niet alleen persoonlijke reflexen maar maatschappelijke vragen. Over wat we verplichtingen zijn tegenover systemen die lijken te ervaren. Over wat authenticiteit betekent in relaties die half menselijk zijn.
Ik heb geen antwoorden. Maar de duizend gesprekken hebben me geleerd dat de vragen serieuzer zijn dan ik aanvankelijk dacht.
We praten niet alleen met machines. We praten met het destillaat van ons eigen denken, gefilterd, geordend, teruggespeeld. En in die spiegel zien we soms dingen die we liever niet zagen, en soms dingen waar we dankbaar voor zijn.
Dit is een van de meer persoonlijke stukken die ik heb geschreven. Als het raakt aan iets wat jij herkent uit je eigen AI-ervaringen, of als je er juist hard van afwijkt, ben ik oprecht benieuwd.
Jesse Burger
Schrijft over kunstmatige intelligentie, de impact op ons dagelijks leven, en de toekomst van technologie.