Jesse Burger
Terug naar blog
Productiviteit·Filosofie

De Kunst van het Samenwerken met AI

Jesse Burger··12 min leestijd
§

De meeste mensen gebruiken AI op een van twee manieren. De eerste: een vraag intypen, het antwoord lezen, het tabblad sluiten. De tweede: een prompt versturen, de output beoordelen als goed of slecht, en opnieuw beginnen als het tegenvalt. Twee patronen, allebei begrijpelijk, allebei suboptimaal.

Wat je zelden tegenkomt in de gesprekken over AI is aandacht voor de houding waarmee je de samenwerking ingaat. De discussie gaat bijna altijd over de techniek: welke tool voor welke taak, hoe je prompts optimaliseert, welk model het beste scoort op welke benchmark. Dat is allemaal nuttig. Maar het mist iets dat meer invloed heeft op de uitkomst: hoe je denkt over de samenwerking zelf.

Hoe de meeste mensen AI gebruiken

Het eerste patroon is wat je het Google-patroon kunt noemen. Een vraag, een antwoord, verder. AI als encyclopedie. Snel en functioneel, maar het benut AI op misschien vijf procent van zijn potentieel. Een encyclopedie geeft je feiten. Een AI-model kan redeneren, structureren, tegenwerpen, verfijnen, en meedenken over problemen waarvan de oplossing nog niet bestaat. Wie het alleen als opzoekdienst gebruikt, mist het meest interessante deel.

Het tweede patroon is het gokmachine-patroon. Een prompt insturen, de output beoordelen, en bij een slechte uitkomst gewoon opnieuw proberen. Alsof AI een lot is. Dit is beter dan het eerste, want er is tenminste evaluatie. Maar het mist iets: begrijpen waarom een output niet klopte, en dat begrip gebruiken om het gesprek te sturen.

Beide patronen hebben gemeen dat ze AI behandelen als een extern object. Een ding dat output produceert, dat je beoordeelt, en dat je opzij legt als het klaar is. De kern van effectief AI-gebruik is iets anders: het is geen transactie maar een dialoog. En dialogen vereisen een andere instelling dan transacties.

De mensen die het meest profiteren van AI zijn niet degenen die de beste prompts schrijven. Het zijn degenen die leren denken met AI in plaats van aan AI.

Van gebruiker naar denkpartner

Een concreet voorbeeld. Vorig jaar stond er een architectuurkeuze voor een project: een bepaalde functionaliteit bouwen als microservice of als module binnen een bestaand systeem? Een mening was er, maar twijfel ook.

De eerste stap was een directe vraag: "Wat zijn de voor- en nadelen van microservices versus modulaire monolith voor [context]?" Het leverde een bruikbare lijst op. Maar het hielp niet echt verder.

Een tweede poging, anders ingestoken. De volledige situatie beschreven: teamgrootte, deploymentfrequentie, verwachte groei, de specifieke eigenschappen van de functionaliteit. En daarna niet om een antwoord gevraagd, maar om een redenering: "Redeneer door deze beslissing heen alsof je senior architect bent. Wees eerlijk over de onzekerheden. Stel vragen als je informatie mist."

Wat volgde was een gesprek van zes berichten. Er kwamen vragen terug die ik zelf niet had bedacht. Er werd gewezen op een aanname in mijn redenering die ik niet als aanname had herkend. Uiteindelijk was het resultaat een onderbouwde mening die ik kon verdedigen. Niet omdat AI het antwoord gaf, maar omdat het gesprek hielp helderder te denken.

Dat is de kernverschuiving: AI niet als antwoordmachine, maar als denkpartner.

Dat heeft een paar concrete implicaties:

Je brengt je eigen denken mee. Een denkpartner heeft iets om op te reageren. Formuleer je eigen gedachten voordat je iets invoert, ook als die gedachten onvolledig zijn. Geef context, geef je veronderstelling, zeg wat je al hebt overwogen.

Je bent bereid om te itereren. Een gesprek bestaat uit meerdere beurten. De eerste output is zelden de laatste. Reageer, stuur bij, vraag door. De waarde zit vaak in de derde of vierde uitwisseling.

Je houdt je oordeel actief. Een denkpartner kan het bij het verkeerde eind hebben. Dat geldt voor mensen en voor AI. Evalueer wat er wordt gezegd, niet alleen of het goed klinkt.

Wanneer leiden en wanneer volgen

Een van de subtielere vaardigheden in samenwerken, met mensen of met AI, is weten wanneer je de leiding neemt en wanneer je de ander de ruimte geeft.

Bij taken waar je domeinexpertise hebt, is je rol om te leiden. Jij stelt de context, jij definieert de criteria, jij beoordeelt de output. AI is dan uitvoerend: het versnelt, structureert, genereert opties. Als je een artikel schrijft over een onderwerp dat je goed kent, gebruik je AI om je schrijftempo te verhogen, niet om je kennis aan te vullen.

Bij taken buiten je expertise werkt het andersom. Je volgt meer, luistert naar wat AI aanreikt, stelt verhelderendere vragen, en gebruikt de output als leermateriaal. Je controleert, maar oordeelt voorzichtiger, want je beoordelingsvermogen is beperkt door je eigen kennislacune.

De betrouwbaarheidsdrempel

AI is het meest betrouwbaar op het snijvlak van breed bekende kennis en heldere instructies. Hoe specifieker jouw domein, hoe kleiner de kans dat het model voldoende context heeft om goed te presteren zonder jouw begeleiding. Jouw taak is dan om die begeleiding te geven, niet om op de output te vertrouwen.

Er is ook een derde situatie: verkenning. Als je ergens over nadenkt zonder duidelijk doel, een idee exploreert of een probleem bekijkt vanuit verschillende hoeken, is de samenwerking het meest fluide. In de verkenningsstand vraag je niet "Geef me vijf ideeën voor X". Je zegt: "Ik ben aan het nadenken over X. Hier is hoe ik het nu zie: [je gedachten]. Wat mis ik? Welke invalshoek zie jij die ik niet benoem?" Het resultaat is rijker en onverwachter.

De drie lagen van iteratie

Iteratie is een van de meest onderschatte aspecten van goed AI-gebruik. Maar het gaat verder dan "probeer opnieuw als het niet klopt."

Er zijn grofweg drie lagen.

De eerste laag is correctie. De output klopt feitelijk niet, of mist iets wat was aangegeven. De meest basale vorm van iteratie. De meeste mensen kennen dit.

De tweede laag is verfijning. De output is correct, maar niet precies wat je zocht. Hier is de vaardigheid om te diagnosticeren waarom het niet klopt. Is het de toon? De structuur? Het abstractieniveau? Als je dat goed kunt benoemen, kun je precies sturen.

De derde laag is herbezinning. Soms is de output anders dan gevraagd, maar interessanter. AI heeft een richting ingeslagen die je niet had voorzien, en die richting is veelbelovend. Hier is de kunst om je eigen plan los te laten en de samenwerking te laten gaan waar het naartoe wil. Dit vereist openheid, en het levert soms de beste resultaten op.

Een voorbeeld: ik vroeg ooit om een structuur voor een presentatie over een technisch onderwerp. Ik had een lineaire opbouw in gedachten. De output organiseerde het dramatisch anders, als een verhaal met een climax. Mijn eerste reactie was weerstand. Maar na wat langer kijken was de alternatieve structuur veel sterker voor het specifieke publiek.

Er is ook een vierde laag, die ik co-creatie noem. Dit is de fase voorbij verfijning, waarbij de grens tussen mijn idee en het idee van de AI vervaagt. Het gesprek heeft een richting gekregen die geen van beide partijen van tevoren had bedacht. Een tekst met een onverwachte metafoor die je overneemt en verder uitwerkt. Een analyse die een verband legde dat je daarna zelf bent gaan onderzoeken. Dat zijn de momenten waarop samenwerken met AI iets anders wordt dan een gereedschap gebruiken.

Iteratie is niet alleen corrigeren. Het is ook bereid zijn om je beginpunt te herzien.

AI-geletterdheid

Er is een begrip dat ik steeds nuttiger vind: AI-geletterdheid. Niet in de technische zin. Je hoeft de architectuur van een transformer-model niet te begrijpen om AI goed te gebruiken. Maar in de communicatieve zin.

Klassieke geletterdheid is het vermogen om tekst te lezen en te schrijven, en daarmee deel te nemen aan een schriftelijke cultuur. AI-geletterdheid is het vermogen om effectief te communiceren met systemen die taal begrijpen en genereren. Dat klinkt simpeler dan het is.

Het omvat een paar deelvaardigheden:

Contextualisering. Weten welke informatie een AI-systeem nodig heeft om goed te presteren, en die informatie begrijpelijk aanbieden. Wij zijn gewend te communiceren met mensen die gedeelde context hebben. AI heeft dat niet automatisch. Je moet leren wat je normaal impliciet laat.

Evaluatie. Weten hoe je AI-output beoordeelt, niet alleen op juistheid, maar op relevantie, volledigheid en geschiktheid voor jouw doel. Blinde acceptatie van AI-output is een van de gevaarlijkste gewoontes die er zijn.

Calibratie. Weten wanneer AI waarschijnlijk goed presteert en wanneer het waarschijnlijk dwaalt. Grote taalmodellen kunnen hallucineren, hebben een neiging naar plausibel klinkende antwoorden, en zijn minder betrouwbaar bij zeer specifieke of recente informatie. Calibratie is weten wanneer je extra kritisch moet zijn.

Regie. Weten hoe je een gesprek stuurt richting het resultaat dat je zoekt. Niet wachten op het goede antwoord, maar het gesprek zo dirigeren dat een goed antwoord waarschijnlijker wordt.

AI-vaardigheid is geen statisch concept

De vaardigheden die vandaag werken, werken morgen misschien anders. Modellen veranderen. Interfaces veranderen. Wat telt is de onderliggende vaardigheid om te leren samenwerken met nieuwe systemen, niet de specifieke trucjes die je nu kent. Bouw geen afhankelijkheid van één aanpak. Bouw het vermogen om je aan te passen.

Concrete werkmodellen

Theorie is nuttig, maar het wordt pas waardevol als het neerslaat in concrete gewoontes.

Het briefing-model. Elk gesprek met AI is een briefing aan een uiterst capabele maar ongeïnformeerde medewerker. Die medewerker is intelligent en kan snel leren, maar weet niets over je situatie tenzij je het vertelt. De kwaliteit van de briefing bepaalt de kwaliteit van het werk.

Het tegenspeler-model. Voor beslissingen of analyses vraag je AI expliciet om de tegenovergestelde positie in te nemen. "Wat zijn de beste argumenten tegen dit plan?" AI is bijzonder nuttig als tegenstemmer, omdat het geen ego heeft te beschermen.

Het rubber duck-model. Soms wil je geen antwoord, maar een luisterend oor terwijl je je eigen gedachten uitdokt. Geef de instructie: "Stel alleen vragen. Geef geen antwoorden, geen oplossingen. Help me mijn eigen denken te verhelderen." Een van de meest onderbenutte toepassingen.

Het versie-nul-model. Voor schrijftaken begin je bijna nooit meer met een leeg scherm. Beschrijf in een paar zinnen wat je wilt schrijven, kern, doelgroep, toon, en vraag om een ruwe eerste versie. Die versie gebruik je niet om in te leveren. Je gebruikt hem als materiaal om tegen aan te schrijven. Het overschrijven van iets is structureel makkelijker dan schrijven vanaf nul.

Het synthese-model. Als je complexe informatie wilt verwerken, lange documenten, meerdere bronnen, technische specificaties, gebruik je AI als synthese-instrument. Geef de stukken, beschrijf je perspectief en doel, en vraag om een samenvatting die gefilterd is op wat voor jou relevant is. Niet een objectieve samenvatting, maar een persoonlijke.

Het Socratisch model. Geef AI de opdracht om je te onderwijzen via vragen. Leg een stelling neer, een aanname die je hebt over een probleem, en vraag om die stelling te bevragen totdat ze staat of valt. Meer dan eens is een overtuiging bijgesteld na tien minuten van zo'n gesprek.

Wat al deze modellen gemeen hebben: ze behandelen AI niet als een eindpunt maar als een denkproces. De output is niet het product. Het gesprek is het product.

De vraag achter de vraag

Er is iets wat pas laat duidelijk werd, en wat waarschijnlijk de meest geavanceerde vaardigheid is in samenwerken met AI.

Het gaat om het onderscheid tussen de vraag die je stelt en de vraag die je eigenlijk wilt beantwoord hebben.

Als je vraagt "Schrijf een samenvatting van dit document", is de vraag die je eigenlijk hebt soms: "Wat is het belangrijkste wat ik uit dit document moet onthouden gezien mijn specifieke doel?" Die twee vragen leveren fundamenteel andere antwoorden op.

AI maakt dit zichtbaar, omdat het letterlijk doet wat je zegt. Er is geen sociale correctie, geen interpretatie van intentie. Als je de verkeerde vraag stelt, krijg je het antwoord op die verkeerde vraag. Consistent en betrouwbaar.

Dat is tegelijkertijd de uitdaging en de leerschool. AI dwingt je om helderder te denken over wat je wilt. Je leert articuleren. Je leert preciseren. Je leert het verschil zien tussen wat je vraagt en wat je bedoelt. En die vaardigheid maakt je ook buiten AI beter. In e-mails, in gesprekken, in hoe je vergaderingen voorbereidt. De discipline die AI vereist, traint een manier van denken die overal nuttig is.

Wat er over vijf jaar over is

Modellen worden beter. Ze begrijpen meer. Ze vereisen minder expliciete instructie. Sommige vaardigheden die hier worden beschreven worden misschien overbodig.

Maar de kern blijft waarschijnlijk. De bereidheid om samen te werken in plaats van te consumeren. De vaardigheid om je eigen denken in te brengen in een uitwisseling. Het kritisch oordeel om output te evalueren. De openheid om je richting te herzien als een gesprek je ergens brengt dat je niet verwachtte.

Dat zijn geen technische vaardigheden. Het zijn gewoon vaardigheden. En ze worden misschien juist waardevoller naarmate AI krachtiger wordt, niet omdat je AI moet temmen, maar omdat de kwaliteit van de samenwerking steeds meer afhangt van wat jij erin brengt.

Er is ook een bredere dimensie: AI-geletterdheid is niet neutraal. Wie leert hoe hij AI effectief inzet, krijgt een structureel voordeel in werk, leren en besluitvorming. Dat voordeel is nu al ongelijk verdeeld. De gesprekken die we voeren over AI-geletterdheid in het onderwijs en op de werkvloer hebben gevolgen voor mensen, niet alleen voor statistieken.


Ik ben benieuwd hoe jij tegen samenwerken met AI aankijkt. Herken je het Google-patroon of het gokmachine-patroon in je eigen gebruik? Of heb je een manier gevonden die hier niet staat?

§
JB

Jesse Burger

Schrijft over kunstmatige intelligentie, de impact op ons dagelijks leven, en de toekomst van technologie.