Van Chatbots naar Autonome Systemen: De Volgende Golf
In 1966 schreef Joseph Weizenbaum bij het MIT een programma dat menselijke gesprekken imiteerde door patronen te herkennen en vaste antwoorden te geven. Hij noemde het ELIZA. Het beroemdste script, DOCTOR, deed alsof het een therapeut was. Mensen praatten er persoonlijke dingen tegen, zelfs als ze wisten dat het een computerprogramma was. Weizenbaum schrok zo van de reacties dat hij een boek schreef over de gevaren van het te menselijk voorstellen van machines.
ELIZA begreep niets. Het herkende patronen. Maar het was goed genoeg om het zogeheten ELIZA-effect te produceren: de menselijke neiging om diepgang te projecteren op systemen die er geen hebben.
Van patroonherkenning naar iets dat meer lijkt op redeneren
In 2011 lanceerde Apple Siri. Spraak, mobiele integratie, agenda-toegang. Siri kon taken uitvoeren, niet alleen reageren. Maar wie het een jaar later nog gebruikte weet hoe snel de magie verdween. Het systeem was fragiel zodra je buiten de verwachte gebruikspatronen trad.
Siri liet zien hoe een persoonlijke assistent er in theorie uit zou kunnen zien. De kloof tussen die belofte en de praktijk was groot genoeg om een generatie sceptici te kweken.
Eind 2022 verscheen ChatGPT. En deze keer zat er geen gat tussen verwachting en werkelijkheid.
Wat ChatGPT anders maakte was niet alleen de kwaliteit van de taal. Het was het gevoel dat er iets van begrip achter zat. Een groot taalmodel traint op zoveel menselijke tekst dat het intern iets opbouwt wat functioneel op begrip lijkt, ook al is er een serieus debat over wat er precies onder de motorkap gebeurt.
Het praktische effect was duidelijk: mensen konden in gewone taal vragen stellen en bruikbare antwoorden terugkrijgen. Copywriters voor concepten, programmeurs voor code-reviews, studenten voor uitleg van moeilijke stof. De adoptie ging sneller dan bij welk ander consumentenproduct in de geschiedenis.
Maar ChatGPT heeft een fundamentele beperking. Het is reactief. Je stelt een vraag, het antwoordt. Je geeft een opdracht, het voert uit. Er is geen geheugen, geen initiatief, geen voortgang zonder jouw volgende input.
Het verschil dat alles verandert
Een taalmodel is een instrument, een bijzonder krachtig instrument, maar nog steeds iets dat je oppakt en neerlegt. Een AI-agent is meer als een medewerker. Het verschil zit niet in intelligentie, maar in agency: het vermogen om zelfstandig te handelen over tijd, met toegang tot tools en de wereld.
De opkomst van AI-agenten
De stap van taalmodel naar AI-agent is conceptueel eenvoudig te beschrijven. Een agent beschikt over drie dingen die een chatbot mist:
- Geheugen -- het onthoudt context over sessies heen
- Tools -- het kan code uitvoeren, het web doorzoeken, bestanden aanpassen, API's aanroepen
- Autonomie -- het neemt beslissingen over meerdere stappen zonder menselijke tussenkomst bij elke stap
In 2024 en 2025 zijn deze agenten snel volwassen geworden. Claude Code schrijft en debugt software terwijl het door een gehele codebase navigeert. Onderzoeksagenten doorzoeken tientallen papers en synthetiseren bevindingen. Planning-agenten boeken reizen, sturen e-mails, beheren agenda's.
Dit zijn producten die nu in gebruik zijn, bij bedrijven van alle groottes, in de workflows van kenniswerkers wereldwijd. We zijn al in het tijdperk van AI-agenten beland, we zijn er alleen nog niet helemaal aan gewend.
Wat "autonoom" werkelijk betekent
Zelfs de huidige AI-agenten zijn nog relatief beperkt autonoom. Ze werken binnen smalle domeinen, hebben menselijk toezicht nodig bij consequente beslissingen, en falen soms op manieren die verrassend zijn.
De systemen die verder gaan zijn die welke breed en langdurig autonoom opereren. Twee domeinen laten dit al concreet zien.
Zelfrijdende auto's zijn het meest tastbare voorbeeld van autonome systemen in de fysieke wereld. Waymo rijdt al jaren volledig zelfstandig in delen van San Francisco en Phoenix, zonder veiligheidsbestuurder. Het systeem neemt honderden beslissingen per minuut: snelheid, richting, het inschatten van andere weggebruikers. Het verwerkt sensordata uit meerdere bronnen tegelijk en handelt op basis van modellen die zijn gebouwd op miljoenen kilometers rijdata.
Een fout hier is geen verkeerde zin in een e-mail. Het is een botsing.
Wetenschappelijke ontdekkings-AI is minder zichtbaar maar minstens zo opvallend. AlphaFold2 van DeepMind loste het eiwitvouwingsprobleem op, een uitdaging waaraan biologen vijftig jaar hadden gewerkt. De nieuwere systemen gaan verder: ze genereren hypothesen, ontwerpen experimenten, analyseren resultaten, en itereren. In 2024 publiceerde Nature een studie waarbij een AI-systeem zelfstandig materiaalwetenschappelijke ontdekkingen deed die daarna door mensen werden geverifieerd.
Dat is niet meer een tool dat onderzoekers helpt. Dat zijn systemen die zelf ontdekken.
De governance-kloof
De technologische ontwikkeling van autonome systemen gaat aanzienlijk sneller dan de bijbehorende juridische en maatschappelijke kaders. Wie is verantwoordelijk als een autonoom systeem een fout maakt? Hoe certificeer je iets dat leert en verandert? Hoe zorg je voor transparantie in systemen die complexer zijn dan enig menselijk begrip? Dit zijn geen hypothetische vragen. Ze worden nu al in rechtszalen en boardrooms gesteld.
Het governance-vraagstuk
Neem aansprakelijkheid. Als een zelfrijdende auto een ongeluk veroorzaakt, wie is er dan verantwoordelijk? De fabrikant? De eigenaar? Het algoritme? De wetgever? Huidige juridische kaders zijn gebouwd op menselijke intentie en menselijk handelen. Autonome systemen passen daar niet goed in.
Of neem besluitvorming in de publieke sector. Stel dat een autonoom systeem wordt ingezet om toewijzing van sociale voorzieningen te optimaliseren. Het systeem presteert gemiddeld beter dan menselijke beoordelaars, maar maakt in bepaalde gevallen fouten die mensen nooit zouden maken. Hoe weeg je dat af? Hoe zorg je voor beroepsmogelijkheden als je de beslissing niet kunt uitleggen?
Dit zijn geen redenen om de ontwikkeling te stoppen. Maar het zijn wel dringende redenen om nu te investeren in de institutionele infrastructuur rondom autonome systemen: auditmechanismen, aansprakelijkheidsstandaarden, transparantievereisten, en de democratische discussie over welke domeinen we willen overlaten aan autonome besluitvorming.
Waar we naartoe gaan
Als je de lijn trekt van ELIZA in 1966 naar de huidige staat van autonome systemen, zie je een patroon: decennia van langzame vooruitgang, onderbroken door sprongen die het landschap herdefinieren.
De sprong van ChatGPT naar AI-agenten is zo'n herdefinierende stap. De overgang die nu gaande is, van smalle agenten naar breed autonome systemen, is potentieel nog groter. Niet omdat de technologie spectaculairder wordt, maar omdat de reikwijdte groeit. Systemen die zelfstandig wetenschappelijke kennis genereren, fysieke beslissingen nemen, langdurig plannen en uitvoeren zonder menselijke tussenkomst bij elke stap.
Wat dat kan betekenen: medische doorbraken die anders decennia zouden kosten, efficiencywinst in energie en logistiek, wetenschappelijke ontdekkingen op een schaal die voor mensen alleen onbereikbaar is. Tegelijk zijn er serieuze vragen over systemen die we niet volledig begrijpen, die we niet volledig kunnen controleren, en waarvoor de maatschappelijke kaders nog niet op orde zijn.
De volgende golf is onderweg. De vraag is niet of we haar zullen meemaken. De vraag is of we haar zo goed mogelijk voorbereid zullen begroeten.
Dit is het vraagstuk waar ik de komende tijd veel over zal schrijven. Hoe denk jij over de overgang van chatbots naar autonome systemen? Stuur me een bericht of laat een reactie achter.
Jesse Burger
Schrijft over kunstmatige intelligentie, de impact op ons dagelijks leven, en de toekomst van technologie.