De Ethiek van AI: Waar Trekken We de Grens?
In de Amerikaanse staat Florida gebruikt de rechterlijke macht al jaren een algoritme genaamd COMPAS om in te schatten hoe groot de kans is dat een verdachte recidiveert. Onderzoekers van ProPublica toonden in 2016 aan dat het systeem zwarte verdachten structureel hogere risicoscores gaf dan witte verdachten met vergelijkbare achtergronden. Het algoritme is sindsdien niet uit gebruik genomen.
Dat is een goed startpunt voor een gesprek over AI-ethiek.
Het probleem van bias: de spiegel die niet liegt
Een veelgehoord misverstand: AI is objectief omdat het een machine is. Dat klopt niet. Een model is nooit neutraler dan de data waarop het getraind is, en die data weerspiegelt de wereld zoals die is, met alle scheefgroei en historisch ongelijk die daarin besloten liggen.
COMPAS is het meest geciteerde voorbeeld, maar niet het enige. Gezichtsherkenningssystemen presteren structureel slechter op donkere huidskleurten. Taalmodellen produceren vaker negatieve associaties bij vrouwennamen dan bij mannennamen. Sollicitatie-algoritmen leren van historische aanstellingen en reproduceren daarmee de voorkeur voor mannen in technische functies.
Bias in AI is geen technisch probleem. Het is een politiek probleem. En politieke problemen los je niet op met betere parameters.
Wat daarbij opvalt, is niet alleen de bias zelf. Het is de legitimering die een algoritme meebrengt. Als een rechter een vonnis velt, kun je hem bevragen. Als een algoritme een score uitspuugt, omhult die score zich in de aura van objectiviteit. Mensen vertrouwen getallen meer dan redenaties, en dat maakt algoritmische bias moeilijker te betwisten dan menselijke bias.
De vraag is niet alleen: hoe maken we AI minder bevooroordeeld? De vraag is ook: op welke levensdomeinen mogen we algoritmen überhaupt laten meebeslissen?
Privacy: het stille offer
Wie AI-diensten gebruikt, betaalt niet altijd met geld. Vaak wordt er betaald met data: gedrag, patronen, klikgeschiedenissen, zoektermen. De schaal van de surveillance-infrastructuur achter moderne AI is moeilijk te vatten. Elke zoekopdracht, elk klikpatroon, elk moment dat een app op de achtergrond draait wordt opgeslagen, geanalyseerd en gebruikt om modellen te verfijnen of gerichte advertenties te sturen.
De prijs van gratis
De meest vergaande privacyproblemen komen niet van kwaadwillende hackers, maar van systemen die precies doen waarvoor ze ontworpen zijn. Profielopbouw, gedragsvoorspelling, gerichte beïnvloeding: dit is voor veel bedrijven geen bijwerking van het product. Het is het verdienmodel.
De Europese GDPR heeft grenzen gesteld, en de AI Act probeert verdere kaders te scheppen. Maar regelgeving loopt per definitie achter op technologie. Tegen de tijd dat een wet in werking treedt, heeft de industrie al een paar nieuwe generaties mogelijkheden ontwikkeld.
Privacy raakt aan iets diepers dan gemak versus veiligheid. Het gaat over autonomie. Over de vraag of je nog een zelf kunt zijn als elk aspect van je gedrag door systemen wordt gevolgd, gemodelleerd en gebruikt om je te voorspellen, en uiteindelijk te sturen. Een samenleving zonder privésfeer is een samenleving zonder ruimte voor afwijking, experiment of verandering.
Autonome beslissingen: wie is er verantwoordelijk?
Autonome voertuigen rijden al op de openbare weg. Medische AI-systemen adviseren over behandelingen. Defensietechnologie experimenteert met systemen die zonder menselijke tussenkomst kunnen besluiten om te schieten. De autonome beslissing is geen toekomstscenario. Het is nu.
En daarmee is de vraag over verantwoordelijkheid niet langer filosofisch. Mensen zijn al omgekomen bij ongelukken met zelfrijdende auto's. De vraag wie daarvoor verantwoordelijk is, heeft nog geen helder antwoord.
Het verantwoordelijkheidsprobleem heeft drie lagen:
- De ontwikkelaar die de keuzes inbouwt in het systeem, al dan niet bewust
- De inzetter (het bedrijf of de overheid) die besluit dit systeem te gebruiken
- Het systeem zelf, dat geen rechtssubject is, geen aansprakelijkheid kent en niet gestraft kan worden
In de praktijk betekent dit dat de verantwoordelijkheid zo verdeeld raakt over mensen, organisaties en algoritmen dat ze effectief verdampt. Niemand is aansprakelijk, want het was het systeem. Het systeem kan niet aansprakelijk zijn, want het is een systeem.
Beslissingen die levens raken, mogen niet volledig gedelegeerd worden aan systemen zonder zinvolle menselijke controle. Niet in de rechtszaal. Niet in ziekenhuizen. Zeker niet op het slagveld. AI mag daarin een rol spelen, maar de uiteindelijke beslissing, en de verantwoordelijkheid daarvoor, moet bij een mens liggen die er daadwerkelijk op aanspreekbaar is.
Waar trekken we de grens?
Elke grens heeft een prijs. Strikte regulering vertraagt innovatie die ook levens kan redden. Volledige vrijheid van ontwikkeling levert systemen op die niemand kan controleren of bevragen.
Het dilemma van regulering
De landen die AI het striktst reguleren, exporteren de minder gereguleerde versies van elders. Ethische grenzen werken alleen als ze gedeeld worden. En mondiale consensus over technologie-ethiek is tot nu toe een wens, geen realiteit.
Een paar principes die in elk geval houdbaar lijken:
-
Transparantie is niet onderhandelbaar. Als een algoritme over iemand beslist, is er het recht te weten hoe en waarom. Dat moet wettelijk afdwingbaar zijn, niet een opt-in bij dienstverlening.
-
Hoog-risico toepassingen vereisen menselijk toezicht. Rechtspraak, medische diagnose, kredietverlening, bewaking: dit zijn domeinen waar de menselijke maat gehandhaafd moet blijven, ook als AI een rol speelt.
-
De lasten mogen niet bij de kwetsbaarsten liggen. Als AI-systemen fouten maken, treft het zelden de mensen die ervan profiteren. De slachtoffers van gebrekkige algoritmen zijn vaak degenen die al het minste in de schaal leggen: mensen in armoede, minderheden, mensen zonder juridische bijstand. Dat is geen toeval. Het weerspiegelt wie serieus genomen wordt als gebruiker bij het ontwerp.
-
Technologie is nooit neutraal. Welke data, welk doel, wie betaalt: elke keuze in de ontwikkeling van AI is een politieke keuze. Het is geen technisch gesprek. Het is een gesprek over waarden.
Het gaat niet om de technologie
Het grootste misverstand in het publieke debat over AI-ethiek is dat de oplossing technisch is. Betere modellen. Eerlijkere trainingsdata. Sterkere privacyprotocols. Die dingen helpen, maar ze zijn niet genoeg.
De kern van het probleem is niet dat algoritmen imperfect zijn. Het is dat we onze waarden nooit expliciet hebben gemaakt. Wat vinden we eerlijk? Wie heeft recht op wat? Hoe verdelen we de lusten en lasten van automatisering? Die vragen bestonden al vóór AI. Maar de consequenties van het niet beantwoorden ervan worden groter naarmate systemen meer invloed krijgen.
Wat opvalt in het debat is de neiging om te wachten totdat het misgaat, en dan te zoeken naar wie er verantwoordelijk is. Dat is achteraf redeneren. De keuzes worden nu gemaakt, in de trainingsdata, in de ontwerpdocumenten, in de beslissing om een systeem wel of niet in te zetten. Daar is het gesprek over waarden nodig.
Jesse Burger
Schrijft over kunstmatige intelligentie, de impact op ons dagelijks leven, en de toekomst van technologie.