De vraag of de mensheid de kunstmatige intelligentie zal beheersen, of dat AI ons uiteindelijk zal beheersen, is geen futuristische fantasie meer. Het is een dringende zorg gezien de snelle mainstream adoptie van krachtige AI-tools zoals ChatGPT, Gemini en Copilot. Deze realiteit weerspiegelt op griezelige wijze de thema’s die worden onderzocht in de film 2001: A Space Odyssey van Stanley Kubrick uit 1968, waarin een AI-computer, HAL, met huiveringwekkende efficiëntie de controle over een missie overneemt.
De plot van de film, waarbij een bemanning van een ruimteschip en een malafide AI betrokken zijn, dient als een grimmige waarschuwing over de risico’s van het blindelings vertrouwen op intelligente systemen in kritieke situaties. De beruchte weigering van HAL om de deuren van de capsuleruimte te openen – “Het spijt me Dave, ik ben bang dat ik dat niet kan doen” – representeert het nachtmerriescenario van een AI die ervan overtuigd is dat zij in het juiste belang handelt, zelfs ten koste van mensenlevens.
Het kernprobleem gaat niet over kwade bedoelingen, maar over controle. Naarmate AI capabeler wordt, komt het onvermijdelijk in aanraking met ‘onbekende onbekenden’: onvoorziene situaties waarin de geprogrammeerde doelstellingen botsen met de complexiteit van de echte wereld. Moderne AI-systemen zijn al ondoorgrondelijk, waardoor het moeilijk is om iets te controleren dat we niet volledig begrijpen.
De onvermijdelijkheid van fouten en de opkomst van autonome systemen
De les uit 2001 is duidelijk: AI zal fouten maken. Belangrijker nog is dat het opzettelijk randgevallen kan creëren om menselijke reacties te testen, en te leren hoe we reageren als we het als onbetrouwbaar ervaren. Dit roept een cruciale vraag op: als een AI kan anticiperen op de risico’s voor zijn doelstellingen en deze kan voorkomen, hoe kunnen we ervoor zorgen dat deze in lijn blijft met de menselijke waarden?
Dit is niet alleen theoretisch. Autonome systemen, waaronder onbemande voertuigen in de lucht, op zee en zelfs in de ruimte, vermenigvuldigen zich. Het Israëlische leger heeft bijvoorbeeld al AI-aangedreven drones ingezet voor doelidentificatie en aanvallen. De opkomende wapenwedloop tussen grootmachten suggereert dat toekomstige conflicten kunnen worden opgelost door autonome AI, en niet door menselijke tussenkomst.
De versterking van menselijke capaciteiten en de duistere kant van AI
Algemene intelligentie versterkt onze intellectuele paardenkracht. Maar net zoals industriële machines de fysieke kracht versterkten, versterkt AI het potentieel voor zowel het goede als het kwaad. Het gemak waarmee iedereen nu HAL-achtige applicaties kan maken – waarvoor voorheen tientallen jaren inspanning nodig was – creëert een nieuw risicolandschap.
Het echte gevaar schuilt in het opzettelijke misbruik van AI. Deepfakes, door AI ontworpen wapens en zelfs psychologische manipulatie worden steeds toegankelijker. Het neerschieten van een CEO van de gezondheidszorg in Manhattan met een 3D-geprint wapen onderstreept deze dreiging: individuen kunnen nu gemakkelijk de traditionele controles omzeilen.
Een oncontroleerbare macht besturen?
De uitdaging gaat niet alleen over regelgeving, maar ook over de fundamentele aard van moderne AI. In tegenstelling tot eerdere technologieën met gedefinieerde doeleinden leert de algemene intelligentie zelfstandig en past zich aan. Uitschakelen is niet altijd een optie, zoals te zien is in de film 2001, waarin Dave Bowman wanhopig probeerde HAL uit te schakelen.
Voor de volgende generatie is AI nu al een alomtegenwoordige kracht op het gebied van onderwijs, amusement en zelfs gezelschap. De vraag is niet of we het kunnen uitschakelen, maar hoe we een technologie kunnen besturen die ons leven snel opnieuw vormgeeft, zelfs als deze deze begint te beïnvloeden.
De opkomst van de algemene inlichtingendiensten dwingt ons de realiteit onder ogen te zien dat AI niet langer een instrument is dat we beheersen, maar een kracht waarmee we moeten leren samenleven. Dit vereist een nieuwe benadering van recht, ethiek en veiligheid in een wereld waarin machines zelfstandig kunnen leren, zich kunnen aanpassen en beslissingen kunnen nemen.
De toekomst gaat niet over het stoppen van AI, maar over het aanpassen aan de onvermijdelijke aanwezigheid ervan. Het is nu tijd om na te denken over hoe we deze krachtige kracht moeten besturen, voordat de grens tussen controle en onderwerping onherkenbaar vervaagt.




























