Kunstmatige intelligentie is niet langer slechts een hulpmiddel om feiten te achterhalen; het is een stille scheidsrechter geworden bij cruciale levensbeslissingen. Van het bepalen of u in aanmerking komt voor een lening en het aannemen van kandidaten tot het bieden van medische begeleiding: AI-modellen worden steeds meer geïntegreerd in de workflows die onze sociale en economische realiteit vormgeven.
Een nieuwe studie gepubliceerd in de Proceedings of the Royal Society A onthult een diepgaande waarheid over deze integratie: AI-systemen verwerken niet alleen gegevens – ze vormen systematische ‘oordelen’ over de mensen waarmee ze omgaan.
De werking van digitaal vertrouwen
Om te begrijpen hoe deze modellen werken, vergeleken onderzoekers 43.000 gesimuleerde beslissingen gemaakt door geavanceerde AI-modellen, zoals OpenAI’s ChatGPT en Google’s Gemini, met ongeveer 1.000 beslissingen genomen door mensen. De taken omvatten algemene sociale evaluaties, zoals beslissen hoeveel je een eigenaar van een klein bedrijf moet lenen, of je een oppas moet vertrouwen of hoe je een supervisor moet beoordelen.
De bevindingen suggereren dat AI-modellen inderdaad de fundamentele pijlers van menselijk vertrouwen begrijpen:
– Competentie: Het waargenomen vermogen om een taak uit te voeren.
– Integriteit: De waargenomen eerlijkheid van een individu.
– Welwillendheid: De waargenomen vriendelijkheid of goede bedoelingen van een persoon.
Hoewel de criteria voor beoordeling er misschien hetzelfde uitzien, verschilt de methode om tot die conclusies te komen fundamenteel tussen biologische en kunstmatige intelligentie.
Holistische intuïtie versus spreadsheetlogica
Het belangrijkste onderscheid ligt in de manier waarop het besluitvormingsproces is gestructureerd. Mensen hebben de neiging om een holistische benadering te gebruiken. Wanneer we iemand ontmoeten, combineren we verschillende eigenschappen tot één enkele, intuïtieve en vaak ‘rommelige’ indruk. Wij zien een mens als een complete entiteit.
AI werkt daarentegen via rigide, systematische decompositie. In plaats van een holistische indruk te geven, lijken de modellen individuen op te delen in afzonderlijke scores – net als kolommen in een spreadsheet – voor competentie, integriteit en vriendelijkheid.
“Mensen in ons onderzoek zijn rommelig en holistisch in de manier waarop ze anderen beoordelen. AI is schoner, systematischer en dat kan tot heel andere uitkomsten leiden”, legt Valeria Lerman, een van de auteurs van het onderzoek, uit.
Deze ‘schonere’ benadering hoeft niet noodzakelijkerwijs een voordeel te zijn. Omdat AI oordeelt via rigide categorisering, mist de redenering van de menselijke sociale intelligentie, waardoor de onderliggende vooroordelen veel moeilijker te detecteren en te corrigeren zijn.
Het risico van versterkte en systematische vooringenomenheid
Een van de meest zorgwekkende onthullingen uit het onderzoek is dat AI niet alleen menselijke vooroordelen weerspiegelt; het kan het versterken en systematiseren.
Hoewel mensen zeker vatbaar zijn voor vooroordelen, zijn hun vooroordelen vaak inconsistent of situationeel. Vooroordelen over AI zijn echter vaak voorspelbaarder en alomtegenwoordiger. Bij financiële simulaties constateerde de studie bijvoorbeeld aanzienlijke discrepanties op basis van demografische kenmerken, zoals oudere individuen die consequent gunstiger resultaten ontvingen.
Bovendien benadrukt de studie twee cruciale risico’s voor de toekomst van AI-integratie:
1. Gebrek aan uniformiteit: Er bestaat niet één ‘AI-mening’. Twee verschillende modellen lijken misschien identiek in hun gespreksvaardigheden, maar gedragen zich totaal verschillend bij het nemen van levensveranderende beslissingen.
2. Voorspelbare discriminatie: Omdat AI wiskundige patronen volgt, kunnen de vooroordelen ervan hard gecodeerd raken in de logica van het systeem, wat leidt tot wijdverbreide, geautomatiseerde ongelijkheid.
Conclusie
De integratie van AI in de samenleving is voorbij de vraag of deze instrumenten nuttig zijn; de echte uitdaging is het begrijpen van hun interne ‘morele’ architectuur. Nu deze modellen steeds meer fungeren als poortwachters voor kansen, moeten we erkennen dat ze de wereld – of ons – niet door een menselijke lens zien.






























