Oltre la logica: come l’intelligenza artificiale modella gli esseri umani “giudicanti” e “fidati”.

6

L’intelligenza artificiale non è più solo uno strumento per recuperare fatti; è diventato un arbitro silenzioso nelle decisioni critiche della vita. Dalla determinazione dell’idoneità al prestito e dall’assunzione dei candidati alla fornitura di consulenza medica, i modelli di intelligenza artificiale sono sempre più integrati nei flussi di lavoro che modellano le nostre realtà sociali ed economiche.

Un nuovo studio pubblicato negli Proceedings of the Royal Society A rivela una profonda verità su questa integrazione: i sistemi di intelligenza artificiale non si limitano a elaborare i dati, ma formano “giudizi” sistematici sulle persone con cui interagiscono.

I meccanismi della fiducia digitale

Per comprendere come funzionano questi modelli, i ricercatori hanno confrontato 43.000 decisioni simulate prese da modelli di intelligenza artificiale avanzati, come ChatGPT di OpenAI e Gemini di Google, con circa 1.000 decisioni prese da esseri umani. I compiti prevedevano valutazioni sociali comuni, come decidere quanto prestare a un piccolo imprenditore, se fidarsi di una babysitter o come valutare un supervisore.

I risultati suggeriscono che i modelli di intelligenza artificiale colgono effettivamente i pilastri fondamentali della fiducia umana:
Competenza: la capacità percepita di eseguire un compito.
Integrità: l’onestà percepita di un individuo.
Benevolenza: la gentilezza percepita o le buone intenzioni di una persona.

Tuttavia, mentre i criteri di giudizio possono sembrare simili, il metodo per raggiungere tali conclusioni differisce fondamentalmente tra l’intelligenza biologica e quella artificiale.

Intuizione olistica e logica del foglio di calcolo

La distinzione fondamentale risiede nel modo in cui è strutturato il processo decisionale. Gli esseri umani tendono a utilizzare un approccio olistico. Quando incontriamo qualcuno, fondiamo vari tratti in un’unica impressione intuitiva e spesso “disordinata”. Vediamo una persona come un’entità completa.

Al contrario, l’intelligenza artificiale opera attraverso una decomposizione rigida e sistematica. Invece di dare un’impressione olistica, i modelli sembrano suddividere gli individui in punteggi discreti – proprio come colonne in un foglio di calcolo – per competenza, integrità e gentilezza.

“Le persone nel nostro studio sono disordinate e olistiche nel modo in cui giudicano gli altri. L’intelligenza artificiale è più pulita, più sistematica e può portare a risultati molto diversi”, spiega Valeria Lerman, una degli autori dello studio.

Questo approccio “più pulito” non è necessariamente un vantaggio. Poiché l’intelligenza artificiale giudica attraverso una rigida categorizzazione, il suo ragionamento non ha le sfumature dell’intelligenza sociale umana, rendendo i suoi pregiudizi sottostanti molto più difficili da individuare e correggere.

Il rischio di pregiudizi amplificati e sistematici

Una delle rivelazioni più preoccupanti dello studio è che l’intelligenza artificiale non si limita a rispecchiare i pregiudizi umani; può amplificarlo e sistematizzarlo.

Sebbene gli esseri umani siano certamente inclini al pregiudizio, i loro pregiudizi sono spesso incoerenti o situazionali. I pregiudizi dell’intelligenza artificiale, tuttavia, tendono a essere più prevedibili e pervasivi. Ad esempio, nelle simulazioni finanziarie, lo studio ha rilevato discrepanze significative basate sui tratti demografici, come ad esempio il fatto che gli individui più anziani ricevono costantemente risultati più favorevoli.

Inoltre, lo studio evidenzia due rischi critici per il futuro dell’integrazione dell’IA:
1. Mancanza di uniformità: non esiste un’unica “opinione dell’IA”. Due modelli diversi potrebbero sembrare identici nelle loro capacità di conversazione ma comportarsi in modi molto diversi quando prendono decisioni che cambiano la vita.
2. Discriminazione prevedibile: poiché l’intelligenza artificiale segue schemi matematici, i suoi pregiudizi possono diventare codificati nella logica stessa del sistema, portando a una disuguaglianza diffusa e automatizzata.

Conclusione

L’integrazione dell’intelligenza artificiale nella società ha superato la questione se questi strumenti siano utili; la vera sfida è comprendere la loro architettura “morale” interna. Poiché questi modelli agiscono sempre più come guardiani delle opportunità, dobbiamo riconoscere che non vedono il mondo – o noi – attraverso una lente umana.