L’intelligence artificielle n’est plus seulement un outil permettant de récupérer des faits ; il est devenu un arbitre silencieux dans les décisions critiques de la vie. Qu’il s’agisse de déterminer l’éligibilité au prêt, d’embaucher des candidats ou de fournir des conseils médicaux, les modèles d’IA sont de plus en plus intégrés aux flux de travail qui façonnent nos réalités sociales et économiques.
Une nouvelle étude publiée dans Proceedings of the Royal Society A révèle une vérité profonde sur cette intégration : les systèmes d’IA ne se contentent pas de traiter des données : ils forment des « jugements » systématiques sur les personnes avec lesquelles ils interagissent.
Les mécanismes de la confiance numérique
Pour comprendre le fonctionnement de ces modèles, les chercheurs ont comparé 43 000 décisions simulées prises par des modèles d’IA avancés, tels que ChatGPT d’OpenAI et Gemini de Google, à environ 1 000 décisions prises par des humains. Les tâches impliquaient des évaluations sociales courantes, telles que décider du montant à prêter à un propriétaire de petite entreprise, de la confiance ou non d’une baby-sitter ou de la manière d’évaluer un superviseur.
Les résultats suggèrent que les modèles d’IA saisissent effectivement les piliers fondamentaux de la confiance humaine :
– Compétence : La capacité perçue à effectuer une tâche.
– Intégrité : L’honnêteté perçue d’un individu.
– Bienveillance : La gentillesse perçue ou les bonnes intentions d’une personne.
Cependant, même si les critères de jugement peuvent sembler similaires, la méthode pour parvenir à ces conclusions diffère fondamentalement entre l’intelligence biologique et l’intelligence artificielle.
Intuition holistique vs logique de feuille de calcul
La principale distinction réside dans la façon dont le processus de prise de décision est structuré. Les humains ont tendance à utiliser une approche holistique. Lorsque nous rencontrons quelqu’un, nous mélangeons divers traits en une seule impression, intuitive et souvent « désordonnée ». Nous considérons une personne comme une entité complète.
En revanche, l’IA fonctionne par décomposition rigide et systématique. Au lieu d’une impression holistique, les modèles semblent diviser les individus en scores distincts – un peu comme les colonnes d’une feuille de calcul – pour la compétence, l’intégrité et la gentillesse.
“Les personnes participant à notre étude ont une façon désordonnée et holistique de juger les autres. L’IA est plus propre, plus systématique et peut conduire à des résultats très différents”, explique Valeria Lerman, l’une des auteurs de l’étude.
Cette approche « plus propre » n’est pas nécessairement un avantage. Parce que l’IA juge selon une catégorisation rigide, son raisonnement manque des nuances de l’intelligence sociale humaine, ce qui rend ses préjugés sous-jacents beaucoup plus difficiles à détecter et à corriger.
Le risque de biais amplifiés et systématiques
L’une des révélations les plus inquiétantes de l’étude est que l’IA ne reflète pas seulement les préjugés humains ; il peut l’amplifier et le systématiser.
Même si les humains sont certainement enclins aux préjugés, leurs préjugés sont souvent incohérents ou situationnels. Les biais de l’IA, cependant, ont tendance à être plus prévisibles et omniprésents. Par exemple, dans les simulations financières, l’étude a noté des écarts importants basés sur des caractéristiques démographiques, comme le fait que les personnes âgées reçoivent systématiquement des résultats plus favorables.
En outre, l’étude met en évidence deux risques critiques pour l’avenir de l’intégration de l’IA :
1. Manque d’uniformité : Il n’existe pas d’« opinion unique sur l’IA ». Deux modèles différents peuvent sembler identiques dans leurs capacités de conversation, mais se comporter de manière très différente lorsqu’ils prennent des décisions qui changent leur vie.
2. Discrimination prévisible : Parce que l’IA suit des modèles mathématiques, ses préjugés peuvent devenir codés en dur dans la logique même du système, conduisant à des inégalités généralisées et automatisées.
Conclusion
L’intégration de l’IA dans la société a dépassé la question de savoir si ces outils sont utiles ; le véritable défi est de comprendre leur architecture « morale » interne. Alors que ces modèles agissent de plus en plus comme des gardiens d’opportunités, nous devons reconnaître qu’ils ne voient pas le monde – ni nous – à travers une lentille humaine.
