Além da lógica: como os modelos de IA “julgam” e “confiam” nos humanos

11

A inteligência artificial não é mais apenas uma ferramenta para recuperar fatos; tornou-se um árbitro silencioso nas decisões críticas da vida. Desde a determinação da elegibilidade para empréstimos e a contratação de candidatos até ao fornecimento de orientação médica, os modelos de IA estão cada vez mais integrados nos fluxos de trabalho que moldam as nossas realidades sociais e económicas.

Um novo estudo publicado no Proceedings of the Royal Society A revela uma verdade profunda sobre esta integração: os sistemas de IA não apenas processam dados – eles formam “julgamentos” sistemáticos sobre as pessoas com quem interagem.

A Mecânica da Confiança Digital

Para entender como esses modelos funcionam, os pesquisadores compararam 43.000 decisões simuladas tomadas por modelos avançados de IA, como o ChatGPT da OpenAI e o Gemini do Google, com cerca de 1.000 decisões tomadas por humanos. As tarefas envolviam avaliações sociais comuns, como decidir quanto emprestar a um pequeno empresário, se confiar numa babá ou como avaliar um supervisor.

As descobertas sugerem que os modelos de IA realmente compreendem os pilares fundamentais da confiança humana:
Competência: A capacidade percebida para executar uma tarefa.
Integridade: A honestidade percebida de um indivíduo.
Benevolência: A bondade percebida ou boas intenções de uma pessoa.

No entanto, embora os critérios de julgamento possam parecer semelhantes, o método para chegar a essas conclusões difere fundamentalmente entre a inteligência biológica e a artificial.

Intuição Holística vs. Lógica de Planilha

A principal distinção reside na forma como o processo de tomada de decisão é estruturado. Os humanos tendem a usar uma abordagem holística. Quando conhecemos alguém, combinamos vários traços em uma impressão única, intuitiva e muitas vezes “confusa”. Vemos uma pessoa como uma entidade completa.

Em contraste, a IA opera por meio de decomposição rígida e sistemática. Em vez de uma impressão holística, os modelos parecem dividir os indivíduos em pontuações distintas – tal como colunas numa folha de cálculo – em termos de competência, integridade e gentileza.

“As pessoas no nosso estudo são confusas e holísticas na forma como julgam os outros. A IA é mais limpa, mais sistemática e pode levar a resultados muito diferentes”, explica Valeria Lerman, uma das autoras do estudo.

Esta abordagem “mais limpa” não é necessariamente um benefício. Como a IA julga através de uma categorização rígida, o seu raciocínio carece das nuances da inteligência social humana, tornando os seus preconceitos subjacentes muito mais difíceis de detectar e corrigir.

O risco de viés amplificado e sistemático

Uma das revelações mais preocupantes do estudo é que a IA não reflete apenas o preconceito humano; pode amplificá-lo e sistematizá-lo.

Embora os humanos sejam certamente propensos ao preconceito, os seus preconceitos são muitas vezes inconsistentes ou situacionais. Os preconceitos da IA, no entanto, tendem a ser mais previsíveis e difundidos. Por exemplo, em simulações financeiras, o estudo observou discrepâncias significativas baseadas em características demográficas, tais como indivíduos mais velhos recebendo consistentemente resultados mais favoráveis.

Além disso, o estudo destaca dois riscos críticos para o futuro da integração da IA:
1. Falta de uniformidade: Não existe uma única “opinião de IA”. Dois modelos diferentes podem parecer idênticos nas suas capacidades de conversação, mas comportam-se de formas totalmente diferentes ao tomar decisões que alteram a vida.
2. Discriminação Previsível: Como a IA segue padrões matemáticos, os seus preconceitos podem tornar-se codificados na própria lógica do sistema, levando a uma desigualdade generalizada e automatizada.

Conclusão

A integração da IA na sociedade ultrapassou a questão de saber se estas ferramentas são úteis; o verdadeiro desafio é compreender a sua arquitectura “moral” interna. À medida que estes modelos actuam cada vez mais como guardiões das oportunidades, temos de reconhecer que eles não vêem o mundo — ou a nós — através de lentes humanas.