Poza logiką: jak modele AI „oceniają” i „ufają” ludziom

4

Sztuczna inteligencja nie jest już tylko narzędziem do wyszukiwania faktów; stał się niewypowiedzianym arbitrem kluczowych decyzji życiowych. Od określania kwalifikowalności pożyczki i zatrudniania pracowników po wydawanie zaleceń lekarskich – modele sztucznej inteligencji są coraz częściej integrowane z przepływami pracy, które kształtują naszą rzeczywistość społeczną i gospodarczą.

Nowe badania opublikowane w czasopiśmie Proceedings of the Royal Society A ujawniają głęboką prawdę o tej integracji: systemy sztucznej inteligencji nie tylko przetwarzają dane — dokonują systematycznych „osądów” na temat osób, z którymi wchodzą w interakcje.

Mechanika zaufania cyfrowego

Aby zrozumieć, jak działają te modele, badacze porównali 43 000 symulowanych decyzji podejmowanych przez zaawansowane modele sztucznej inteligencji (takie jak ChatGPT firmy OpenAI i Gemini firmy Google) z około 1000 decyzjami podejmowanymi przez ludzi. Zadania obejmowały typowe oceny społeczne: np. podjęcie decyzji, ile pożyczyć właścicielowi małej firmy, czy powierzyć dziecko niani, czy jak ocenić pracę dyrektora.

Wyniki pokazują, że modele sztucznej inteligencji rzeczywiście uwzględniają podstawowe filary ludzkiego zaufania:
Kompetencja: postrzegana zdolność do wykonania zadania.
Uczciwość: postrzegana szczerość i uczciwość osoby.
Ugodowość: postrzegana życzliwość lub dobre intencje danej osoby.

Jednakże, chociaż kryteria oceny mogą wyglądać podobnie, metoda dochodzenia do tych wniosków jest zasadniczo różna w przypadku inteligencji biologicznej i sztucznej.

Holistyczna intuicja kontra logika arkusza kalkulacyjnego

Kluczową różnicą jest struktura procesu decyzyjnego. Ludzie zazwyczaj przyjmują podejście holistyczne. Kiedy kogoś poznajemy, łączymy różne cechy w jedno, intuicyjne i często „chaotyczne” wrażenie. Postrzegamy osobę jako jedną całość.

Natomiast sztuczna inteligencja działa poprzez sztywny, systematyczny rozkład. Zamiast tworzyć całościowe wrażenie, modele wydają się rozbijać osobowość na indywidualne wyniki – niczym kolumny w arkuszu kalkulacyjnym – pod kątem kompetencji, uczciwości i ugodowości.

„Osoby biorące udział w naszym badaniu postępują chaotycznie i całościowo, oceniając innych. Sztuczna inteligencja działa czyściej, bardziej systematycznie, a to może prowadzić do zupełnie innych wyników” – wyjaśnia Valeria Lerman, jedna z autorek badania.

To „czyste” podejście niekoniecznie jest zaletą. Ponieważ sztuczna inteligencja ocenia na podstawie sztywnej kategoryzacji, w jej rozumowaniu brakuje niuansów ludzkiej inteligencji społecznej, co sprawia, że ​​jej ukryte uprzedzenia są znacznie trudniejsze do wykrycia i skorygowania.

Ryzyko wzmocnienia i usystematyzowania uprzedzeń

Jednym z najbardziej niepokojących wniosków badania jest to, że sztuczna inteligencja nie odzwierciedla tylko ludzkich uprzedzeń; może je wzmocnić i usystematyzować.

Chociaż ludzie są z pewnością podatni na uprzedzenia, ich uprzedzenia są często niespójne lub sytuacyjne. Jednak stronniczość AI jest zwykle bardziej przewidywalna i wszechobecna. Na przykład w symulacjach finansowych w badaniu zauważono znaczne rozbieżności ze względu na dane demograficzne, przy czym osoby starsze konsekwentnie uzyskiwały korzystniejsze wyniki.

Ponadto w badaniu wskazano na dwa krytyczne zagrożenia dla przyszłości integracji sztucznej inteligencji:
1. Brak spójności: Nie ma jednej „opini AI”. Dwa różne modele mogą wydawać się identyczne pod względem zdolności komunikacyjnych, ale zachowują się zupełnie inaczej przy podejmowaniu decyzji zmieniających życie.
2. Przewidywalna dyskryminacja: Ponieważ sztuczna inteligencja kieruje się wzorcami matematycznymi, jej stronniczość można na stałe wbudować w samą logikę systemu, co prowadzi do automatycznych nierówności na dużą skalę.

Wniosek

Integracja AI ze społeczeństwem wyszła poza etap kwestionowania przydatności tych narzędzi; prawdziwym problemem jest zrozumienie ich wewnętrznej architektury „moralnej”. Ponieważ modele te w coraz większym stopniu pełnią rolę strażników dostępu do możliwości, musimy zdać sobie sprawę, że nie postrzegają one świata – i nas – przez ludzki pryzmat.