Sztuczna inteligencja nie jest już tylko narzędziem do wyszukiwania faktów; stał się niewypowiedzianym arbitrem kluczowych decyzji życiowych. Od określania kwalifikowalności pożyczki i zatrudniania pracowników po wydawanie zaleceń lekarskich – modele sztucznej inteligencji są coraz częściej integrowane z przepływami pracy, które kształtują naszą rzeczywistość społeczną i gospodarczą.
Nowe badania opublikowane w czasopiśmie Proceedings of the Royal Society A ujawniają głęboką prawdę o tej integracji: systemy sztucznej inteligencji nie tylko przetwarzają dane — dokonują systematycznych „osądów” na temat osób, z którymi wchodzą w interakcje.
Mechanika zaufania cyfrowego
Aby zrozumieć, jak działają te modele, badacze porównali 43 000 symulowanych decyzji podejmowanych przez zaawansowane modele sztucznej inteligencji (takie jak ChatGPT firmy OpenAI i Gemini firmy Google) z około 1000 decyzjami podejmowanymi przez ludzi. Zadania obejmowały typowe oceny społeczne: np. podjęcie decyzji, ile pożyczyć właścicielowi małej firmy, czy powierzyć dziecko niani, czy jak ocenić pracę dyrektora.
Wyniki pokazują, że modele sztucznej inteligencji rzeczywiście uwzględniają podstawowe filary ludzkiego zaufania:
– Kompetencja: postrzegana zdolność do wykonania zadania.
– Uczciwość: postrzegana szczerość i uczciwość osoby.
– Ugodowość: postrzegana życzliwość lub dobre intencje danej osoby.
Jednakże, chociaż kryteria oceny mogą wyglądać podobnie, metoda dochodzenia do tych wniosków jest zasadniczo różna w przypadku inteligencji biologicznej i sztucznej.
Holistyczna intuicja kontra logika arkusza kalkulacyjnego
Kluczową różnicą jest struktura procesu decyzyjnego. Ludzie zazwyczaj przyjmują podejście holistyczne. Kiedy kogoś poznajemy, łączymy różne cechy w jedno, intuicyjne i często „chaotyczne” wrażenie. Postrzegamy osobę jako jedną całość.
Natomiast sztuczna inteligencja działa poprzez sztywny, systematyczny rozkład. Zamiast tworzyć całościowe wrażenie, modele wydają się rozbijać osobowość na indywidualne wyniki – niczym kolumny w arkuszu kalkulacyjnym – pod kątem kompetencji, uczciwości i ugodowości.
„Osoby biorące udział w naszym badaniu postępują chaotycznie i całościowo, oceniając innych. Sztuczna inteligencja działa czyściej, bardziej systematycznie, a to może prowadzić do zupełnie innych wyników” – wyjaśnia Valeria Lerman, jedna z autorek badania.
To „czyste” podejście niekoniecznie jest zaletą. Ponieważ sztuczna inteligencja ocenia na podstawie sztywnej kategoryzacji, w jej rozumowaniu brakuje niuansów ludzkiej inteligencji społecznej, co sprawia, że jej ukryte uprzedzenia są znacznie trudniejsze do wykrycia i skorygowania.
Ryzyko wzmocnienia i usystematyzowania uprzedzeń
Jednym z najbardziej niepokojących wniosków badania jest to, że sztuczna inteligencja nie odzwierciedla tylko ludzkich uprzedzeń; może je wzmocnić i usystematyzować.
Chociaż ludzie są z pewnością podatni na uprzedzenia, ich uprzedzenia są często niespójne lub sytuacyjne. Jednak stronniczość AI jest zwykle bardziej przewidywalna i wszechobecna. Na przykład w symulacjach finansowych w badaniu zauważono znaczne rozbieżności ze względu na dane demograficzne, przy czym osoby starsze konsekwentnie uzyskiwały korzystniejsze wyniki.
Ponadto w badaniu wskazano na dwa krytyczne zagrożenia dla przyszłości integracji sztucznej inteligencji:
1. Brak spójności: Nie ma jednej „opini AI”. Dwa różne modele mogą wydawać się identyczne pod względem zdolności komunikacyjnych, ale zachowują się zupełnie inaczej przy podejmowaniu decyzji zmieniających życie.
2. Przewidywalna dyskryminacja: Ponieważ sztuczna inteligencja kieruje się wzorcami matematycznymi, jej stronniczość można na stałe wbudować w samą logikę systemu, co prowadzi do automatycznych nierówności na dużą skalę.
Wniosek
Integracja AI ze społeczeństwem wyszła poza etap kwestionowania przydatności tych narzędzi; prawdziwym problemem jest zrozumienie ich wewnętrznej architektury „moralnej”. Ponieważ modele te w coraz większym stopniu pełnią rolę strażników dostępu do możliwości, musimy zdać sobie sprawę, że nie postrzegają one świata – i nas – przez ludzki pryzmat.






























