Umělá inteligence již není jen nástrojem pro zjišťování faktů; stal se nevysloveným arbitrem kritických životních rozhodnutí. Modely umělé inteligence jsou stále častěji integrovány do pracovních postupů, které utvářejí naši sociální a ekonomickou realitu, od stanovení způsobilosti k půjčce a najímání zaměstnanců až po poskytování lékařských doporučení.
Nový výzkum publikovaný v časopise Proceedings of the Royal Society A odhaluje hlubokou pravdu o této integraci: systémy umělé inteligence nezpracovávají pouze data – dělají systematické “úsudky” o lidech, se kterými komunikují.
Mechanika digitální důvěry
Aby vědci pochopili, jak tyto modely fungují, porovnali 43 000 simulovaných rozhodnutí učiněných pokročilými modely umělé inteligence (jako je ChatGPT od OpenAI a Gemini od Googlu) s přibližně 1 000 rozhodnutími učiněnými lidmi. Mezi úkoly patřilo typické sociální hodnocení: například rozhodování, kolik půjčit drobnému živnostníkovi, zda svěřit dítě chůvě nebo jak hodnotit výkon jednatele.
Výsledky ukazují, že modely umělé inteligence skutečně zachycují základní pilíře lidské důvěry:
– Kompetence: vnímaná schopnost provést úkol.
– Integrita: vnímaná upřímnost a integrita člověka.
– Příjemnost: vnímaná laskavost nebo dobré úmysly osoby.
I když kritéria hodnocení mohou vypadat podobně, způsob k dosažení těchto závěrů se mezi biologickou a umělou inteligencí zásadně liší.
Holistická intuice vs. tabulková logika
Klíčovým rozdílem je struktura rozhodovacího procesu. Lidé mají tendenci zaujmout holistický přístup. Když někoho potkáme, spojíme různé rysy do jediného, intuitivního a často „chaotického“ dojmu. Člověka vnímáme jako jeden celek.
Naproti tomu AI funguje prostřednictvím tuhého, systematického rozkladu. Namísto vytváření holistického dojmu se zdá, že modely rozdělují osobnost na jednotlivá skóre – jako sloupce v tabulce – pro kompetence, poctivost a příjemnost.
“Lidé v naší studii jednají chaoticky a holisticky, když hodnotí ostatní. AI působí čistěji, systematičtěji, a to může vést ke zcela odlišným výsledkům,” vysvětluje Valeria Lerman, jedna z autorek studie.
Tento „čistý“ přístup není nutně výhodou. Protože umělá inteligence posuzuje podle rigidní kategorizace, její uvažování postrádá nuance lidské sociální inteligence, takže je mnohem obtížnější odhalit a napravit její skryté předsudky.
Riziko posilování a systematizace zaujatosti
Jedním z nejvíce znepokojujících zjištění studie je, že umělá inteligence neodráží pouze lidské předsudky; umí je posílit a systematizovat.
I když jsou lidé jistě náchylní k předpojatosti, jejich předsudky jsou často nekonzistentní nebo situační. Zaujatost AI však bývá více předvídatelná a všudypřítomná. Například ve finančních simulacích studie zaznamenala významné nesrovnalosti na základě demografie, přičemž starší dospělí trvale dostávali příznivější výsledky.
Studie navíc zdůrazňuje dvě kritická rizika pro budoucnost integrace AI:
1. Nedostatek konzistentnosti: Neexistuje jediný „názor AI“. Dva různé modely se mohou jevit jako identické ve svých komunikačních schopnostech, ale při rozhodování, které změní život, se chovají velmi odlišně.
2. Předvídatelná diskriminace: Protože umělá inteligence sleduje matematické vzorce, její zkreslení může být pevně začleněno do samotné logiky systému, což vede k rozsáhlé automatizované nerovnosti.
Závěr
Integrace umělé inteligence do společnosti přesáhla fázi pochybností, zda jsou tyto nástroje užitečné; skutečným problémem je pochopení jejich vnitřní „morální“ architektury. Protože tyto modely stále více fungují jako strážci přístupu k příležitostem, musíme si uvědomit, že nevidí svět – a nás – lidskou optikou.
