Jenseits der Logik: Wie KI-Modelle Menschen „beurteilen“ und ihnen „vertrauen“.

7

Künstliche Intelligenz ist nicht mehr nur ein Werkzeug zum Abrufen von Fakten; Es ist zu einem stillen Schiedsrichter bei kritischen Lebensentscheidungen geworden. Von der Feststellung der Kreditwürdigkeit über die Einstellung von Kandidaten bis hin zur Bereitstellung medizinischer Beratung werden KI-Modelle zunehmend in die Arbeitsabläufe integriert, die unsere sozialen und wirtschaftlichen Realitäten prägen.

Eine neue Studie, die in den Proceedings of the Royal Society A veröffentlicht wurde, enthüllt eine tiefgreifende Wahrheit über diese Integration: KI-Systeme verarbeiten nicht nur Daten – sie bilden systematische „Urteile“ über die Menschen, mit denen sie interagieren.

Die Mechanismen des digitalen Vertrauens

Um zu verstehen, wie diese Modelle funktionieren, verglichen die Forscher 43.000 simulierte Entscheidungen, die von fortschrittlichen KI-Modellen wie ChatGPT von OpenAI und Gemini von Google getroffen wurden, mit etwa 1.000 von Menschen getroffenen Entscheidungen. Zu den Aufgaben gehörten gängige soziale Beurteilungen, etwa die Entscheidung, wie viel man einem Kleinunternehmer leiht, ob man einem Babysitter vertraut oder wie man einen Vorgesetzten bewertet.

Die Ergebnisse deuten darauf hin, dass KI-Modelle tatsächlich die Grundpfeiler des menschlichen Vertrauens erfassen:
Kompetenz: Die wahrgenommene Fähigkeit, eine Aufgabe auszuführen.
Integrität: Die wahrgenommene Ehrlichkeit einer Person.
Wohlwollen: Die wahrgenommene Freundlichkeit oder gute Absichten einer Person.

Obwohl die Kriterien für die Beurteilung ähnlich aussehen mögen, unterscheidet sich die Methode, mit der zu diesen Schlussfolgerungen gelangt wird, zwischen biologischer und künstlicher Intelligenz grundlegend.

Ganzheitliche Intuition vs. Tabellenkalkulationslogik

Der Hauptunterschied liegt in der Struktur des Entscheidungsprozesses. Menschen neigen dazu, einen ganzheitlichen Ansatz zu verfolgen. Wenn wir jemanden treffen, vermischen wir verschiedene Eigenschaften zu einem einzigen, intuitiven und oft „chaotischen“ Eindruck. Wir betrachten den Menschen als eine vollständige Einheit.

Im Gegensatz dazu funktioniert KI durch starre, systematische Zerlegung. Anstelle eines ganzheitlichen Eindrucks scheinen die Modelle Einzelpersonen in diskrete Bewertungen – ähnlich wie Spalten in einer Tabellenkalkulation – für Kompetenz, Integrität und Freundlichkeit aufzuschlüsseln.

„Die Menschen in unserer Studie beurteilen andere chaotisch und ganzheitlich. KI ist sauberer, systematischer und das kann zu sehr unterschiedlichen Ergebnissen führen“, erklärt Valeria Lerman, eine der Autorinnen der Studie.

Dieser „sauberere“ Ansatz ist nicht unbedingt ein Vorteil. Da die KI auf der Grundlage strenger Kategorisierungen urteilt, mangelt es ihrer Argumentation an den Nuancen der menschlichen sozialen Intelligenz, wodurch die zugrunde liegenden Vorurteile viel schwieriger zu erkennen und zu korrigieren sind.

Das Risiko einer verstärkten und systematischen Verzerrung

Eine der besorgniserregendsten Erkenntnisse der Studie ist, dass KI nicht nur menschliche Vorurteile widerspiegelt; es kann es verstärken und systematisieren.

Obwohl Menschen sicherlich zu Vorurteilen neigen, sind ihre Vorurteile oft inkonsistent oder situativ. KI-Vorurteile sind jedoch tendenziell vorhersehbarer und allgegenwärtiger. Beispielsweise stellte die Studie in Finanzsimulationen erhebliche Diskrepanzen fest, die auf demografischen Merkmalen beruhten, beispielsweise dass ältere Menschen durchweg günstigere Ergebnisse erzielten.

Darüber hinaus zeigt die Studie zwei kritische Risiken für die Zukunft der KI-Integration auf:
1. Mangelnde Einheitlichkeit: Es gibt keine einheitliche „KI-Meinung“. Zwei unterschiedliche Modelle mögen hinsichtlich ihrer Konversationsfähigkeiten identisch erscheinen, verhalten sich jedoch völlig unterschiedlich, wenn sie lebensverändernde Entscheidungen treffen.
2. Vorhersehbare Diskriminierung: Da KI mathematischen Mustern folgt, können ihre Vorurteile in der Logik des Systems fest verankert werden, was zu weit verbreiteter, automatisierter Ungleichheit führt.

Fazit

Die Integration der KI in die Gesellschaft geht über die Frage hinaus, ob diese Werkzeuge nützlich sind. Die eigentliche Herausforderung besteht darin, ihre interne „moralische“ Architektur zu verstehen. Da diese Modelle zunehmend als Torwächter von Chancen fungieren, müssen wir erkennen, dass sie die Welt – oder uns – nicht durch eine menschliche Linse sehen.