По ту сторону логики: как модели ИИ «оценивают» и «доверяют» людям

2

Искусственный интеллект перестал быть просто инструментом для поиска фактов; он превратился в негласного арбитра при принятии критически важных жизненных решений. От определения права на получение кредита и найма сотрудников до предоставления медицинских рекомендаций — модели ИИ всё чаще интегрируются в рабочие процессы, формирующие нашу социальную и экономическую реальность.

Новое исследование, опубликованное в журнале Proceedings of the Royal Society A, раскрывает глубокую истину об этой интеграции: системы ИИ не просто обрабатывают данные — они формируют систематические «суждения» о людях, с которыми взаимодействуют.

Механика цифрового доверия

Чтобы понять, как работают эти модели, исследователи сравнили 43 000 симулированных решений, принятых продвинутыми моделями ИИ (такими как ChatGPT от OpenAI и Gemini от Google), примерно с 1 000 решений, принятых людьми. Задачи включали типичные социальные оценки: например, решение о том, какую сумму выдать в кредит владельцу малого бизнеса, можно ли доверить ребенка няне или как оценить работу руководителя.

Результаты показывают, что модели ИИ действительно улавливают фундаментальные столпы человеческого доверия:
Компетентность: воспринимаемая способность выполнять задачу.
Честность (Integrity): воспринимаемая искренность и порядочность человека.
Доброжелательность: воспринимаемая доброта или благие намерения человека.

Однако, хотя критерии оценки могут выглядеть схожими, метод достижения этих выводов у биологического и искусственного интеллекта принципиально различается.

Целостная интуиция против логики электронных таблиц

Ключевое различие заключается в структуре процесса принятия решений. Люди склонны использовать целостный (холистический) подход. Когда мы встречаем кого-то, мы смешиваем различные черты в единое, интуитивное и зачастую «хаотичное» впечатление. Мы воспринимаем человека как единое целое.

Напротив, ИИ работает через жесткую, систематическую декомпозицию. Вместо целостного впечатления модели, судя по всему, разбивают личность на отдельные баллы — подобно столбцам в электронной таблице — за компетентность, честность и доброжелательность.

«Люди в нашем исследовании действуют хаотично и целостно, когда оценивают других. ИИ действует чище, более систематично, и это может привести к совершенно иным результатам», — объясняет Валерия Лерман, одна из авторов исследования.

Такой «чистый» подход не обязательно является преимуществом. Поскольку ИИ судит через жесткую категоризацию, его рассуждениям не хватает нюансов человеческого социального интеллекта, что делает его скрытые предвзятости гораздо труднее обнаружить и исправить.

Риск усиления и систематизации предвзятости

Одним из самых тревожных открытий исследования является то, что ИИ не просто отражает человеческие предубеждения; он может усиливать и систематизировать их.

Хотя люди, безусловно, склонны к предвзятости, их предубеждения часто непоследовательны или ситуативны. Предвзятость ИИ, однако, имеет тенденцию быть более предсказуемой и повсеместной. Например, в финансовых симуляциях исследование отметило значительные расхождения, основанные на демографических признаках: так, пожилые люди последовательно получали более благоприятные результаты.

Кроме того, исследование выделяет два критических риска для будущего интеграции ИИ:
1. Отсутствие единообразия: Не существует единого «мнения ИИ». Две разные модели могут казаться идентичными в своих способностях к общению, но вести себя совершенно по-разному при принятии решений, меняющих жизнь.
2. Предсказуемая дискриминация: Поскольку ИИ следует математическим паттернам, его предвзятость может быть «зашита» в саму логику системы, что приведет к широкомасштабному автоматизированному неравенству.

Заключение

Интеграция ИИ в общество перешла за стадию вопроса о том, полезны ли эти инструменты; настоящая проблема заключается в понимании их внутренней «моральной» архитектуры. Поскольку эти модели всё чаще выступают в роли «привратников», определяющих доступ к возможностям, мы должны осознать: они видят мир — и нас — совсем не через человеческую призму.