Штучний інтелект більше не є просто інструментом для пошуку фактів; він став негласним арбітром критичних життєвих рішень. Моделі штучного інтелекту дедалі частіше інтегруються в робочі процеси, які формують нашу соціальну та економічну реальність, від визначення відповідності вимогам до позики та найму працівників до надання медичних рекомендацій.
Нове дослідження, опубліковане в журналі Proceedings of the Royal Society A, розкриває глибоку правду про цю інтеграцію: системи штучного інтелекту не просто обробляють дані — вони виносять систематичні «судження» про людей, з якими взаємодіють.
Механіка цифрової довіри
Щоб зрозуміти, як працюють ці моделі, дослідники порівняли 43 000 змодельованих рішень, прийнятих передовими моделями штучного інтелекту (такими як ChatGPT від OpenAI і Gemini від Google), із приблизно 1000 рішеннями, прийнятими людьми. Завдання включали типові соціальні оцінки: наприклад, вирішити, скільки позичити власнику малого бізнесу, чи довірити дитину няні або як оцінити роботу керівника.
Результати показують, що моделі штучного інтелекту справді охоплюють фундаментальні основи людської довіри:
– Компетенція: передбачувана здатність виконувати завдання.
– Чісність: уявна щирість і чесність людини.
– Привітність: уявна доброзичливість або добрі наміри людини.
Проте, незважаючи на те, що критерії оцінки можуть виглядати схожими, методи досягнення цих висновків принципово відрізняються між біологічним і штучним інтелектом.
Цілісна інтуїція проти логіки електронної таблиці
Ключова відмінність полягає в структурі процесу прийняття рішень. Люди схильні застосовувати цілісний підхід. Коли ми зустрічаємося з кимось, ми змішуємо різні риси в одне, інтуїтивне та часто «хаотичне» враження. Ми сприймаємо людину як єдине ціле.
Навпаки, ШІ працює за допомогою жорсткої, систематичної декомпозиції. Замість того, щоб створити цілісне враження, моделі, здається, розбивають особистість на окремі бали, як стовпці в електронній таблиці, за компетентність, чесність і приємність.
“Люди в нашому дослідженні діють хаотично і цілісно, коли оцінюють інших. ШІ діє чистіше, систематичніше, і це може призвести до зовсім інших результатів”, – пояснює Валерія Лерман, одна з авторів дослідження.
Цей «чистий» підхід не обов’язково є перевагою. Оскільки ШІ судить за допомогою жорсткої категоризації, у його міркуваннях відсутні нюанси людського соціального інтелекту, що робить його приховані упередження набагато важчими для виявлення та виправлення.
Ризик посилення та систематизації упередженості
Одним із найбільш тривожних висновків дослідження є те, що ШІ не просто відображає людські упередження; він може їх зміцнити і систематизувати.
Хоча люди, безперечно, схильні до упереджень, їхні упередження часто непослідовні або ситуативні. Однак упередження штучного інтелекту, як правило, більш передбачувані та поширені. Наприклад, у фінансовому моделюванні дослідження відзначило значні розбіжності на основі демографічних показників, коли літні люди постійно отримували більш сприятливі результати.
Крім того, дослідження підкреслює два критичні ризики для майбутньої інтеграції ШІ:
1. Відсутність узгодженості: Не існує єдиної «думки ШІ». Дві різні моделі можуть виглядати ідентичними за своїми комунікаційними здібностями, але поводитися дуже по-різному, коли приймають рішення, що змінюють життя.
2. Передбачувана дискримінація: Оскільки ШІ слідує математичним шаблонам, його упередження можуть бути вбудовані в саму логіку системи, що призводить до великомасштабної автоматизованої нерівності.
Висновок
Інтеграція штучного інтелекту в суспільство вийшла за рамки питання про те, чи корисні ці інструменти; справжньою проблемою є розуміння їхньої внутрішньої «моральної» архітектури. Оскільки ці моделі все більше виступають у ролі охоронців доступу до можливостей, ми повинні визнати, що вони не бачать світ — і нас — через призму людини.
