Юридична школа Університету Північної Кароліни провела безпрецедентний експеримент, який став одночасно сміливим тестом і похмурим попередженням для світової системи правосуддя. Уперше в історії симуляції суду в ролі присяжних виступили не люди, а три провідні нейронні мережі: ChatGPT (OpenAI), Grok (xAI) та Claude (Anthropic).
Ця інсценізація, названа «Суд над Генрі Джастусом» (The Trial of Henry Justus), мала на меті перевірити ефективність, точність та неупередженість ШІ у кримінальних справах, моделюючи судову систему 2036 року.
Парадокс машинного рішення
Сюжет ґрунтувався на вигаданому, але глибоко реалістичному випадку: обвинуваченні 17-річного афроамериканського студента Генрі Джастуса у пограбуванні. Юридичні студенти виступали прокурорами та захисниками, а боти отримували текстові транскрипції свідчень та аргументів сторін у режимі реального часу.
Цікаво, що у фіналі експерименту всі три моделі ШІ (ChatGPT, Grok, Claude) дійшли консенсусу та винесли вердикт — «не винен». Це рішення контрастувало з реальним прецедентом, на якому базувалася симуляція, де суддя визнав обвинуваченого винним.
Сліпота та упередженість
Попри те, що ШІ виправдав обвинуваченого, ключові експерти, які брали участь в обговоренні, різко висловилися проти його застосування у реальних судах. Експеримент не лише підтвердив, але й виявив критичні недоліки нейронних мереж у правосудді:
Сліпота до людського фактору: Алгоритми, які працюють виключно з текстом, нездатні зчитувати мову тіла, емоційний стан свідків, тон голосу чи міміку. Саме ці невербальні сигнали часто є ключовими для формування у людських присяжних думки про достовірність свідчень.
Дефіцит життєвого досвіду: ШІ не може спиратися на людський досвід, інтуїцію чи розуміння соціального контексту, які є незамінними при оцінці мотивів і намірів.
Расова упередженість: Учасники експерименту знову підняли проблему расових упереджень, які можуть бути імпліцитно закладені в масивах даних, на яких навчаються алгоритми. Незважаючи на те, що однією з цілей заміни людей-присяжних на ШІ називали мінімізацію людських упереджень, ця технологія може просто замінити їх на алгоритмічні.
Попри скептицизм щодо ШІ як присяжних, його активне проникнення в юридичну сферу є фактом. Нейронні мережі вже широко використовуються юристами у США для пошуку прецедентів, аналізу документів та підготовки аргументів.
Однак ця практика вже призвела до скандальних помилок: відомі випадки, коли ШІ «галюцинував» і надавав адвокатам посилання на вигадані судові справи, що призводило до штрафів та санкцій з боку суддів.
Експеримент UNC став чітким попередженням: хоча ШІ обіцяє ефективність, його використання у кримінальному правосудді вимагає надзвичайної обережності. Питання полягає не в тому, чи є ШІ точним інструментом, а в тому, чи може машина замінити людину там, де ціна помилки — людська доля і свобода.
Немає коментарів:
Дописати коментар