ШІ почав перевіряти людей: як технологія виявляє приховані упередження

ШІ почав перевіряти людей: як технологія виявляє приховані упередження

Інструмент використовує нейромережі не для генерації результатів, а для перевірки самої людини

Дослідники з Корнелльського університету розробили інноваційний інструмент на базі штучного інтелекту, який не приймає рішення за людину, а навпаки - аналізує її вибір на наявність прихованих упереджень та логічних суперечностей.

Про це повідомляє РБК-Україна з посиланням на наукове дослідження, опубліковане в ACM Digital Library.

Більше цікавого: ШІ може "підігрувати" владі: вчені зафіксували проблему у 37 країнах

Проблема суб'єктивності

Розробка розпочалася у лабораторії Ейба Девіса, асистента професора комп'ютерних наук Чао Чжана. Дослідник зіткнувся з проблемою оцінювання сотень творчих проєктів своїх студентів. Попри чіткі критерії, асистенти часто демонстрували різні стандарти оцінювання.

"Використання технологій для того, щоб вони приймали рішення за нас, часто є ризикованим. Ми використовуємо технології, щоб допомогти собі приймати кращі рішення", - пояснює Девіс.

"Основна ідея базується на тому, що люди значно краще справляються з прямим порівнянням двох варіантів, ніж із суб’єктивною оцінкою за шкалою від 1 до 10. ШІ ж використовує цей принцип, щоб вибудувати ідеальну ієрархію вибору", - додає дослідник.

Як працює алгоритм "перевірки" людини?

Процес складається з декількох етапів, де ШІ виступає у ролі "прискіпливого аудитора".

Чим займається нейромережа:

Визначення цінностей - користувач спочатку оцінює важливість різних критеріїв (наприклад, ціна, надійність та економність для авто).

Парне порівняння: ШІ пропонує обрати кращий варіант у кількох парах об’єктів, щоб "вловити" реальні пріоритети людини.

Пошук протиріч: якщо вибір людини не збігається з її ж заявленими цінностями, інструмент підсвічує ці невідповідності.

Наприклад, якщо людина стверджує, що для неї головне - надійність, однак постійно обирає червоні автомобілі, ігноруючи технічні характеристики, ШІ вкаже на це підсвідоме упередження щодо кольору. Користувач буде змушений або змінити рейтинг, або додати колір як офіційний критерій вибору.

Результати експериментів та етичні аспекти

Дослідники протестували систему у двох кейсах:

Оцінка короткометражних фільмів: учасники експерименту відзначили, що інструмент допоміг їм перейти від суто емоційних суджень до застосування конкретних критеріїв якості.

Академічне оцінювання: чотири асистенти ранжували студентські проєкти, показавши високу узгодженість результатів - це доводить точність та повторюваність методу.

Важливою функцією є можливість вимкнути ШІ у випадках, де його використання може бути етично чутливим.

"Одна з найважливіших частин цього проєкту - не використовувати ШІ для прийняття рішень за нас, а використовувати ШІ, щоб допомогти нам обдумати те, чого ми хочемо", - підкреслює професор Чао Чжан.

Ще більше цікавого:

  • ШІ вперше зламав новий захист Apple: що це означає для користувачів
  • ШІ може зламати сам себе: чому вчені стривожені