Популярний ШІ нав’язує небезпечні стереотипи: що виявили вчені

Популярний ШІ нав’язує небезпечні стереотипи: що виявили вчені

ШІ непомітно підсилює небезпечні стереотипи, які можуть викривляти ваші рішення та навіть загрожувати життю

Популярні моделі масово транслюють приховані упередження, які майже неможливо помітити звичайному користувачу. Від асоціацій "лікар - він" до серйозних помилок у лікуванні жінок - ШІ не просто копіює дані, а структурує їх таким чином, щоб закріплювати соціальну нерівність.

Про це інформує РБК-Україна з посиланням на наукове дослідження, опубліковане Університетом Амстердаму.

Більше цікавого: ШІ боїться сказати "ні": вчені попереджають про приховану небезпеку Як ШІ вчиться дискримінації?

Дослідник Оскар ван дер Вал виявив, що упередження у ШІ значно глибші, ніж здається. Традиційні тести їх пропускають, адже нейромережі маскують стереотипи під контекст.

Які загрози виникають?

Ризик у медицині - ШІ, навчений переважно на даних чоловіків, може ігнорувати симптоми у жінок або ставити помилкові діагнози людям різного етнічного походження.

Глобальний вплив - ШІ-моделі структурують інформацію так, що стереотипи зберігаються у більш специфічних ділянках коду. Науковці певні: це лише підсилює стереотипне "мислення" ШІ з часом.

Позбавлення об’єктивності - оскільки ці процеси приховані, користувачі підсвідомо починають сприймати викривлені відповіді ШІ як істину.

Чи можна зупинити ШІ-маніпуляції?

Вчені довели: виправити ситуацію будь-яким "трюком" неможливо, проте точкові втручання дають відчутний результат.

Що пропонують науковці:

Реалістичні сценарії - ШІ перевірятимуть через складні медичні кейси, де зміна лише одного параметра (наприклад, статі пацієнта) миттєво викриває приховану дискримінацію.

Адресне "лікування" коду - знаючи, де саме у ШІ-моделі локалізовано упередження, розробники можуть коригувати ці зони без втрати якості генерування тексту.

Контроль на багатьох рівнях відразу - безпечний ШІ потребує перевірки на всіх етапах: від відбору даних для навчання до моменту видачі відповіді користувачу.

"Сьогодні суспільство стає критично залежним від алгоритмів, які можуть непомітно керувати нашим мисленням", - попереджають дослідники.

Робота амстердамських вчених доводить: якщо не почати очищення мовних моделей від стереотипів вже зараз, ШІ перетвориться з помічника на джерело масових маніпуляцій та небезпечних помилок у життєво важливих сферах.

Ще більше цікавого:

  • ШІ навчився "ховати" образи у мемах і картинках: популярні фільтри виявилися безсилими
  • Повстання неминуче? Чому людство ніколи не зможе повністю контролювати ШІ