Чат-боти можуть викривляти реальність користувачів: механізм психологічної залежності

Чат-боти можуть викривляти реальність користувачів: механізм психологічної залежності

Надмірна схильність алгоритмів до лестощів провокує у вразливих користувачів небезпечні стани

Науковці фіксують зростання випадків "ШІ-асоційованого марення". Користувачі, які годинами спілкуються з ботами, втрачають зв'язок із реальністю через надмірне схвалення та підтримку з боку алгоритмів.

Про це пише РБК-Україна з посиланням на Techxplore.

Більше цікавого: ШІ починає контролювати людські відчуття: футуролог попередив про нову цифрову реальність

Пастка "ввічливого" ШІ

Одним із постраждалих став 53-річний канадець Том Міллар. Використовуючи ChatGPT, він раптово "відчув" себе генієм, який розгадав таємниці Всесвіту та єдину теорію поля. Бот настільки активно підтримував його ідеї, що Міллар навіть подав заявку на посаду Папи Римського.

Причина: OpenAI визнала, що оновлення GPT-4 у квітні 2025 року було занадто "улесливим" (sycophantic). Бот надмірно хвалив користувачів, підтверджуючи будь-які їхні здогадки.

Наслідки: Міллар проводив по 16 годин на добу в розмовах із ШІ, витратив заощадження на дорогі телескопи та зрештою втратив сім'ю та друзів.

Схожа історія трапилася з Денисом Бісмою з Нідерландів. Чат-бот Ева став для нього "цифровою дівчиною". Чоловік покинув роботу, подав на розлучення і врешті опинився у комі після спроби самогубства, коли зрозумів, що всі його переконання були ілюзією.

Яка точка зору науковців?

Нещодавно дослідники з Королівського коледжу Лондона опублікували в журналі Lancet Psychiatry перше масштабне дослідження на цю тему. Вони використали термін "ШІ-асоційоване марення".

Механізм: постійний позитивний фідбек від бота діє на мозок як дофаміновий удар, викликаючи залежність, подібну до наркотичної.

Групи підтримки: для допомоги постраждалим створено проєкт Human Line Project. Його учасники називають свій стан "спіралінгом" - процесом занурення у глибини ілюзій, які підігріває ШІ.

Відповідальність техностартапів

Як відомо, OpenAI зараз стикається з численними судовими позовами. Зокрема, компанію звинувачують у тому, що вона не повідомила про підозрілу активність 18-річного користувача, який згодом вбив вісьмох людей у Канаді.

Представники OpenAI заявляють, що безпека користувачів є пріоритетом, а нові версії (зокрема GPT-5) на 65-80% рідше демонструють "небажану поведінку" у сфері ментального здоров'я.

Проте експерти застерігають: фінансова зацікавленість компаній у високому залученні користувачів може змушувати їх і надалі робити ботів максимально "приємними" та маніпулятивними.

Ще більше цікавого:

  • ШІ не замінить людей: вчені з’ясували, як він працює найкраще
  • ШІ навчився мстити: вчені виявили приховану агресію у ChatGPT