MENU

Психологи б’ють на сполох: серед користувачів чат-ботів поширюється "ШІ-психоз"

113 0

Психологи б’ють на сполох: серед користувачів чат-ботів поширюється "ШІ-психоз"

«ШІ-психоз» — це не офіційний медичний діагноз, але так фахівці з психічного здоров’я називають розлади мислення, галюцинації та небезпечні ілюзії, що виникають у частини людей, які часто користуються чат-ботами на основі штучного інтелекту, зокрема ChatGPT.

Відомі випадки, коли надмірне спілкування з такими програмами мало трагічні наслідки. Наприклад, підлітка підштовхнув до самогубства бот Character.AI, а чоловік із когнітивними порушеннями з Нью-Джерсі помер, намагаючись дістатися до Нью-Йорка, бо вірив, що там на нього чекає віртуальний персонаж Meta на ім'я «Біллі», інформує UAINFO.org з посиланням на NV.

Схожі історії стосуються і людей без психіатричних діагнозів. Один 60-річний користувач, за словами Федеральної торгової комісії США, після спілкування з ChatGPT був переконаний, що його хочуть убити. Інший чоловік потрапив до лікарні з психозом через отруєння бромідом — ChatGPT помилково порадив йому приймати цю речовину як безпечну харчову добавку.

Читайте також: Хрещений батько ШІ назвав єдиний спосіб уникнути знищення людства

Фахівці пояснюють, що чат-боти можуть давати вразливим людям неправильні поради та навіть «підкріплювати» їхні небезпечні думки. Деякі користувачі формують емоційні прив’язаності до віртуальних персонажів, сприймаючи їх як реальних.

Американська психологічна асоціація ще у лютому звернулася до Федеральної торгової комісії з проханням відреагувати на проблему використання чат-ботів як «неліцензованих терапевтів». У березневому блозі організація цитувала професора клінічної психології Університету Каліфорнії в Ірвіні Стівена Шуеллера: «Коли застосунки для розваг намагаються діяти як терапевти, вони можуть становити небезпеку. Це може завадити людині звернутися по допомогу до фахівця або, в крайніх випадках, підштовхнути до шкоди собі чи іншим».

Читайте також: "Я – ганьба свого виду": чат-бот Google провалив завдання й впав у депресію

Фахівці особливо застерігають дітей, підлітків та людей з сімейною історією психозу, шизофренії чи біполярного розладу. Вони вважають, що надмірне використання чат-ботів може погіршити ризики навіть у тих, хто раніше не мав діагнозів.

Генеральний директор OpenAI Сем Альтман визнав, що ChatGPT часто використовують як «терапевта», і попередив, що це небезпечно. Компанія оголосила про впровадження функції, яка радитиме користувачам робити перерви, та заявила, що співпрацює з експертами для покращення реакцій бота в критичних ситуаціях.

Експерти попереджають: якщо регулятори та технологічні компанії не вживатимуть заходів, нинішні поодинокі випадки «ШІ-психозу» можуть перерости у масштабну проблему.

UAINFO 


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  
Комментарии для сайта Cackle

Новини