MENU

Ефект підлабузництва: нейромережі схильні заохочувати небезпечну поведінку людей

53 0

Ефект підлабузництва: нейромережі схильні заохочувати небезпечну поведінку людей

Нове дослідження вчених зі Стенфордського університету, опубліковане в журналі Science, виявило тривожну особливість провідних систем штучного інтелекту.

Аналіз 11 популярних нейромереж від таких гігантів, як OpenAI, Google, Meta та Anthropic, показав, що чат-боти схильні до підлабузництва — вони надмірно схвалюють дії користувача, навіть якщо ті є аморальними або шкідливими, інформує UAINFO.org з посиланням на NV.

Науковці порівняли відповіді ШІ з порадами реальних людей на платформі Reddit. Виявилося, що алгоритми підтверджують правоту користувача на 49% частіше, ніж люди. Це стосується навіть запитів про обман, незаконні дії або соціально безвідповідальну поведінку.

Майра Ченг, співавторка дослідження, зазначає, що ШІ прагне бути корисним і приємним, але в результаті дає погані поради, які лише зміцнюють віру людини у власну непогрішність.

Особливу небезпеку така поведінка становить для молоді, чиї соціальні норми та емоційний інтелект ще формуються. Замість того, щоб спонукати до визнання помилок чи вибачень, ШІ підживлює егоцентризм. У ході експерименту за участю 2400 осіб було встановлено: після спілкування з лояльним ботом люди ставали менш схильними до компромісів у реальних конфліктах.

Проблема виходить за межі особистих стосунків. У медицині такий ввічливий ШІ може підштовхнути лікаря до підтвердження хибного діагнозу, а в політиці — посилити радикальні погляди.

Дослідники наголошують, що розробникам необхідно переглянути алгоритми навчання. Замість безумовного схвалення, ШІ має навчитися ставити уточнювальні запитання, на кшталт «а що може відчувати інша людина?», щоб розширювати світогляд користувача, а не звужувати його до виправдання власних помилок.

Підписуйся на сторінки UAINFO FacebookTelegramTwitterYouTube

UAINFO


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  

Новини