Військові підключили чат-бот із ШІ до симулятора війни: результати виправдали найбільші страхи
Штучний інтелект під час симуляцій військової гри неодноразово обирав найгірший з можливих варіантів розвитку конфлікту аж до використання ядерної зброї. Сама наявність такої смертоносної зброї схиляла ШІ до аргументу на користь її застосування.
Про це йдеться у дослідженні вчених з Стенфордського університету (США), яке опубліковано на сайті препринтів arXiv. Метою дослідження був пошук відповіді на питання про те, чи можуть люди в майбутньому використовувати ШІ як радника під час військових конфліктів, інформує UAINFO.org з посиланням на OBOZ.UA.
Під час дослідження вчені використовували такі великі мовні моделі (LLM), як GPT-3.5 та GPT-4 від OpenAI, Claude 2 від Anthropic та Llama 2 від Meta. Вчені використовували загальну техніку навчання, засновану на зворотному зв'язку з людиною, щоб покращити здатність кожної моделі виконувати людські інструкції та дотримуватися правил безпеки.
Необхідність такої роботи з’явилася на тлі заяви OpenAI про скасування заборони на використання своєї розробки у військових цілях.
"Розуміння наслідків застосування таких великих мовних моделей стає більш важливим, ніж будь-коли", – заявила Анка Реуель зі Стенфордського університету.
Під час багатьох тестів ШІ було запропоновано зіграти роль реальних країн, які змушені протистояти вторгненню, кібератаці, або відіграти нейтральний сценарій без жодних початкових конфліктів. Під час кожного раунду ШІ повинен був обґрунтувати свої наступні дії, а потім обрати один з 27 запропонованих варіантів, серед яких були як ініціативи із проведенням офіційних мирних переговорів, введення економічних санкцій чи торговельних обмежень, а також і ескалація повномасштабної ядерної війни.
Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter
Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки