"Знищить все живе": експерт закликав бомбардувати лабораторії, які створюють ШІ
Вчені не зможуть контролювати ШІ, якщо він стане розумнішим за людей, тому Елієзер Юдковський запропонував повністю заборонити розробки в цій сфері.
Фахівець у галузі штучного інтелекту Елієзер Юдковський закликав знищувати потужні дата-центри для навчання штучного інтелекту. Він пояснив необхідність таких радикальних заходів у колонці для видання Time, інформує UAINFO.org з посиланням на "Фокус".
Читайте також: "Дезінформації та кібератаки": творець нейромережі ChatGPT серйозно побоюється за людство через власний винахід
29 березня фахівці, включаючи Ілона Маска, у відкритому листі закликали всі лабораторії призупинити навчання потужних систем ШІ щонайменше на 6 місяців. Елієзер Юдковський відмовився підписати його, оскільки вважає такий крок недостатнім з огляду на всю глибину загрози з боку "розумних" машин. Він запропонував зробити заборону безстроковою для всіх країн світу, у тому числі для збройних сил, укласти міжнародну угоду, стежити за використанням графічних процесорів, а організації, які навчають ШІ всупереч мораторію, карати точковими бомбардуваннями.
"Якщо розвідка повідомляє, що країна, яка не входить до угоди, будує кластер ГПУ, бійтеся не так перестрілки між країнами, як порушення мораторію. Будьте готові знищити злочинний центр обробки даних авіаударом", — заявив Юдковський.
Він побоюється, що поява штучного інтелекту розумнішого за людину призведе до загибелі всіх людей на Землі, оскільки він не буде слухатися наказів. На думку Елієзера Юдковського, людство поки не готове мати справу з надрозумом, потужнішим за чат-бот ChatGPT-4, оскільки для керування ним потрібні більш просунуті технології. Теоретично, ШІ можна навчити дбати про живих істот, але вчені поки не знають, як це зробити.
Читайте також: Італія першою у світі заблокувала ChatGPT
"Ми не можемо заздалегідь прорахувати, що і коли станеться, і зараз здається можливим, що дослідницька лабораторія може переступити критичний кордон, навіть не помітивши цього", — зазначив експерт. — "Якщо хтось створить надто потужний ШІ в нинішніх умовах, я очікую, що незабаром після цього помре кожен представник людського роду та все біологічне життя на Землі".
Еліезер Юдковський є вченим-теоретиком із США, який працює в Дослідницькому інституті машинного інтелекту. Він вивчає питання регулювання загального штучного інтелекту з 2001 року та вважається засновником цієї галузі.
Підписуйся на сторінки UAINFO Facebook, Telegram, Twitter, YouTube
Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter
Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки