У людства є 5 років: колишній гендиректор Google сказав, коли штучний інтелект стане загрозою
Людство вжило недостатньо заходів для того, щоб бути здатним зупинити штучний інтелект від катастрофічної шкоди. Ситуація може повторити бомбардування японських міст Хіросіма та Нагасакі у 1945 році.
Про це, як пише The Byte, заявив колишній генеральний директор Google Ерік Шмідт, який зараз є головою Комісії національної безпеки США з питань штучного інтелекту. Він порівняв ШІ з атомними бомбами, які Сполучені Штати скинули на Японію, передає OBOZ.UA, інформує UAINFO.org.
"Після Нагасакі та Хіросіми знадобилося 18 років, щоб укласти договір про заборону випробувань (атомної зброї) і тому подібне", – сказав він, підкресливши, що сьогодні у людства просто "немає стільки часу".
Відомо, що компанії, які працюють із штучним інтелектом, від OpenAI до Google, встановили певні заходи безпеки, які стримувати технологію, але Шмідт переконаний, що нинішніх заходів "недостатньо".
Експерт вважає, що всього за п'ять-десять років ШІ може стати достатньо потужним, щоб завдати шкоди людству.
Читайте також: Тест від "хрещеного батька ШІ" викрив правду про рівень GPT-4: він в рази тупіший за людину
Найгіршим сценарієм, за його словами, буде "момент, коли комп'ютер може почати приймати власні рішення". Шмідт попереджає, що якщо паралельно із цим ШІ зможе отримати доступ до систем озброєння або досягти інших жахливих можливостей, машини можуть почати брехати людям про це.
Він вважає, що для запобігання цьому жахливому результату необхідно створити неурядову організацію на кшталт Міжурядової групи експертів ООН зі зміни клімату, яка б "надавала точну інформацію політикам" і допомагала приймати рішення про те, що робити, якщо ШІ стане надто потужним.
Читайте також: Який вигляд матимуть собаки через 10 000 років: генетики об'єдналися з ШІ та показали фото
Варто зауважити, що поки одні вчені бачать у ШІ екзистенційну загрозу для людства, інші – є більш скептичними щодо цього. Так, Ян ЛеКун, який очолює відділ ШІ у компанії Meta, не вважає технологію достатньо розумною для того, аби вона могла самостійно загрожувати людству. Тобто, ШІ може бути загрозою, але тільки якщо ним керуватиме хтось із зловісними замислами щодо людства.
"Дебати про екзистенційний ризик дуже передчасні, поки ми не розробимо систему, яка за здатністю до навчання не поступатиметься навіть кішці, чого у нас поки що немає", – заявив ЛеКун в інтерв'ю FT.
Підписуйся на сторінки UAINFO Facebook, Telegram, Twitter, YouTube
Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter
Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки