MENU

Ілон Маск і група дослідників закликали зупинити експерименти зі штучним інтелектом: може загрожувати людству

448 0

Ілон Маск і група дослідників закликали зупинити експерименти зі штучним інтелектом: може загрожувати людству

Гендиректор SpaceX, Tesla та Twitter Ілон Маск та група спеціалістів і топменеджерів IT-галузі закликали зупинити експерименти зі штучним інтелектом. Вони бояться, що ШІ може загрожувати людству.

Ілон Маск та ще понад 1100 професорів, інженерів та дослідників підписали відкритого листа до ШІ-лабораторій з вимогою негайно зупинити принаймні на пів року навчання систем штучного інтелекту, більш потужних, ніж GPT-4. Лист опубліковано на сайті некомерційної організації Future of Life Institute, передає Обозреватель, інформує UAINFO.org.

Серед тих, хто підписав листа, співзасновник Apple Стів Возняк; Ендрю Янг, підприємець та кандидат на президентських виборах у США у 2020 році, Рейчел Бронсон, президент Бюлетеня вчених-атомників, який встановлює годинник Судного дня, співзасновник Pinterest Еван Шарп, співзасновник Skype Яан Таллінн та багато інших.

Підписанти вважають, що продукти зі ШІ "можуть становити серйозну загрозу суспільству та людству". Працюючи з ними слід бути дуже уважними, однак цього не відбувається.

"Системи штучного інтелекту з конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства... Як зазначено в широко схвалених Принципах ІІ Asilomar, просунутий ШІ може стати глибокою зміною в історії життя на Землі, і його слід планувати й керувати ним з відповідною ретельністю та ресурсами. На жаль, такого рівня планування та управління не існує, навіть попри те, що останніми місяцями лабораторії штучного інтелекту застрягли в неконтрольованій гонці з розробки та розгортання все більш потужних цифрових умів, які ніхто — навіть їхні творці — не може зрозуміти, прогнозувати чи надійно контролювати", – йдеться в листі.

Читайте також: "Дезінформації та кібератаки": творець нейромережі ChatGPT серйозно побоюється за людство через власний винахід

Експерти та керівники галузі, які підписали лист, вважають, що навчання треба зупинити, доки не з'являться загальні протоколи безпеки.

На їхнє переконання, якщо творці ШІ-продуктів не зможуть влаштувати піврічну паузу самостійно, в це повинен втрутитися уряд.

При цьому дехто з тих, чиї підписи стоять під листом, заявили, що їхні імена просто використали, а насправді вони нічого не підписували.

Так, професор Нью-Йоркського Університету Ян Лекан заявив у Twitter, що не підписував жодного відкритого листа проти ШІ, хоча його підпис там стоїть. Ще більше запитань викликав той факт, що згодом цей твіт видалили.

Ілон  Маск і група дослідників закликали зупинити експерименти зі штучним інтелектом: може загрожувати людству

Крім цього, з листа зникли імена Білла Гейтса та Сема Альтмена, а уважні користувачі відшукали в документі кілька фейкових імен із підписами, що викликало запитання про достовірність поданих у ньому даних.

Підписуйся на сторінки UAINFO FacebookTelegramTwitterYouTube

Обозреватель


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  
Комментарии для сайта Cackle

Новини