MENU

Штучний інтелект не вбиватиме людей: названо нову головну загрозу

687 0

Штучний інтелект не вбиватиме людей: названо нову головну загрозу

Головна загроза від штучного інтелекту – це не технологічний апокаліпсис у майбутньому. Такі ідеї служать лише, щоб відвернути від безпосередніх ризиків, які надходять від ШІ – наприклад, поширення фейків.

Такого висновку дійшов розробник Ейдан Гомес, автор дослідження лежала в основі технології, на якій засновані чат-боти. Як пише The Guardian, Гомес не заперечує, що довгострокові ризики слід вивчати і готуватися до них, але закликає зосередитися на безпосередньому впливі ШІ на людство зараз, передає OBOZ.UA,  інформує UAINFO.org.

Такі загрози він вважає більш актуальними і тому набагато відчутнішими. На особливу увагу заслуговують чат-боти (зокрема, ChatGPT) та ШІ-генератори зображень (наприклад Midjourney).

"Така технологія вже використовується в багатьох користувацьких продуктах, зокрема Google та інших. Це створює безліч нових ризиків, але жоден із них не є екзистенційним і не включає сценарій кінця світу. На нашу безпосередню увагу заслуговують розробки, які вже впливають на людей або почнуть впливати в найближчому майбутньому, а не академічні та теоретичні міркування про довгострокове майбутнє", – наголосив Ейдан Гомес.

Читайте також: Штучний інтелект спрогнозував появу безсмертних людей до кінця століття

Найбільше його турбує велика кількість фейкової інформації, яка поширюється в інтернеті.

"Ці моделі штучного інтелекту можуть створювати надзвичайно переконливі медіафайли – ці тексти та зображення практично не відрізняються від створених людиною. І це те, чим нам потрібно зайнятися в терміновому порядку. Нам потрібно з'ясувати, як навчити громадськість розрізняти ці медіадані", – додав розробник.

Особливе місце у поширенні такої інформації займають боти. Їх Гомес називає "реальною загрозою демократії та суспільної дискусії".

Підписуйся на сторінки UAINFO FacebookTelegramTwitterYouTube

OBOZ.UA


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  
Комментарии для сайта Cackle

Новини