MENU

Ізраїль почав використовувати штучний інтелект для планування авіаударів, – Bloomberg

314 0

Ізраїль почав використовувати штучний інтелект для планування авіаударів, – Bloomberg

Армія оборони Ізраїлю застосовує систему штучного інтелекту для швидшого вибору цілей при ударах із повітря. Військові ЦАХАЛу запевняють, що результати роботи ШІ контролюють люди-оператори й саме вони, а не машина, утверджують кожну окрему ціль для атаки.

Як написало агентство Bloomberg, системи штучного інтелекту Ізраїль впроваджує у свої військові операції "непомітно", інформує UAINFO.org з посиланням на Оbozrevatel.

Офіційні особи кажуть, що ШІ обробляє величезний масив даних, після чого генерує рекомендації щодо цілей для повітряних атак.

Інша модель ШІ під назвою Fire Factory використовує дані про цілі, схвалені військовими, для вирішення логістичних проблем. Fire Factory займається розрахунком навантаження боєприпасів, визначенням пріоритетів і навіть пропонує графік дій.

Читайте також: РФ маскує свої кораблі: аналітики пояснили, як нові технології допоможуть Україні їх виявляти

Остаточні рішення і в першій, і в другій ШІ системі ухвалюють люди.

Журналісти зазначили, що подробиці використання штучного інтелекту армією залишаються значною мірою засекреченими, проте заяви ізраїльських військових чиновників свідчать, що ЦАХАЛ уже застосовував ці системи в бойових умовах.

"Те, що раніше займало години, тепер займає хвилини, з ще кількома хвилинами для перевірки людиною", – сказав під час виступу у штаб-квартирі ЦАХАЛу в Тель-Авіві полковник Урі, який очолює армійський підрозділ цифрової трансформації. "З такою ж кількістю людей ми робимо набагато більше", – зазначив він.

В агентстві вказали, що в подібного застосування ШІ є як прихильники, так і критики. Прихильники впевнені, що передові алгоритми можуть перевершити людські можливості й можуть допомогти військовим мінімізувати втрати, в тому числі серед цивільних.

Читайте також: Роботи із ШІ заявили, що краще керуватимуть людством та оголосили про початок революції

Критики побоюються, що швидке використання штучного інтелекту випереджає дослідження його внутрішньої роботи. Іноді навіть експертам важко зрозуміти, як саме алгоритм ШІ дійшов свого висновку.

"Якщо в розрахунках ШІ є помилка і якщо ШІ незрозумілим, то кого ми звинувачуватимемо в цій помилці?" – запитав Таль Мімран, викладач міжнародного права в Єврейському університеті в Єрусалимі та колишній юрисконсульт армії.

Крім того, противники не виключають, що розробка напівавтономних систем може призвести до того, що хтось розробить повністю автоматизовану машину для вбивств, де люди взагалі будуть відсторонені від ухвалення рішень.

Підписуйся на сторінки UAINFO FacebookTelegramTwitterYouTube

UAINFO 


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  
Комментарии для сайта Cackle

Новини