Найбільші банки забороняють співробітникам користуватись ChatGPT: алгоритм постійно помиляється
Найбільші світові банки заборонили або обмежили своїм співробітникам можливість використовувати ChatGPT. Чат-бот часто видає інформацію з помилками, і хоча деякі операції він виконує швидше, всю отриману інформацію необхідно перевіряти, що багато часу.
Як пише Bloomberg, JPMorgan Chase & Co., Citigroup Inc, Bank of America Corp. та інші банки вирішили або заборонити, або обмежити використання ChatGPT. Деякі співробітники використовували чат-бот для пошуку інформації. Він справді швидше знаходив дані. Але проблема полягає в тому, що ця інформація не завжди була актуальною та правдивою, передає Обозреватель, інформує UAINFO.org.
Чат-бот не здатний відрізняти неправдиву інформацію від справжньої, часто надає застарілі дані. Він також не розуміє етичних особливостей, не може самостійно верифікувати всі дані.
Читайте також: Американські компанії вже замінюють співробітників нейромережею ChatGPT
В результаті, всі отримані дані необхідно перевіряти. І на цю перевірку також йде тривалий час, що нівелює результат скорочення тривалості пошуку інформації.
Як зазначимо, раніше низка аналітиків припустила, що нова технологія згодом може замінити частину програмістів, копірайтерів, бухгалтерів. Після відкриття доступу до ChatGPT українцям виявилося, що при використанні чат-бота як пошуковик він видає разом із коректною інформацією брехливі факти. Наприклад, відомі українські журналісти виявляли, що чат-бот у їхній біографії додав некролог, або ж приписав їм авторство чужих книг.
Підписуйся на сторінки UAINFO Facebook, Telegram, Twitter, YouTube
Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter
Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки