MENU

Искусственный интеллект достиг критической точки в своем развитии – ученые

1374 1

Искусственный интеллект достиг критической точки в своем развитии – ученые

Международная группа ученых во главе с исследователем из университета Брауна заявила о том, что искусственный интеллект достиг критической точки в своем развитии. Существенный прогресс в анализе языка, компьютерном зрении и распознавании образов свидетельствует о том, что ИИ касается жизней людей на бытовом уровне. А это ведет к тому, что необходимо осмыслить и минимизировать риски, связанные с системами, управляемыми ИИ, говорится на сайте университета, пишет ZN.UA, информирует UAINFO.org

Ученые опубликовали свои выводы в отчете, в подготовке которого приняли участие специалисты в области компьютерных наук, публичной политики, психологии, социологии и других дисциплин.

«За пять лет ИИ совершил скачок от чего-то, что происходит в основном в лаборатории или других учреждениях с высокой степенью контроля до чего-то, что вышло в общество и касается жизней людей. Это действительно захватывающе, поскольку эта технология делает удивительные вещи, о которых мы могли только мечтать пять или 10 лет назад. Но в то же время отрасль начинает понимать влияние этой технологии на общество, и я думаю, что следующий рубеж - это размышления о том, как мы можем получить выгоду от ИИ при минимизации рисков», - заявил Майкл Литтман, который возглавлял панель ученых.

Читайте также: Искусственный интеллект дописал незаконченную симфонию Бетховена

Так, в области обработки естественного языка системы ИИ могут не только распознавать слова, но и понимать, как они используются. Это улучшило поиск в интернете, использование интеллектуальных текстовых приложений, чат-ботов и многое другое. Некоторые из этих систем могут создавать оригинальные тексты, которые сложно отличить от текстов, созданных человеком.

Кроме того, системы ИИ теперь способны диагностировать рак и другие болезни с точностью, которая не уступает подготовленным патологам. Использование ИИ позволило по-другому взглянуть на геном человека и ускорило открытие новых фармацевтических препаратов. Несмотря на то, что беспилотные автомобили пока не получили широкого распространения, системы помощи водителю под управлением ИИ являются стандартным оборудованием большинства машин.

Литтман подчеркнул, что некоторые достижения в сфере развития ИИ могут быть не замечены сторонними наблюдателями, но они иллюстрируют значительный прогресс в этой сфере. Одним из ярких примеров этого является использование фоновых изображений во время видеоконференций, которые широко используются во время пандемии коронавируса.

Панель ученых не рассматривает антиутопических рисков развития ИИ, при которых сверхумные машины захватят мир. По их словам, риски развития технологии гораздо более тонкие, но не менее опасные.

Одна из таких опасностей – использование ИИ со злым умыслом, например, создания дипфейков для распространения дезинформации или нанесения вреда репутации людей. Или же создание ботов, которые манипулируют общественным мнением.

Читайте также: В Китае искусственный интеллект поступил в университет

Другие опасности проистекают из «ауры нейтральности и беспристрастности» при принятии решений ИИ. Такие решения в общественном сознании воспринимаются как объективные, даже если они являются следствием дискриминации.

Среди других опасностей, связанных с развитием ИИ, ученые называют «техно-панацею». ИИ может восприниматься как панацея от многих проблем, хотя он является лишь механизмом их решения. По мере развития технологии все чаще возникает соблазн использовать ИИ для решения тех или иных проблем, но при решении простых вопросов могут возникать новые, гораздо более серьезные, проблемы. Так, системы, которые автоматизируют доступ к социальным услугам, могут начать дискриминировать мигрантов или людей, которые оказались в затруднительном положении.

Підписуйся на сторінки UAINFO у FacebookTwitter і YouTube

ZN.UA


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  
Комментарии для сайта Cackle

Новини