MENU

The Telegraph: Искусственный интеллект должен вызывать более сильное беспокойство, чем изменения климата или терроризм

2665 0

Искусственный интеллект – более серьезная причина для беспокойства за будущее Великобритании, чем невосприимчивость пациентов к антибиотикам, изменения климата или терроризм, предупреждает новый президент Британской научной ассоциации

Джим аль-Халили, профессор физики и специалист по связям ученых с общественностью из Суррейского университета, заявил, что беспрецедентный технический прогресс в области искусственного интеллекта "происходит слишком быстро", в отсутствие должного критического внимания и регулирования.

Читайте также: Искусственный интеллект Googlе будет прогнозировать диагнозы пациентов, чтобы врачи успели их спасти

Он предостерег, что истинный масштаб угрозы для рабочих мест и безопасности проанализирован недостаточно, и озвучил настоятельный призыв к правительству срочно принять меры для регулирования этой сферы.

Выступая на брифинге в Лондоне накануне Фестиваля британской науки, он сказал: "Несколько лет назад, отвечая на вопрос, какие насущные и важные темы мы должны затрагивать, говоря о будущем, я бы ответил – это изменения климата или другие серьезные проблемы, такие как терроризм, противомикробная резистентность, угроза пандемий или бедность.

Но сегодня я уверен, что самой важной темой стал вопрос будущего искусственного интеллекта (ИИ). Этот вопрос будет доминировать над всеми другими проблемами, независимо от того, будут они решаться или будут обостряться.

"Если российские киберхакеры смогли вмешаться в выборы 2016 года в США, то что мешает кибертеррористам в будущем совершить хакерские взломы электросетей, транспортных систем, банков или военных объектов, находящихся под контролем искусственного интеллекта?"

"Наше правительство несет ответственность за защиту общества от потенциальных угроз и рисков".

Читайте также: Мнение: На пути к настоящему искусственному интеллекту может произойти катастрофа

Мультиплицированные четвертой промышленной революцией, искусственный интеллект и робототехника в последние годы значительно раздвинули границы применения – некоторые британские компании, такие как DeepMind, совершили прорыв в разработке сложных нейронных сетей, что ранее считалось невозможными.

Однако недавно Банк Англии предупредил, что "большие массы" британской рабочей силы сейчас оказались под угрозой безработицы, поскольку их работу будут выполнять роботы.

Даже в те отрасли, которые ранее считались невосприимчивыми к подобным рискам, такие как написание текстов, теперь внедряются программы ИИ, и в начале этого месяца компания M & S объявила о замене сотрудников call-центра AI.

Профессор аль-Халили добавил: "Многие люди все больше нервничают по поводу того, что ИИ беспрепятственно прогрессирует".

Есть обоснованные опасения, что широкое внедрение искусственного интеллекта повлечет за собой рост неравенства.

Читайте также: 5 распространенных мифов об искусственном интелекте

Прогнозируется, что роботизированные и автоматизированные системы будут причиной утраты многими людьми рабочих мест, это в основном коснется тех, кто занят низкоквалифицированным трудом. Исследований о том, как будущие последствия автоматизации отразятся на всей Великобритании, пока мало.

"Сегодня мы наблюдаем беспрецедентный уровень интереса, инвестиций и технического прогресса в этой области. Многие люди, в том числе и я, чувствуют, что это происходит слишком быстро".

Опрос, опубликованный недавно компанией KPMG, показал: 59 процентов британцев считают, что правительство должно принимать больше постановлений, касающихся конфиденциальности данных и безопасности.

KPMG также призывает ввести "Британский стандарт доверия" – особый знак для ИИ и безопасности данных.

Підписуйся на сторінки UAINFO у FacebookTwitter і Telegram

Оригинал на The Telegraph

Перевод – Андрей САБАДЫР, специально для UAINFO


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі



Правила коментування ! »  
Комментарии для сайта Cackle

Новини