MENU

Хокинг и Маск: Искусственный интеллект может погубить человечество

2934 0

Более тысячи экспертов IT-рынка, специалистов в области робототехники, учёных и теоретиков подписали открытое письмо о необходимости введения запрета на наступательное оружие с искусственным интеллектом.

Авторы письма говорят, что автономное оружие самостоятельно осуществляет выбор и захват цели, без какого-либо участия со стороны человека. А это может таить огромную опасность для всего населения Земли. Боевые системы с искусственным интеллектом можно рассматривать как третью революцию в военной отрасли - после появления чёрного пороха и ядерных установок.

Читайте также: Искусственный интеллект Google Translate создал свой собственный язык для осуществления переводов



«В отличие от ядерного оружия, для автономных боевых комплексов не требуются чрезмерно дорогие компоненты или материалы, которые практически невозможно достать. А поэтому такие системы могут стать вездесущими. Это только вопрос времени, когда подобные установки появятся на чёрном рынке, в руках террористов и диктаторов, желающих жёстко контролировать население или проводить этнические чистки», - говорится в открытом письме. Авторы письма признают, что искусственный интеллект и робототехника имеют огромный потенциал по улучшению жизни всего человечества. В то же время использование ИИ в военной сфере должно контролироваться тщательнейшим образом, а автономное наступательное оружие и вовсе следует запретить.

Читайте также: Будущее уже здесь

Свои подписи под письмом уже поставили выдающийся британский физик-теоретик и космолог Стивен Хокинг, основатель компаний Tesla и SpaceX Элон Маск, соучредитель компании Apple Computer Стив Возняк, политический публицист, философ и теоретик Аврам Ноам Хомский и многие другие известные личности. С полным текстом письма можно ознакомиться здесь.

Николай ПОДОСОКОРСКИЙ


Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки

Інші новини по темі

Правила коментування ! »  
Комментарии для сайта Cackle

Новини