Эксперты предупреждают о рисках военного использования роботов

Опубликовано: 09 Сентября 2018 г. Автор: Подготовил Андрей ДУДНИК | г. Астана
просмотров 3406

На минувшей неделе старший научный сотрудник отдела вооружений правозащитной организации Human Rights Watch Бонни Дошерти сделала заявление: возникли реальные риски, что полностью автономное оружие способно нарушить положения Гаагской конвенции в части так называемой Декларации Мартенса.

Как сообщает британское издание Daily Star, эксперт обратилась с призывом к сплочению стран, чтобы противостоять использованию роботизированных и оснащенных искусственным интеллектом вооружений.

army.mil-92710-2010-11-23-061154.jpg

По мнению Дошерти, страны мира должны работать сообща, чтобы превентивно запретить эти системы вооружений до того, как они получат широкое распространение по всему миру.

Разрешение на разработку и использование роботов-убийц подорвало бы установленные моральные и юридические стандарты, – заявляет эксперт. – Противоречия между учеными, лидерами веры, технологическими компаниями, неправительственными группами и рядовыми гражданами подтверждают наличие проблемы, что роботы-убийцы пересекают моральный порог. Эта озабоченность, разделяемая многими правительствами, заслуживает немедленного ответа. maxresdefault.jpg

Журналисты издания обратились за комментариями к инженеру-программисту из Университета Оклахомы Субашу Каку, который пояснил:

Производители осведомлены о рисках, и стараются сделать все возможное, чтобы свести их к минимуму или устранить вовсе. В то же время они будут оказывать давление на парламенты или другие законодательные органы, чтобы освободиться от возможной ответственности. 2.jpg

Что касается вероятности пресловутого «Восстания машин», внезапно обретших разум или добровольной радикализации уже существующих искусственных интеллектов, эксперт считает, что еще рано бить тревогу.

Учитывая уровень современной технологии, в настоящий момент опасности саморадикализации не существует, – заявил он. DlHnTMmX0AAi1-4.jpg

Однако программист отметил, что в будущем – все возможно.

Кроме того, по его мнению, следует уже сейчас обратить внимание на меры безопасности против взломов боевых роботов или критических ошибок, способных уже сейчас превратить опасный военный инструмент в орудие террористов или взбесившуюся смертоносную железяку.

robots.jpg