просмотров 664

Бывший инженер Google об ИИ: эти штуковины начнут вести себя непредсказуемо

Опубликовано: 17 Сентября 2019 Автор: Подготовил Андрей ДУДНИК | Нур-Султан
Бывший инженер Google об ИИ: эти штуковины начнут вести себя непредсказуемо
iStock

Специалист по компьютерам Лора Нолан покинула компанию Google в июне прошлого года после того, как выразила свою обеспокоенность по поводу сотрудничества с Министерством обороны США в проекте Maven – программе беспилотников, которая использовала алгоритмы ИИ (искусственного интеллекта) для ускорения анализа огромного количества отснятых материалов наблюдения. Как пишет Newsweek, почти полтора года спустя эксперт по ИИ решила приоткрыть завесу тайны и рассказала журналистам The Guardian, какие именно опасения заставили ее покинуть свою престижную работу.

Инженер-программист заявила, что использование автономных систем или систем вооружения с улучшенным искусственным интеллектом, в которых отсутствует человеческий контроль, может иметь серьезные, даже фатальные последствия. Уже сейчас в ходе военных конфликтов с их помощью совершаются страшные злодеяния и убийства, которые нельзя оправдать законами военного времени, но если будут развернуты сотни и тысячи таких машин...

2.jpg Могут случиться крупномасштабные аварии, потому что эти штуковины начнут вести себя неожиданным образом, – прогнозирует Лора Нолан. – Именно поэтому любые передовые системы вооружений должны подвергаться осмысленному контролю со стороны человека, в противном случае они должны быть запрещены, потому что слишком непредсказуемы и опасны.
Зафиксировано первое преступление, совершенное при ИИ
читайте далее

В свое время Google наняла Нолан – выпускницу факультета компьютерных наук из Тринити-колледжа в Дублине, и в течение четырех лет она стала одним из ведущих разработчиков программного обеспечения в Ирландии, и в 2017-м ее прикрепили к скандально известному Project Maven – контракту технологического гиганта с американскими военными.

3.jpeg Поскольку я была инженером по обеспечению надежности сайтов, мои знания и опыт были направлены на то, чтобы обеспечить непрерывную работу наших систем и инфраструктур, и в этом же я должна была помочь Maven, – рассказывает Лора Нолан. – Хотя я не принимала непосредственного участия в проекте ускорения распознавания видеозаписей, поняла, что все еще являюсь частью цепочки убийств, а это в конечном итоге приведет к тому, что американские военные будут преследовать и убивать больше людей в таких местах, как Афганистан.

Контракт Google с Министерством обороны США вызвал массовую негативную реакцию со стороны ученых, экспертов по безопасности и собственных сотрудников компании. В апреле 2018 года тысячи работников подписали коллективную петицию против Maven, призывающую к отказу от контракта, а также к созданию четкой политики в отношении ИИ.

4.jpg «Мы считаем, что Google не должна заниматься военными делами», – говорилось в обращении.
Google раскрыл беспрецедентную хакерскую атаку на iPhone
читайте далее

В итоге 7 июня прошлого года технологический гигант пошел на уступки и подтвердил, что не станет продлевать отношения по Project Maven после завершения уже действующего контракта, подписанного в сентябре 2017-го. В тот же день компания Google опубликовала новый перечень «принципов ИИ», которые она обязалась соблюдать в будущем.

Генеральный директор Google Сундар Пичаи заявил, что, хотя компания не будет разрабатывать ИИ для использования в оружии, она продолжит работать вместе с правительством США и их вооруженными силами.

5.jpg «Это сотрудничество очень важно, и мы будем активно искать новые пути для обеспечения безопасности военнослужащих и гражданских лиц», – написал он в своем блоге.

Все эти перипетии привели к уходу из компании множества сотрудников, включая и Лору Нолан. Она присоединилась к публичной кампании «Остановить роботов-убийц», а также проинформировала дипломатов ООН в Нью-Йорке и Женеве об опасностях, связанных с автономным оружием и военными системами с искусственным интеллектом.

6.jpg Вероятность катастрофы пропорциональна количеству этих машин в конкретном районе, – заявила она. – Именно поэтому любые передовые системы вооружений должны подвергаться осмысленному контролю со стороны человека, в противном случае они должны быть запрещены, потому что слишком непредсказуемы и опасны.
Идеальные секс-роботы уничтожат человеческую цивилизацию
читайте далее

По мнению инженера-программиста, тестирование систем с автономными функциями управления должно проводиться в режиме реального времени, однако как в таком случае следует проводить тесты автономных систем вооружения? Только развернув их в зонах боевых действий и в надежде, что все пройдет как запрограммировано.

7.jpg «Как вы обучите систему, которая работает исключительно на программном обеспечении, как выявлять тонкости человеческого поведения или различать разницу между обычными охотниками или повстанцами? Каким образом машина-убийца, летящая на автопилоте, сможет различить 18-летнего боевика и 18-летнего мальчишку, который охотится на кроликов?» – вопрошает Нолан.

В итоге бывшая сотрудница Google, а ныне активный борец за мир и против военного применения искусственного интеллекта заявила: «Мало кто говорит об этом, но если мы не будем осторожны с одним или несколькими из этих видов оружия, эти роботы-убийцы могут случайно начать внезапную войну, уничтожить атомную электростанцию или вызвать массовые зверства».

Последние новости Казахстана и мира читайте на нашем Telegram-канале