Эксперты пожаловались в ООН на "роботов-убийц"

Свыше сотни ведущих экспертов в области робототехники и искусственного интеллекта призвали Организацию Объединенных Наций (ООН) принять меры, которые запретили бы разработку "роботов-убийц", угрожающих будущему человечества. Как сообщается открытом письме, подписанном в том числе главой Tesla Motors и SpaceX Илоном Маском, "автономные системы летального оружия" представляют собой "третью революцию в военных действиях".

Свыше сотни ведущих экспертов в области робототехники и искусственного интеллекта призвали Организацию Объединенных Наций (ООН) принять меры, которые запретили бы разработку "роботов-убийц", угрожающих будущему человечества. Как сообщается открытом письме, подписанном в том числе главой Tesla Motors и SpaceX Илоном Маском, "автономные системы летального оружия" представляют собой "третью революцию в военных действиях".

По мнению 116 экспертов, включая соучредителя ИИ-лаборатории Google DeepMind Мустафу Сулеймана, роботы-солдаты — "это ящик Пандоры", открытие которого приведет к непредсказуемым последствиям. "Как только они будут созданы, они приведут к возникновению вооруженных конфликтов гораздо более широкого масштаба, чем когда-либо, и в гораздо более сжатые сроки, чем люди могут себе представить", — говорится в письме.

"Этим может оказаться оружие террора, оружие, которое деспоты и террористы применяют против невинного населения, а также оружие, которое может быть взлома и использовано нежелательными способами", — предупредили эксперты, призвав ООН как можно скорее принять запретительные меры. Кроме того, лидеры рынка ИИ выступили за то, чтобы добавить "роботов-убийц" в список вооружения, запрещенного в соответствии с Конвенцией по конкретным видам обычного оружия (CCW).

Под "роботами-убийцами" понимается полностью автономная система, которая способна сама выбирать и атаковать цели без вмешательства человека. Такого вида вооружения пока не существует, однако последние достижения в области ИИ и машинного обучения делает его все более близким к реальности.

В 2015 году ООН уже призывали рассмотреть запрет на применение "роботов-убийц". Тогда более тысячи выдающихся IT-экспертов и ученых опубликовали открытое письмо, предупредив об угрозах, которые несет в себе разработка "автономного наступательного оружия". Исследователи выражали опасения, что "гонка вооружений ИИ" может повлечь за собой катастрофические последствия для человечества, стать "автоматом Калашникова завтрашнего дня" и привести к войне, терроризму и глобальной нестабильности.

Источник: BBC