Когда хакер лучше политика

Группа экспертов на заседании Американской ассоциации содействия развитию науки в Вашингтоне, осудила разработки с целью предоставления доступа искусственного интеллекта к оружию.

В заявлении ученых говорится, что автономное оружие может работать непредсказуемым образом и убивать невинных людей. Эксперты по этике также утверждают, что право на лишение человека жизни слишком серьезно и нельзя позволить системам искусственного интеллекта убивать людей без какого-либо вмешательства и контроля со стороны разработчиков и военных.

«Мы не говорим о гуляющих и говорящих роботах-терминаторах, которые собираются захватить мир. То, что нас беспокоит, реальнее и неизбежнее — это системы обычных вооружений, наделенные автономией и определенной самостоятельностью. Такие разработки все чаще становятся реальностью. Дроны — довольно очевидный пример, но есть и военные самолеты, которые взлетают, передвигаются и приземляются самостоятельно, и роботы-часовые, которые могут идентифицировать любое движение. Все они — предшественники автономного оружия»,

— уточняет директор международной неправительственной организации по защите прав человека Human Rights Watch Мэри Уэрхэм (Mary Wareham).

Интересно, что ряд известных хакеров активно поддержали инициативу ученых и общественников, в то время как официальные представители государств, в частности США и РФ выступили против прямого запрета на автономное оружие. США намерены вложить в разработку искусственного интеллекта в ближайшие годы более $2 млрд.

Related posts

Leave a Comment