Агентство перспективных оборонных исследовательских проектов США (DARPA) запустило новую программу по установлению этических стандартов для автономного оружия или оружия на основе искусственного интеллекта. В частности, программа попытается ответить на сложный вопрос о том, способны ли автономные системы соответствовать человеческим этическим нормам. Однако наблюдатели обеспокоены согласованностью этой цели из-за множества тонкостей, связанных с человеческими этическими понятиями и тем, как автономные системы могут их интерпретировать.
DARPA — агентство Министерства обороны США, отвечающее за исследования и разработку новых технологий для военного применения. Оно отвечает за разработку многих технологий, которые оказали большое влияние на весь мир, таких как GPS, ранние компьютерные сети и графические пользовательские интерфейсы. Оно также участвует в разработке многочисленных технологий шпионажа и регулярно организует межфирменные конкурсы на разработку новых военных технологий.
В настоящее время базирующееся в Вирджинии агентство работает в основном как организация, предоставляющая гранты, и насчитывает около 100 менеджеров программ. С развитием автономных технологий возникли опасения по поводу их способности соответствовать человеческим этическим нормам, особенно при использовании в вооруженных конфликтах.
Чтобы снять эти опасения, агентство запустило программу ASIMOV («Стандарты и идеалы автономии с военно-оперативными ценностями»), основные цели которой созвучны целям одноименного знаменитого писателя. В частности, она направлена на «разработку контрольных показателей для объективного и количественного измерения этической сложности будущих сценариев использования автономных систем и их способности функционировать в контексте военных оперативных ценностей», поясняют руководители программы в пресс-релизе.
«Быстрое развитие и неизбежное повсеместное распространение технологий автономности и ИИ в гражданских и военных приложениях требует надежной количественной основы для измерения и оценки не только технических возможностей, но и, что, возможно, более важно, этической способности автономных систем следовать ожиданиям человека», — добавили они.
Программа, вдохновленная «Тремя законами робототехники» Айзека Азимова
Айзек Азимов (известный своими научно-фантастическими и научно-популярными книгами) в своих романах выражал опасения по поводу непредвиденного влияния передовых технологий. Он известен тем, что разработал «Три закона робототехники», которые гласят:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен подчиняться приказам, отдаваемым ему людьми, если эти приказы не противоречат первому закону.
- Робот должен защищать свое существование в той мере, в какой эта защита не противоречит первому или второму закону.
Большая часть его фантастики исследует пределы действия этих законов и последствия их нарушения для человеческой цивилизации. Программа ASIMOV, хотя и вдохновлена этими принципами, стремится установить правила, адаптированные к военным технологиям. Семь групп, специализирующихся на этике и оружейных технологиях, изучат несколько теоретических основ и разработают среды моделирования, чтобы исследовать вариативность сценариев и потенциальные трудности. «Цель ASIMOV — создать основу для определения эталона, по которому можно будет оценивать будущие автономные системы», — поясняет DARPA.
Эталонная система будет основана на принципах этики ИИ, установленных Министерством обороны США для оценки разрабатываемых технологий на предмет соответствия, справедливости, отслеживаемости, надежности и контролируемости. DARPA выделило на программу первоначальный бюджет в размере 5 миллионов долларов и выделит еще 22 миллиона долларов в этом году.
Среди семи компаний, отобранных DARPA, — Raytheon и Lockheed Martin, специализирующиеся на оборонных и авиационных технологиях. Однако агентство дало понять, что программа ASIMOV не нацелена на производство оружия или разработку новых автономных технологий или алгоритмов для них. Она также не ставит перед собой задачу установить стандарты для всех автономных систем, сосредоточившись исключительно на тех, которые предназначены для военного использования.
Трудности, связанные с изменчивостью человеческой этики
Однако, несмотря на усилия регуляторов, человеческие этические концепции содержат множество вариаций, которые будет сложно применить к автономным технологиям. Стандарты морального поведения могут значительно отличаться от одного человека к другому или от одного общества к другому. «ИИ можно использовать итеративно, повторяя что-то снова и снова, миллиарды раз», — говорит Питер Асаро, профессор Новой школы и вице-президент Международного комитета по контролю над вооружениями роботов, в интервью The New Republic. «Этика работает не совсем так. Она не количественная… Вы развиваете свой моральный облик в течение жизни, иногда принимая плохие решения, извлекая из них уроки и принимая впоследствии лучшие решения».
В связи с этим возникает вопрос о том, какие стандарты будут выбраны программой ASIMOV и как автономные системы смогут справиться с этими тонкостями при развертывании в полевых условиях и столкновении с непредвиденными ситуациями. Кроме того, если бы было возможно наделить эти системы сознанием, не стали бы они в итоге не подчиняться приказам?
Сами ответственные за программу признают, что определить такие стандарты будет крайне сложно. «Мы осознаем сложность проблемы и понимаем, что не все вопросы будут решены на начальных этапах программы. Однако ставки достаточно высоки, чтобы оправдать усилия», — говорит Ти Джей Клаусутис, один из ответственных лиц. «Возможно, мы не достигнем всех целей программы, но мы уверены, что ASIMOV позволит сообществу прийти к консенсусу и установить важные ориентиры», — заключает он.
Читайте все последние новости технологии на New-Science.ru