Alphabet, материнская компания Google, недавно внесла серьезные изменения в свою этическую хартию, отменив некоторые обещания, данные несколько лет назад, в частности запрет на использование моделей искусственного интеллекта в военных целях.
В 2018 году более 3 000 сотрудников Google протестовали против участия компании в Project Maven, программе военных исследований беспилотников, осуществляемой Пентагоном. Они опасались, что это сотрудничество представляет собой первый шаг к использованию ИИ в смертоносных целях.
Столкнувшись с внутренним давлением, Google опубликовала принципы, регулирующие разработку искусственного интеллекта. В частности, в документе говорилось, что компания обязуется не разрабатывать технологии, которые могут нанести глобальный вред, если только выгода не перевешивает риск; оружие или технологии, которые могут причинить вред людям; а также системы, использующие данные в целях слежки.
В обновленном документе, опубликованном 4 января этого года, этот раздел исчез. Теперь в пересмотренном документе основное внимание уделяется проведению строгих испытаний для минимизации рисков, связанных с продукцией компании.
Меняющийся контекст
В качестве обоснования этого изменения Google утверждает, что технологическая база с 2018 года претерпела значительные изменения. В статье, подписанной Джеймсом Маньикой, вице-президентом по исследованиям, и Демисом Хассабисом, генеральным директором DeepMind, руководители объясняют, что ИИ прошел путь «от нишевой темы лабораторных исследований до такой же повсеместной технологии, как мобильные телефоны и сам интернет». Однако они прямо не упоминают о снятии прежних обязательств, предпочитая ссылаться на простое обновление руководящих принципов.
Группа также обосновывает эти изменения необходимостью для демократических стран сохранять свое технологическое лидерство. «Мы считаем, что демократические страны должны возглавить разработку ИИ, руководствуясь такими фундаментальными ценностями, как свобода, равенство и уважение прав человека», — заявляют они, добавляя, что «компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и укрепляет национальную безопасность».
Способ снять ограничения?
Некоторые наблюдатели рассматривают эту поправку как стратегию устранения барьеров для доступа на быстро растущий рынок. В напряженном геополитическом контексте бюджеты, выделяемые на исследования и разработку военного ИИ, резко возрастают.
В 2023 году Google уже пришлось столкнуться с внутренними разногласиями вокруг проекта облачных вычислений и искусственного интеллекта, предназначенного для правительств и израильской армии. Пока компания пыталась снять напряженность, ее основные конкуренты укрепляли свои связи с армией. В частности, Microsoft и Amazon подписали контракт с Пентагоном в рамках проекта Joint Warfighter Cloud Capability — защищенного облака для вооруженных сил США.
Этот разворот произошел всего через несколько дней после того, как Дональд Трамп официально вернулся на пост президента США. Сразу после инаугурации новый президент смягчил правила, отменив указ, изданный его предшественником и регулирующий безопасность ИИ. Отныне крупнейшие технологические компании, руководители которых недавно сблизились с Трампом, больше не обязаны публиковать результаты своих тестов, если их продукция представляет высокий риск для национальной безопасности или здоровья населения.
Читайте все последние новости искусственного интеллекта на New-Science.ru