Великобритания и США подписали соглашение о разработке методов проверки безопасности искусственного интеллекта

0
65

Великобритания и США подписали соглашение о разработке методов проверки безопасности искусственного интеллекта

США и Великобритания подписали соглашение о проверке безопасности больших языковых моделей (LLM), лежащих в основе систем искусственного интеллекта.

Соглашение или меморандум о взаимопонимании (MoU), подписанный в понедельник в Вашингтоне министром торговли США Джиной Раймондо и министром технологий Великобритании Мишель Донелан, предусматривает согласование научных подходов обеих стран и тесное сотрудничество в разработке комплексов оценок для моделей, систем и агентов ИИ.

По словам Раймондо, работа по созданию механизмов для проверки безопасности ИИ-моделей, подобных тем, что разработаны OpenAI и Google, будет немедленно передана новому британскому Институту безопасности ИИ (AISI) и его американскому коллеге.

Соглашение вступило в силу спустя несколько месяцев после того, как в сентябре прошлого года правительство Великобритании провело глобальный саммит по безопасности ИИ, на котором несколько стран, включая Китай, США, ЕС, Индию, Германию и Францию, договорились о совместной работе над безопасностью ИИ.

Страны подписали соглашение, получившее название «Декларация Блетчли», чтобы сформировать общую линию мышления, которая будет следить за развитием ИИ и обеспечивать безопасное развитие технологии.

Соглашение было подписано после того, как в мае прошлого года сотни лидеров технологической индустрии, ученых и других общественных деятелей подписали открытое письмо с предупреждением о том, что развитие ИИ может привести к исчезновению человечества.

США также предприняли шаги по регулированию систем ИИ и связанных с ними LLM. В ноябре прошлого года администрация Байдена выпустила долгожданный указ, в котором были прописаны четкие правила и меры надзора, призванные обеспечить сдерживание ИИ и одновременно создать условия для его развития.

Ранее в этом году правительство США создало консультативную группу по безопасности ИИ, в которую вошли создатели ИИ, пользователи и ученые, с целью установить определенные ограничения на использование и развитие ИИ.

Читать также:  AFP: во Франции задержали афганца по делу о подготовке теракта в США на выборах

Консультативной группе, названной Консорциумом институтов безопасности ИИ США (AISIC) и входящей в состав Национального института стандартов и технологий, было поручено разработать рекомендации по редистрибуции систем ИИ, оценке возможностей ИИ, управлению рисками, обеспечению безопасности и защиты, а также нанесению водяных знаков на созданный ИИ контент.

Несколько крупных технологических компаний, включая OpenAI, Google, Microsoft, Amazon, Intel и Nvidia, присоединились к консорциуму, чтобы обеспечить безопасное развитие ИИ.