Власти Евросоюза накануне опубликовали первый проект Практического кодекса для моделей искусственного интеллекта общего назначения (AGI), также известных как «сильный ИИ» и «ИИ уровня человека».
В документе, который будет окончательно доработан к маю будущего года, изложены руководящие принципы управления рисками, приводится план по соблюдению нормативных требований, описываются возможности для компаний избежать крупных штрафов.
Европейский «Закон об ИИ» вступил в силу 1 августа, и в нём оставлена возможность закрепить правила в отношении ИИ общего назначения в будущем. Этот проект документа — первая попытка прояснить, что ожидается от передовых моделей; заинтересованным сторонам даётся время направить отзывы и предложить доработки до того, как нормы вступят в силу.
К моделям ИИ общего назначения причисляются системы, обученные с общей вычислительной мощностью более 10²⁵ флопс. Под действие документа попадут, как ожидается, компании OpenAI, Google, Meta, Anthropic и Mistral — этот список может вырасти.
Кодекс охватывает несколько аспектов деятельности разработчиков ИИ общего назначения: прозрачность, соблюдение авторских прав, оценку рисков, а также снижение технических и управленческих рисков. Разработчикам ИИ надлежит раскрывать информацию о веб-сканерах, которые использовались для обучения моделей — это важно для обладателей авторских прав и создателей контента. Оценка рисков включает в себя меры по предотвращению киберпреступлений, включения в обучающие массивы дискриминационных материалов и потери контроля над ИИ.
Разработчики ИИ, как ожидается, сформулируют «Рамочную структуру принципов безопасности» (Safety and Security Framework — SSF). Этот документ поможет структурировать политики сдерживания угроз и смягчить их пропорционально индивидуальным системным рискам. Предложенные ЕС нормативы также охватывают технические области, в том числе защиту данных моделей, обеспечение отказоустойчивого контроля доступа и постоянную переоценку их эффективности.
Раздел, описывающий механизмы взаимодействия с органами власти, предусматривает реализацию подотчётности силами самих разработчиков: требуется постоянная оценка рисков и при необходимости привлечение сторонних экспертов. Нарушение «Закона об ИИ» грозит серьёзным штрафом в размере до €35 млн или до 7 % глобальной годовой прибыли в зависимости от того, что больше. Стороны, которых касается законопроект, могут присылать отзывы до 28 ноября; документ будет окончательно доработан к 1 мая 2025 года.