Калифорнийский закон об ИИ угрожает Кремниевой долине

Бизнес
BB.LV
Дата публикации: 16.09.2024 00:00
В пользу принятия закона высказались ряд крупных фигур ИТ-бизнеса.

Илон Маск не против подставить подножку конкурентам.

Калифорнийский законопроект о регулировании искусственного интеллекта может повлиять на развитие ИИ не только в Кремниевой долины, но и в США, и во всем мире.

Ассамблея Калифорнии, главный законодательный орган штата, направила противоречивый законопроект SB 1047 на подписание губернатору Гэвину Ньюсому.

Законопроект привлек к себе национальное внимание, поскольку им обозначена первая попытка установить ряд стандартов для разработки и использования компаниями генеративных моделей и других продуктов с использованием технологий искусственного интеллекта.

Кроме того, именно в штате Калифорния сосредоточено большинство крупных компаний и специалистов в области ИИ – в частности, компания OpenAI, популяризировавшая генеративные языковые модели благодаря своему ChatGPT.

В пользу принятия закона высказались ряд крупных фигур, среди которых Дарио Амодей, основатель компании Anthropic, которая занимается разработкой общих систем искусственного интеллекта и языковых моделей, придерживаясь при этом корпоративной этики ответственного использования ИИ. Принятие закона поддержал также Илон Маск, неоднократно отмечавший необходимость готовности к экзистенциальным рискам, которые могут нести технологии ИИ для человечества, а также их минимизации.

Противники законопроекта также представлены известными фигурами в индустрии и за ее пределами. Янн Лекун, главный специалист по ИИ в компании Meta, и другие представители ИИ-сообщества выразили обеспокоенность тем, что акцент закона на моделях, требующих высоких затрат и вычислительных ресурсов, может подавить более бюджетные инновации в этой области. Бывший спикер палаты представителей США и конгрессвумен от Калифорнии Нэнси Пелоси присоединилась к тем, кто считает, что принятие закона может негативно сказаться на инновационной экосистеме штата, особенно в отношении небольших разработчиков и открытых ИИ-моделей.

«Голос Америки» поговорил с замдиректора по законодательному активизму в «Фонде электронных рубежей» Хэйли Цукаяма о том, каковы причины для введения ограничительных мер в сфере ИИ разработок, чем они могут быть опасны для индустрии и приведут ли они к потере конкурентоспособности американских компаний в сравнении с лидерами разработок в сфере ИИ из других стран:

«Голос Америки»: Какие, на ваш взгляд, меры безопасности и ограничительные меры должны распространяться на компании, разрабатывающие ИИ, и их деятельность?

Хэйли Цукаяма: Все еще ведутся размышления о том, как должно выглядеть и в чем заключаться безопасное использование ИИ. В общем, нас больше интересует устранение тех вредоносных последствий ИИ, которые мы можем наблюдать уже сейчас, особенно в таких областях, как автоматизированное принятие решений. Это означает, что важно, чтобы люди понимали, когда эти инструменты используются в их отношении, чтобы они были достаточно проинформированы для того, чтобы дать согласие на использование их личных данных, и чтобы у них был способ взаимодействия с этими системами.

— Что вы думаете о законопроекте SB 1047, вызвавшем так много споров?

— Я бы сказала, что этот законопроект столкнулся с рядом трудностей. Он очень объемный и охватывает много аспектов. Думаю, что нам, вероятно, придется решать некоторые вопросы в будущем законодательстве, сосредоточившись на устранении неотложных, текущих угроз.

Законопроект, который сейчас находится на стадии подписания у губернатора Калифорнии, больше касается того, чтобы разработчики могли предоставить гарантии безопасности своих моделей еще в ходе работы над ними. То есть он скорее регулирует процесс разработки в целом, чем воздействие на отдельных субъектов.

— Считаете ли вы, что он окажет значительное влияние на разработку ИИ-технологий в штате?

— Это, безусловно, вызывает беспокойство, и мы разделяем эти опасения, особенно со стороны разработчиков с открытым исходным кодом. В законопроекте есть положения, которые в теории направлены лишь на крупные компании.

Однако мы слышали от небольших независимых разработчиков и разработчиков открытых моделей, что некоторые стандарты, сформулированные в законопроекте, вызывают у них тревогу. Даже при наличии элементов гибкости все равно существует риск, при котором разработчики с открытым исходным кодом или маленькие конкуренты могут посчитать инвестиции в создание таких технологий в штате слишком сложными для реализации.

— Как добиться того, чтобы свод ограничений, которым придется соответствовать американским компаниям, не повлиял на их конкурентоспособность на мировой арене, когда в других странах, например, в Китае, разработчики не будут обременены теми же правилами?

— Трудно представить, чтобы представители индустрии участвовали в обсуждении того, как регулировать самих себя. Но в данном случае, поскольку мы находимся на ранней стадии и в политических кругах пока мало понимания того, как разрабатываются инструменты ИИ и модели, то это хороший момент для того, чтобы объединиться и убедиться, что процесс обеспечения безопасности не только сильный и значимый, но и в действительности реализуемый.

Текст законопроекта действительно объемный и включает множество положений. В частности, отмечаются риски использования технологий ИИ для создания оружия массового уничтожения, включая биологическое, химическое и ядерное оружие.

Но даже при столь широком охвате аспектов использования технологии и её влияния на общество, по-прежнему остаётся открытым вопрос: возможно ли создать законодательные рамки для безопасного использования ИИ, если день за днем как разработчики, так и пользователи, находят все новые и новые способы его применения?

<iframe width="560" height="315" src="https://www.youtube.com/embed/KKH8_wpo9ho?si=R-VuOmsBog3BJ1UU" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>

ТАКЖЕ В КАТЕГОРИИ

ЧИТАЙТЕ ТАКЖЕ