Искусственный интеллект разъедает глобальные биржи, опасаются эксперты 0 433

Техно
BB.LV
Торговый работник с нечеловеческим лицом.

Торговый работник с нечеловеческим лицом.

Вся мировая экономика может схлопнуться из-за ошибки в программе.

Алгоритмы используются в торговле уже несколько десятилетий, но последние достижения в области ИИ ставят перед регулирующими органами новые задачи.

Злонамеренная торговая практика - явление не новое. Борьба с инсайдерской торговлей, а также с различными формами манипулирования рынком - давняя задача регулирующих органов.

Однако в последние годы эксперты все чаще предупреждают о новых угрозах для наших финансовых систем. Разработки в области искусственного интеллекта означают, что автоматические торговые боты стали не только умнее, но и более независимыми. В то время как базовые алгоритмы отвечают на запрограммированные команды, новые боты способны учиться на опыте, быстро синтезировать огромные объемы информации и действовать автономно при заключении сделок.

По мнению ученых, один из рискованных сценариев связан с сотрудничеством между ИИ-ботами. Представьте себе: сотни профилей в социальных сетях, управляемых искусственным интеллектом, начинают появляться в сети, рассказывая об определенных компаниях. Распространяемая информация не обязательно является фальшивой, но может быть просто усилением существующих новостей. В ответ на это реальные пользователи социальных сетей начинают реагировать, подчеркивая выбранное ботами сообщение.

Когда рынок под влиянием созданного нарратива начинает колебаться, робоадвайзер одного инвестора получает прибыль, скоординировав свои действия со сплетничающими ботами. Другие инвесторы, не обладающие инсайдерской информацией, терпят убытки, неудачно выбрав время для торговли. Проблема в том, что инвестор, получающий прибыль, может даже не знать о схеме. Это означает, что обвинения в манипулировании рынком не всегда могут быть эффективными, даже если власти видят, что трейдер извлек выгоду из искажающей практики.

Социальные платформы меняют трейдинг

Алессио Аццутти, доцент кафедры права и технологий (FinTech) Университета Глазго, рассказал Euronews, что описанный выше сценарий пока остается гипотезой, так как нет достаточных доказательств того, что он имеет место. Тем не менее, он объясняет, что подобные, менее изощренные схемы существуют, особенно на "рынках криптоактивов и децентрализованных финансовых рынках".

"Злоумышленники могут быть очень активны в социальных сетях и на платформах обмена сообщениями, таких как Telegram, где они могут побуждать участников инвестировать свои деньги в DeFi или в тот или иной криптоактив, в угоду себе, - пояснил Аззутти. - Мы можем наблюдать как непосредственную деятельность злоумышленников-людей, так и тех, кто использует ботов с искусственным интеллектом".

Он добавил, что агенты, распространяющие дезинформацию, не обязательно могут быть очень изощренными, но у них все равно есть возможность "загрязнять чаты фальшивыми новостями, чтобы вводить в заблуждение розничных инвесторов".

"И вот вопрос: если непрофессионал, если молодой человек в одиночку в своем домашнем офисе способен совершать подобные манипуляции, то каковы пределы для более крупных игроков в достижении того же эффекта на еще более сложных рынках?"

То, как широко, быстро и нескоординированно распространяется рыночная информация в интернете, также способствует развитию различных видов торговли. Розничные инвесторы с большей вероятностью будут следовать модным тенденциям, а не полагаться на собственный анализ, что может дестабилизировать рынок и потенциально использоваться ботами ИИ.

Широко известная сага о GameStop - хороший пример стадной торговли, когда пользователи на форуме Reddit решили массово скупать акции компании, производящей видеоигры. Крупные хедж-фонды ставили на то, что цена упадет, и в итоге проиграли, когда она резко взлетела. Многие эксперты утверждают, что речь не идет о сговоре, поскольку никакого официального соглашения не было.

Представитель ESMA, Европейского управления по ценным бумагам и рынкам, заявил Euronews, что возможность манипулирования рынками с помощью ИИ-ботов и получения прибыли от их движения "вызывает реальную озабоченность", хотя подчеркнул, что у него нет "конкретной информации или статистики о том, что это уже происходит".

"Эти риски еще больше усиливаются благодаря роли социальных сетей, которые могут выступать в качестве канала быстрой передачи ложных или вводящих в заблуждение сведений, влияющих на динамику рынка. Ключевым вопросом является степень человеческого контроля над этими системами, поскольку традиционные механизмы надзора могут оказаться недостаточными", - сказал представитель ведомства.

ESMA подчеркнула, что "активно следит" за развитием ИИ.

Готово ли регулирование?

Одна из проблем для регулирующих органов заключается в том, что сотрудничество между агентами ИИ нелегко отследить.

"Они не отправляют электронные письма, не встречаются друг с другом. Они просто учатся со временем лучшей стратегии, поэтому традиционный способ выявления сговора не работает с ИИ", - сказал Euronews Итай Гольдштейн, профессор финансов и экономики в Уортонской школе Пенсильванского университета.

"Регулирование должно сделать шаг вперед и найти новые стратегии для решения этой проблемы", - заявил он, добавив, что не хватает достоверных данных о том, как именно трейдеры используют ИИ.

Филиппо Аннунциата, профессор финансовых рынков и банковского законодательства в Университете Боккони, сказал Euronews, что действующие правила ЕС "не должны пересматриваться", имея в виду Положение о злоупотреблениях на рынке (MAR) и Директиву по рынкам финансовых инструментов II (MiFID II).

Тем не менее, он утверждает, что "надзорные органы должны быть оснащены более сложными инструментами для выявления возможных манипуляций на рынке".

Он добавил: "Я даже предлагаю попросить тех, кто разрабатывает инструменты искусственного интеллекта для торговли на рынках и другие, включить в эти инструменты автоматические выключатели. Это заставит их остановиться еще до того, как возникнет риск манипулирования".

С точки зрения нынешней правовой базы, существует также вопрос об ответственности, когда агент ИИ действует злонамеренно, независимо от стремления человека.

Это особенно актуально в случае так называемого "черного ящика", когда бот совершает сделки, не раскрывая своих внутренних механизмов. Некоторые эксперты считают, что для решения этой проблемы ИИ должен быть более прозрачным, чтобы регулирующие органы могли понять, чем обусловлены принимаемые решения.

Другая идея заключается в создании новых законов об ответственности, чтобы при манипулировании рынками лиц, внедряющих ИИ, можно было наказывать, даже если они не намеревались вводить инвесторов в заблуждение.

"Это немного похоже на черепаху и зайца, - говорит Аннунциата. - Надзорные органы, как правило, - черепахи, а манипуляторы, использующие алгоритмы, - зайцы, и их трудно догнать".

Читайте нас также:
0
0
0
0
0
0

Оставить комментарий

ЧИТАЙТЕ ТАКЖЕ