Эти системы способны автономно координировать свои действия, проникать в сообщества и эффективно формировать консенсус, говорится в исследовании.
ИИ — это не только чат-боты. Согласно новому исследованию, искусственный интеллект также может служить источником дезинформации, пишет Фокус.
Ученые изучили масштабы использования ИИ, а именно больших языковых моделей и автономных агентов, для манипулирования мнениями на уровне обществ. Исследователи указывают на конкретную угрозу в виде роев ИИ: объединений автономных инструментов ИИ, которые могут массово имитировать реальных людей через социальные сети.
По словам ученых, имеющиеся данные свидетельствуют о том, что организованная манипуляция в социальных сетях распространилась с 28 стран в 2017 году до 70 стран сегодня.
Случаи распространения дезинформации с помощью ИИ на выборах в некоторых странах показывают, что демократические институты уже находятся под угрозой подобных методов манипуляции, которые, по словам ученых, становятся все более изощренными.
Эти системы способны автономно координировать свои действия, проникать в сообщества и эффективно формировать консенсус, говорится в исследовании.
Законодательное регулирование такого рода вмешательства поднимает сложные вопросы, например, можно ли считать такие ИИ-боты свободой слова.
Что бы ни стало результатом распространения дезинформации с помощью ИИ, ясно, что путь к этому был проложен много лет назад.
Оставить комментарий
(1)