Осторожно! Мошенники подделывают голоса родных с помощью ИИ

ЧП и криминал
BB.LV
Дата публикации: 28.10.2025 17:10
Осторожно! Мошенники подделывают голоса родных с помощью ИИ

Злоумышленники всё чаще используют искусственный интеллект для создания поддельных голосов родственников и знакомых — для обмана достаточно короткого аудиофрагмента из соцсетей, предупреждают эксперты.

Мошенники активно применяют технологии искусственного интеллекта для подделки голосов, чтобы выманивать деньги у жителей, предупреждают специалисты по безопасности.

Так, для создания убедительной голосовой копии родственника или друга злоумышленникам достаточно всего нескольких секунд аудиозаписи — её можно взять из соцсетей, мессенджеров или просто записать во время обычного разговора по телефону. Нейросети на основе этого фрагмента генерируют речь, полностью имитирующую тембр, интонации и манеру речи человека.

«Услышав в трубке знакомый голос, люди теряют бдительность и без сомнений переводят деньги на указанные реквизиты, осознавая обман лишь потом», — пояснил эксперт.

Ещё более опасной становится эволюция этой схемы — видеозвонки с использованием дипфейков. Теперь мошенники не просто имитируют голос, но и показывают реалистичное изображение близкого человека: его мимику, жесты, моргание. Такой «эффект присутствия» обманывает даже самых осторожных.

«При обычном звонке вы ещё можете перепроверить — перезвонить на известный номер или написать в мессенджер. Но когда перед вами “живой” родственник в видеозвонке, мозг воспринимает всё как реальность, и последние барьеры осторожности рушатся», — отметил специалист.

Эксперт призвал жителей никогда не переводить деньги по первому требованию, даже если звонящий кажется абсолютно знакомым. Обязательно используйте альтернативные каналы связи для подтверждения — например, личное сообщение в мессенджере или звонок на проверенный номер. В эпоху искусственного интеллекта доверять стоит не ушам и глазам, а проверенным фактам.

ТАКЖЕ В КАТЕГОРИИ

ЧИТАЙТЕ ТАКЖЕ