Злоумышленники всё чаще используют искусственный интеллект для создания поддельных голосов родственников и знакомых — для обмана достаточно короткого аудиофрагмента из соцсетей, предупреждают эксперты.
Мошенники активно применяют технологии искусственного интеллекта для подделки голосов, чтобы выманивать деньги у жителей, предупреждают специалисты по безопасности.
Так, для создания убедительной голосовой копии родственника или друга злоумышленникам достаточно всего нескольких секунд аудиозаписи — её можно взять из соцсетей, мессенджеров или просто записать во время обычного разговора по телефону. Нейросети на основе этого фрагмента генерируют речь, полностью имитирующую тембр, интонации и манеру речи человека.
«Услышав в трубке знакомый голос, люди теряют бдительность и без сомнений переводят деньги на указанные реквизиты, осознавая обман лишь потом», — пояснил эксперт.
Ещё более опасной становится эволюция этой схемы — видеозвонки с использованием дипфейков. Теперь мошенники не просто имитируют голос, но и показывают реалистичное изображение близкого человека: его мимику, жесты, моргание. Такой «эффект присутствия» обманывает даже самых осторожных.
«При обычном звонке вы ещё можете перепроверить — перезвонить на известный номер или написать в мессенджер. Но когда перед вами “живой” родственник в видеозвонке, мозг воспринимает всё как реальность, и последние барьеры осторожности рушатся», — отметил специалист.
Эксперт призвал жителей никогда не переводить деньги по первому требованию, даже если звонящий кажется абсолютно знакомым. Обязательно используйте альтернативные каналы связи для подтверждения — например, личное сообщение в мессенджере или звонок на проверенный номер. В эпоху искусственного интеллекта доверять стоит не ушам и глазам, а проверенным фактам.