Рейтинг@Mail.ru
Голосовые сообщения – зло: как их используют мошенники - РИА Новости Крым, 18.01.2024
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Голосовые сообщения – зло: как их используют мошенники

Мошенники используют записи телефонных звонков для подделки голоса - эксперт

© РИА Новости КрымМобильная связь в Крыму
Мобильная связь в Крыму  - РИА Новости, 1920, 18.01.2024
Читать в
СИМФЕРОПОЛЬ, 18 янв – РИА Новости Крым. Голосовые сообщения, записи телефонных разговоров и видеозаписи, размещенные в интернете, могут стать источником для подделки голоса. Мошенники стали подделывать для обмана голоса родных и близких жертвы. Об этом РИА Новости рассказал эксперт рынка НТИ SafeNet Игорь Бедеров.
"Образцы голосов добываются из различных источников. Сюда входят голосовые сообщения, которые могут собираться из мессенджеров, обычные прозвоны, во время которых происходит разговор с роботом или с другим физическим лицом. В случае с популярными людьми, блогерами мошенники могут использовать огромное количество видеозаписей, выступлений, комментариев в СМИ, которые находятся в свободном доступе в интернете", - сказал он.
Речь человека можно синтезировать даже по одному слову. Подделать такие сообщения трудно, поскольку человек использует при разговоре фразы-паразиты, специфические обороты и метафоры, особую, только ему присущую интонацию. Поэтому чем больше материала будет получено, тем проще мошенникам будет "соорудить" правдоподобное голосовое сообщение.
В создании таких ложных голосовых сообщений используются нейросети, объяснила директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз. С их помощью можно генерировать нужные фрагменты, используя записи голоса.

"Мы сегодня понимаем технологии создания этой киберугрозы и мошеннических действий, но нужно придумать массовый и общедоступный способ противодействия ей", - сказала Мосендз.

Сейчас единственный средством борьбы с такими мошенниками может быть критическое мышление. Люди должны улавливать интонации своих близких, сопоставлять факты и делать правильные выводы.
Ранее о появлении нового вида мошенничества с помощью голосовых сообщений, сгенерированных ИИ, предупреждали в МВД России.
Накануне старта предвыборной кампании в России некоторые эксперты делали предположения, что Запад может использовать нейросети для фальсификаций на выборах президента РФ. По мнению политолога, замруководителя московского общественного штаба по наблюдению за выборами Александра Асафова, для этого противники России могут использовать фейковый контент, сгенерированный искусственным интеллектом.
Читайте также на РИА Новости Крым:
Мошенники заработали на доверчивых жителях Крыма почти 23 млн рублей
Проверьте ваши деньги: мошенники придумали новый способ обмана
Оператор связи оштрафован на полмиллиона за пропуск звонка мошенника
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала