СИМФЕРОПОЛЬ, 18 янв – РИА Новости Крым. Голосовые сообщения, записи телефонных разговоров и видеозаписи, размещенные в интернете, могут стать источником для подделки голоса. Мошенники стали подделывать для обмана голоса родных и близких жертвы. Об этом РИА Новости рассказал эксперт рынка НТИ SafeNet Игорь Бедеров.
"Образцы голосов добываются из различных источников. Сюда входят голосовые сообщения, которые могут собираться из мессенджеров, обычные прозвоны, во время которых происходит разговор с роботом или с другим физическим лицом. В случае с популярными людьми, блогерами мошенники могут использовать огромное количество видеозаписей, выступлений, комментариев в СМИ, которые находятся в свободном доступе в интернете", - сказал он.
Речь человека можно синтезировать даже по одному слову. Подделать такие сообщения трудно, поскольку человек использует при разговоре фразы-паразиты, специфические обороты и метафоры, особую, только ему присущую интонацию. Поэтому чем больше материала будет получено, тем проще мошенникам будет "соорудить" правдоподобное голосовое сообщение.
В создании таких ложных голосовых сообщений используются нейросети, объяснила директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз. С их помощью можно генерировать нужные фрагменты, используя записи голоса.
"Мы сегодня понимаем технологии создания этой киберугрозы и мошеннических действий, но нужно придумать массовый и общедоступный способ противодействия ей", - сказала Мосендз.
Сейчас единственный средством борьбы с такими мошенниками может быть критическое мышление. Люди должны улавливать интонации своих близких, сопоставлять факты и делать правильные выводы.
Ранее о появлении нового вида мошенничества с помощью голосовых сообщений, сгенерированных ИИ, предупреждали в МВД России.
Накануне старта предвыборной кампании в России некоторые эксперты делали предположения, что Запад может использовать нейросети для фальсификаций на выборах президента РФ. По мнению политолога, замруководителя московского общественного штаба по наблюдению за выборами Александра Асафова, для этого противники России могут использовать фейковый контент, сгенерированный искусственным интеллектом.
Читайте также на РИА Новости Крым: