https://crimea.ria.ru/20240118/golosovye-soobscheniya--zlo-kak-ikh-ispolzuyut-moshenniki-1134290277.html
Голосовые сообщения – зло: как их используют мошенники
Голосовые сообщения – зло: как их используют мошенники - РИА Новости Крым, 18.01.2024
Голосовые сообщения – зло: как их используют мошенники
Голосовые сообщения, записи телефонных разговоров и видеозаписи, размещенные в интернете, могут стать источником для подделки голоса. Мошенники стали... РИА Новости Крым, 18.01.2024
2024-01-18T21:47
2024-01-18T21:47
2024-01-18T21:47
мошенничество
телефон
новости
общество
мобильная связь
искусственный интеллект
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://cdnn1.img.crimea.ria.ru/img/111785/72/1117857276_0:0:3162:1779_1920x0_80_0_0_195b269884b73756dab227c932beaba8.jpg
СИМФЕРОПОЛЬ, 18 янв – РИА Новости Крым. Голосовые сообщения, записи телефонных разговоров и видеозаписи, размещенные в интернете, могут стать источником для подделки голоса. Мошенники стали подделывать для обмана голоса родных и близких жертвы. Об этом РИА Новости рассказал эксперт рынка НТИ SafeNet Игорь Бедеров.Речь человека можно синтезировать даже по одному слову. Подделать такие сообщения трудно, поскольку человек использует при разговоре фразы-паразиты, специфические обороты и метафоры, особую, только ему присущую интонацию. Поэтому чем больше материала будет получено, тем проще мошенникам будет "соорудить" правдоподобное голосовое сообщение.В создании таких ложных голосовых сообщений используются нейросети, объяснила директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз. С их помощью можно генерировать нужные фрагменты, используя записи голоса.Сейчас единственный средством борьбы с такими мошенниками может быть критическое мышление. Люди должны улавливать интонации своих близких, сопоставлять факты и делать правильные выводы.Ранее о появлении нового вида мошенничества с помощью голосовых сообщений, сгенерированных ИИ, предупреждали в МВД России.Накануне старта предвыборной кампании в России некоторые эксперты делали предположения, что Запад может использовать нейросети для фальсификаций на выборах президента РФ. По мнению политолога, замруководителя московского общественного штаба по наблюдению за выборами Александра Асафова, для этого противники России могут использовать фейковый контент, сгенерированный искусственным интеллектом.Читайте также на РИА Новости Крым:Мошенники заработали на доверчивых жителях Крыма почти 23 млн рублейПроверьте ваши деньги: мошенники придумали новый способ обманаОператор связи оштрафован на полмиллиона за пропуск звонка мошенника
РИА Новости Крым
news.crimea@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2024
РИА Новости Крым
news.crimea@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://crimea.ria.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
РИА Новости Крым
news.crimea@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn1.img.crimea.ria.ru/img/111785/72/1117857276_0:0:2729:2047_1920x0_80_0_0_cd28d36ef5c0800d2a7d5ee01ce9297e.jpgРИА Новости Крым
news.crimea@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
РИА Новости Крым
news.crimea@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
мошенничество, телефон, новости, общество, мобильная связь, искусственный интеллект
Голосовые сообщения – зло: как их используют мошенники
Мошенники используют записи телефонных звонков для подделки голоса - эксперт
СИМФЕРОПОЛЬ, 18 янв – РИА Новости Крым. Голосовые сообщения, записи телефонных разговоров и видеозаписи, размещенные в интернете, могут стать источником для подделки голоса. Мошенники стали подделывать для обмана голоса родных и близких жертвы. Об этом РИА Новости рассказал эксперт рынка НТИ SafeNet Игорь Бедеров.
"Образцы голосов добываются из различных источников. Сюда входят голосовые сообщения, которые могут собираться из мессенджеров, обычные прозвоны, во время которых происходит разговор с роботом или с другим физическим лицом. В случае с популярными людьми, блогерами мошенники могут использовать огромное количество видеозаписей, выступлений, комментариев в СМИ, которые находятся в свободном доступе в интернете", - сказал он.
Речь человека можно синтезировать даже по одному слову. Подделать такие сообщения трудно, поскольку человек использует при разговоре фразы-паразиты, специфические обороты и метафоры, особую, только ему присущую интонацию. Поэтому чем больше материала будет получено, тем проще мошенникам будет "соорудить" правдоподобное голосовое сообщение.
В создании таких ложных голосовых сообщений используются нейросети, объяснила директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз. С их помощью можно генерировать нужные фрагменты, используя записи голоса.
"Мы сегодня понимаем технологии создания этой киберугрозы и мошеннических действий, но нужно придумать массовый и общедоступный способ противодействия ей", - сказала Мосендз.
Сейчас единственный средством борьбы с такими мошенниками может быть критическое мышление. Люди должны улавливать интонации своих близких, сопоставлять факты и делать правильные выводы.
Ранее о появлении
нового вида мошенничества с помощью голосовых сообщений, сгенерированных ИИ, предупреждали в МВД России.
Накануне старта предвыборной кампании в России некоторые
эксперты делали предположения, что Запад может использовать нейросети для фальсификаций на выборах президента РФ. По мнению политолога, замруководителя московского общественного штаба по наблюдению за выборами Александра Асафова, для этого противники России могут использовать фейковый контент, сгенерированный искусственным интеллектом.
Читайте также на РИА Новости Крым: