
Если знакомый голос в трубке просит денег — не торопитесь помогать
Технологии искусственного интеллекта (ИИ) в области клонирования голоса достигли впечатляющего уровня, позволяя воспроизводить тембр, интонацию и манеру речи человека на основе всего нескольких секунд аудиозаписи. Мошенники активно пользуются новыми возможностями, и проблема заключается в том, что большинство людей пока не могут свыкнуться с мыслью, что нельзя доверять не то что электронной почте и текстовым сообщениям, но и знакомому голосу в трубке.
Известно, что голос – уникальный идентифицирующий признак каждого человека. В телефонных звонках доверие между знакомыми собеседниками моментально устанавливается, если они слышат и узнают голос друг друга. Чем мошенники успешно пользуются. Это могут быть звонки бабушкам и дедушкам якобы от внуков с просьбой срочно переслать деньги, могут быть звонки от якобы похищенных детей с требованием выкупа, могут быть звонки от якобы оказавшихся в сложной ситуации за границей знакомых.
Сегодня попытки подобных афер происходят все чаще из-за повышенной точности, доступности и дешевизны инструментов ИИ для клонирования голоса. Еще в 2023 году компания OpenAI представила модель ИИ под названием Voice Engine, способную копировать голос любого человека, используя всего лишь 15-секундную запись его речи. Эта технология открывает новые возможности, но также вызывает опасения относительно ее потенциального злоупотребления.
Доступные сервисы и отсутствие регулирования
Несмотря на растущее число злоупотреблений, регулирование в этой сфере остается слабым. В условиях правового вакуума индустрия продолжает саморегулироваться, но эффективность этих мер вызывает сомнения.
Недавние исследования показали, что многие популярные сервисы синтеза речи позволяют создавать копии голосов без согласия их владельцев. Пользователю достаточно загрузить аудиозапись из открытых источников, и сервис автоматически создаст искусственную копию голоса. В большинстве случаев защита ограничивается простым подтверждением наличия разрешения, что легко обходится.
Такие платформы, как ElevenLabs, Speechify, PlayHT и Lovo, полагаются на формальное подтверждение от пользователя. Resemble AI требует записи фразы в реальном времени, но этот барьер можно обойти с помощью заранее подготовленного аудиофайла. Единственным сервисом с относительно надежной защитой является Descript, который требует произнести конкретное согласительное заявление, что сложнее подделать.
В марте прошлого года Федеральная торговая комиссия (FTC) разослала американским потребителям предупреждение о том, что мошенники теперь используют искусственный интеллект для улучшения своих схем. По данным FTC, все, что нужно мошенникам, – короткий образец голоса человека (от трех секунд), который можно получить, просто позвонив на номер потенциальной жертвы и обменявшись с ней несколькими фразами.
Жертвой мошенников может стать каждый
Представители Федеральной торговой комиссии отмечают, что с развитием интернета и ИИ-технологий практически никто не защищен от подобного рода атак, да и разумно мыслить в стрессовой ситуации сможет далеко не каждый.
70% респондентов, принявших участие в исследовании McAfee, не уверены, что они смогли бы отличить подделку от настоящего голоса, особенно если звонящий мошенник притворяется не самым близким знакомым жертвы.
45% опрошенных сказали, что ответили бы на сообщение от друга или родственника, нуждающегося в деньгах, особенно если бы они подумали, что это их вторая половинка (40%), родитель (31%) или ребенок (20%). А самые вероятные причины для запроса помощи, которые назвали респонденты, – авария (48%), ограбление (47%), потеря телефона или кошелька (43%), проблемы за границей (41%).
В Израиле на сегодняшний день телефонные мошенники не заходят дальше подмены номера телефона, представляясь сотрудниками банков или других организаций, но можно не сомневаться, что мошеннические схемы с использованием ИИ вскоре появятся и у нас.
Тем не менее специалисты советуют при поступлении подобного звонка не верить тому, что говорит мошенник, как бы убедительно это ни звучало. Лучше сбросить вызов и позвонить напрямую человеку, голос которого злоумышленники, предположительно, скопировали. Если такого варианта нет, стоит связаться с родственниками этого человека и разузнать, не пытаются ли вас обмануть.
Юрий Легков, «Детали».Фото: depositphotos.com ∇
Будьте всегда в курсе главных событий:
