Мошенники стали использовать записи автоответчиков в РФ для создания дипфейков

0 0

Мошенники стали использовать записи автоответчиков в РФ для создания дипфейков

Мошенники стали использовать записи российских автоответчиков для создания дипфейков, сообщает газета «Известия» со ссылкой на экспертов.

«На сегодняшний день существует множество инструментов для создания поддельных видео и аудиосообщений, которые преступники могут применять даже без особых технических знаний», – сказал ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров.

Чтобы повторить голос человека достаточно короткой записи, но качество такого аудио будет неубедительным, указал руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин. Так, отрывок в 3 секунды воссоздаст тембр голоса, но для эмоций и характерных черт нужна более длинная запись, считает руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов.

Фиксировать подобное происхождение дипфейков сложно, так как специалисты обычно сталкиваются с уже готовыми имитациями голосов. Но эксперт по кибербезопасности Angara Security Никита Новиков не исключил, что именно автоответчики являются одним из самых популярных способов для получения реального голоса человека.

Кроме того, мошенники получают сразу телефонный номер и образец голоса, не прибегая ко взлому или другим манипуляциям. Затем преступники записывают голос злоумышленника и заносят аудио в нейросеть, которая воспроизведет голос с нужным звучанием.

Подобные аудиозаписи потом используются во множестве преступных схем, включая просьбы одолжить денег, рассылаемые коллегам жертвы или родственникам. Эксперты уверены, что искусственный интеллект создает все более качественные подделки, делая интонации голоса все естественнее.

«Высококачественный аудиофейк с разнообразным контентом потребует специалиста высокой квалификации и стоимости. Поэтому качественные комплексные подделки с разнообразным контентом относятся к таргетированному фишингу», – добавил Бузинов.

Зачастую голосовые подделки заметны на слух при тщательном прослушивании, но пока очень мало возможностей проверки на подлинность для голосовых сообщений, сетуют эксперты. При этом существует множество алгоритмов выявления артефактов голоса и обнаружения искусственно сгенерированного контента, но средства для анализа всех случаев подделок с высокой скоростью и качеством работы пока нет.

Чтобы защититься от такого мошенничества стоит не записывать автоответчик, а воспользоваться услугами операторов связи, которые имеют собственные инструменты. Так, вместо человека звонящему ответит робот.

«Чтобы у злоумышленника не было возможности сымитировать голос, рекомендуется либо отказаться от автоответчика в принципе, либо использовать какой-то роботизированный аналог», – сказал Новиков.

Чтобы, в свою очередь, самому не попасться на уловку мошенников, эксперты советуют всегда проверять информацию отправителя звонком на номер, сохраненный в телефонной книге. Также стоит соблюдать правила безопасного общения в мессенджерах и в целом перепроверять всю поступающую информацию.

«Если вам звонят знакомые с просьбой что-то передать или перевести деньги, перезвоните им самостоятельно и задайте два вопроса: один – который знают только они, и второй – заведомо неправильный для них, но обычный для постороннего человека», – указал старший инженер по информационной безопасности R-Vision Дмитрий Бурмашов.

Ранее стало известно, что телефонные и интернет-мошенники каждый день похищают у россиян около миллиарда рублей. Это сотни миллиардов рублей в год, которые растут ежегодно на 20–30%, уверены эксперты. Так, каждый мошенник в день совершает 300–400 звонков.

Источник: www.m24.ru

Оставьте ответ

Ваш электронный адрес не будет опубликован.