Новости мошенники подделывают голос

Мошенники в России научились подделывать голос по телефону и в социальных сетях. Мошенник подделал голос друга и выманил 50 000 ₽. Мошенники начали подделывать голоса с помощью нейросети. Александра показывает переписку – от ее имени мошенники отправили знакомым десятки сообщений. Телефонные мошенники научились подделывать не только номера, но и голоса. Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке.

Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч

Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева).

ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян

Как работает новая схема мошенничества с подделкой голоса Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк.
Мошенники активно выманивают образцы голоса россиян Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека (родственника или коллеги).
Телефонные мошенники стали подделывать номера и голоса родственников Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде.
Мошенники научились подделывать голоса и видео. Как распознать подмену Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов.
Телефонные мошенники стали подделывать номера и голоса родственников - Бинкор Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве.

Мошенники научились подделывать голоса и видео. Как распознать подмену

Также развивается технология deepfake: преступники подделывают голос близких людей жертв. Кибермошенники нередко представляются известными сервисами доставки: они отправляют поддельные ссылки якобы для отслеживания статуса заказов. Также злоумышленник может попросить жертву перейти в мессенджер из официального приложения.

За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист. За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса.

Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон.

Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию. Также следует соблюдать конфиденциальность в соцсетях и мессенджерах, чтобы ограничить возможность получения голосовых данных третьими лицами, — говорит специалист. Как поясняет Багдасарян, если злоумышленник получит доступ к профилю в соцсети, он воспользуется не только образцами голоса, но и дополнительной контекстной информацией о человеке, что в дальнейшем позволит ему более убедительно взаимодействовать с жертвой.

Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги?

С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков.

Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям.

Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека.

Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги. Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным. Можно качественно подделать тембр и интонацию человека. По словам экспертов, количество таких атак будет только расти: "не исключаем и использование видеозвонков с одновременным синтезом речи и изображения звонящего".

Последние новости

  • Юная мошенница забрала крупную сумму у пенсионерки в Карелии, но все вернула
  • Сейчас на главной
  • Материалы по теме
  • Мошенники подделывают голоса и крадут деньги – ГТРК «Коми Гор»

Пенсия.PRO

Один из новых способов кражи денег: звонки под видом работника службы безопасности банка. Жертву предупреждают, что скоро ей позвонят из полиции, — и обманутый человек диктует данные банковской карты. Также развивается технология deepfake: преступники подделывают голос близких людей жертв.

Вместе с юристами мы разбираемся, как россиянам обезопасить себя от новой мошеннической схемы и что делать, если вы все же стали жертвой.

Как мошенники научились подделывать голос с помощью нейросети? Новая схема опасна тем, что она не выглядит как обман и работает абсолютно легально. Мошенники размещают объявления о поиске людей для озвучки рекламных роликов или даже фрагментов фильмов или сериалов.

За эту работу, разумеется, предусмотрена оплата, которую, как правило, люди действительно получают — именно поэтому никаких подозрений подобные схемы не вызывают. Проблемы начинаются уже после отправки голосовой записи и получения оплаты за нее. Злоумышленники используют полученные образцы голосов для обучения нейросетей, которые впоследствии генерируют голосовые сообщения, которые практически невозможно отличить от настоящих.

Их они рассылают знакомым и близким жертвы, выманивая деньги под разными предлогами. Как мошенники записывают голоса других людей? Это не единственная преступная схема с использованием голосовых записей жертвы для кражи денег у его знакомых.

Еще в январе пользователи Telegram столкнулись с похожим, но чуть более примитивным алгоритмом обмана. Мошенники получали доступ к аккаунту пользователя, просматривали историю переписок, чтобы максимально скопировать манеру общения реального человека, и отправляли людям из списка контактов сообщения с просьбой перевести деньги. Для убедительности после нескольких текстовых сообщений они присылали голосовое, которое или было сгенерировано с помощью искусственного интеллекта, или смонтировано из фрагментов старых аудиосообщений из переписок.

Как защитить свой голос от мошенников?

Необходимо высочайший класс экспертов, и не каждая организация с этой задачей справится. Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике. Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало. Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов.

Говорить про защиту интеллектуальных прав пока преждевременно. Сейчас в некоторых судах даже иски о защите чести и достоинства остаются диковинкой, не говоря уже о нейродипфейках», — указал защитник. Хорошо забытое старое Преступники уже давно используют синтез голоса для различных злоупотреблений, не афишируя доступность технологии модуляции и её мощности для обывателей, уверен бывший следователь и действующий адвокат Александр Бурчук.

На этот раз меня окатила волна спасения, радости и счастья. Извини, мне просто стали лечить второй зуб, и я телефон отключила. После этого случая «незнакомый телефон» меня больше не беспокоил. А когда я попытался по нему дозвониться, то тот абонент был уже не абонент. Как выяснилось, жертвой такого жесткого приема был не я один. И я еще легко отделался. Другие жертвы в панике за своих детей все-таки заплатили выкуп. И денег своих больше уже никогда не увидят. Илья Тараканов Так, как же может искусственный интеллект так ловко затуманить мозг родителю, который знает голос и интонацию своего ребенка лучше, чем свои пять пальцев? И как мог робот догадаться, что ребенка нет дома, и он мог как раз в это время переходить дорогу? Сегодня, когда раскручиваются такие бренды как ChatGPT, способный поддерживать диалог с пользователем и генерировать любой контент подделать голос совсем не сложно. Для этого мошенники с помощью нейросетей узнают все необходимые личные данные, номера телефонов членов вашей семьи. Их возраст, данные геолокации. Затем звонят вашей дочери, например, предлагают кредит. Задают несколько вопросов, записывают ее голос с характерными интонациями в зависимости от тем, которые они с ней обсуждали, а далее за них все сделает программа.

Мошенники подделывают голоса и крадут деньги

Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ. Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. В России активизировались мошенники, подделывающие голоса близких и коллег своих потенциальных жертв. С помощью специальных программ злоумышленники подделывают голоса родных, друзей или коллег. Мошенники подделывают голоса людей, выманивая таким образом деньги.

Киберпреступники освоили технологию замены голоса для шантажа и мошенничества — эксперт

В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции. Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей.

Телефонные мошенники стали подделывать номера и голоса родственников

Кроме того, врача убедили взять кредит для погашения якобы оформленных на неё заявок в нескольких банках. Александра послушно следовала советам и 20 июля отправилась в банк. Там она оформила кредит и обналичила деньги. Звонивший просил внести сумму на счёт и перевести через приложение «Мир Пэй».

Но телефон женщины не позволял скачать и установить это программное обеспечение. Тогда мошенник убедил Александру купить другой смартфон и осуществить операцию через него. Женщина так и поступила.

Затем по просьбе голоса в трубке она ещё дважды повторила действия с кредитом и переводом денег в двух других банках. Александра снова посетила в банк и обнулила свои счета.

Эксперты отмечают еще один источник данных для мошенников — это видеоконтент из соцсетей, который находится в свободном доступе, отмечают авторы исследования. Кроме того, с начала 2024 г. Увеличение популярности мошеннических схем с применением техники социальной инженерии и дипфейков отмечают и исследователи компании F. По словам ведущего аналитика департамента Digital Risk Protection F. Евгения Егорова, в одном мошенническом сценарии злоумышленники заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника.

Среди других распространенных способов мошенничества с использованием дипфейков и социальной инженерии Мельников назвал обход систем безопасности в сервисах с голосовой идентификацией, а также создание видеоконтента с использованием лиц и голосов знаменитостей. Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он.

Но у женщины такой суммы не оказалось, согласились на 55-ть. При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора.

Оказалось, что все это время за ней велась слежка. Взяв деньги, злоумышленник испарился, и только потом женщина, придя домой и дозвонившись до сына, выяснила, что все это был большим спектаклем, который разыграли мошенники. Ни в какое ДТП ее сын не попадал. Полицейские задержали подозреваемого уже через несколько дней, и старались чтобы на очной ставке родственники обманутой женщины не устроили самосуд.

Тембр, интонация. Да и сам голос, будто записанный на бегу, — все это так напоминало настоящего собеседника.

Скорее всего, образец мошенники взяли из аудиосообщений во взломанном мессенджере. Просто надо чистить кэш наверное, убирать голосовые. Тогда не будет таких ситуаций, даже если взломают", — рассказала жертва мошенников Александра Никитина. С появлением новой схемы мошенничества под удар попадают все, кто отправляет голосовые сообщения. И даже любителям текстовых теперь стоит задуматься, какие видео они публикуют в социальных сетях. Ведь для создания клона голоса достаточно записи длиной всего в несколько минут.

Возьмем любой ваш сюжет, тут вы говорите что-то, мы возьмем этот голос, дальше закинем в программу", — рассказал специалист по информационной безопасности Роберт Симонян. Нейронная сеть думает и достаточно быстро выдает черновую версию.

Эксперт рассказал, как распознать в телефонном собеседнике мошенника

Автор материала почти поверил ИИ На днях я отпустил свою тринадцатилетнюю дочку одну, в детскую стоматологическую клинику. Перед выходом еще раз строго объяснил: как ехать на автобусе, как переходить дорогу, с кем нельзя разговаривать и так далее по списку. Дочка уже не раз ездила туда самостоятельно и для нее это было очередное приключение. Прошло два часа и ребенку пора было уже позвонить, что зубная процедура пройдена и она едет домой. Я уже стал прислушиваться к телефону, как вдруг он и вправду зазвонил. Номер высветился незнакомый, но к моему ужасу я услышал в трубке плачущий голос своей дочери. Меня привезли в реанимацию.

У меня сломано три ребра, порвана губа и еще с ногой что-то не так. А этот телефон мне дала добрая тетя-водитель. Да что еще можно чувствовать в такой момент. Следователь сказал, что девочка в машине при аварии из-за меня пострадала и на ее лечение нужно полтора миллиона рублей. Тут я наконец-то с усилием включил мозг и понял, что меня откровенно разводят. Я положил трубку.

И попытался представить, что у дочки сейчас на самом деле все в порядке и стал названивать ей на мобильный. А вот тут меня накрыла уже вторая волна липкого ужаса.

Но у женщины такой суммы не оказалось, согласились на 55-ть. При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора. Оказалось, что все это время за ней велась слежка.

Взяв деньги, злоумышленник испарился, и только потом женщина, придя домой и дозвонившись до сына, выяснила, что все это был большим спектаклем, который разыграли мошенники. Ни в какое ДТП ее сын не попадал. Полицейские задержали подозреваемого уже через несколько дней, и старались чтобы на очной ставке родственники обманутой женщины не устроили самосуд.

Соответственно, они уделяют максимальное внимание сохранности персональных данных клиентов и в целом кибербезопасности своих внутренних систем», — сказал IT-эксперт. Алгоритмы настроены таким образом, что идентификация происходит по целому ряду параметров: учитывается устройство, с которого происходит звонок, его местоположение, IP-адрес и номер телефона, перечислил он. Только совокупность корректных данных позволит открыть доступ к управлению счетом или другими услугами Шамиль МагомедовIT-эксперт «Кроме того, представители банковских структур не раз подчеркивали, что операторы, принимающие звонок, также снабжены подробными инструкциями и могут различить "красные флажки", сигнализирующие о возможных мошенниках», — отметил собеседник. Цифровая гигиена При этом Магомедов напомнил, что забывать о простых правилах цифровой гигиены не стоит. Если вашего голоса нет в базах данных, и вы не дали согласие на доступ к своим данным с помощью биометрии, то и преступники не смогут "притвориться" вами», — сообщил эксперт.

В целом, хотя развитие искусственного интеллекта может представлять новые риски для кибербезопасности, простые меры предосторожности и правовая защита могут помочь предотвратить неправомерное использование личной информации.

Пенсия.PRO

Мошенники научились подделывать аудио и видео с помощью ИИ - Москва 24 Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей.
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы.
Эксперт рассказал, как распознать в телефонном собеседнике мошенника Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах.

Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком

Сама технология не нова: ещё в 2019 году мошенники украли $250 тысяч у главы британской энергетической компании, задействовав фальшивый голос по смартфону. В России активизировались мошенники, подделывающие голоса близких и коллег своих потенциальных жертв. Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих!

Прозвони мне, прозвони. IT-эксперты рассказали, как мошенники подделывают голоса россиян

Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах. С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного.

Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись

Неожиданно, заказ отменяется. Печаль… Дальше вы получаете сообщение от продавца, которое сулит какой-то один из трёх вариантов развития событий «Извините, с маркетплейсом накладка вышла, давайте мы вам напрямую отправим из нашего магазина? Оплатите, пожалуйста, по этой ссылке». Дальше покупатель попадает на фишинговый сайт, где оставляет данные карты и её стремительно обнуляют.

Или же, в лучшем случае, он отправляет только стоимость товара. Деньги вам всё равно вернутся, раз процедура возврата запущена. Но и товар на самом деле к вам тоже едет.

Вы могли бы, коли вы получите и товар, и деньги, оплатить нам стоимость товара сейчас по этой ссылке? Дружно лайкаем Эта схема изощрённее. Судя по найденной информации, практикуют её жители поднебесной.

Возможная жертва получает сообщение с предложением заработать деньги простым способом — лайкать товары. Дескать, таким образом магазин продвигает себя на площадке. Делов-то, поставить с десяток лайков и получить на карту небольшую сумму.

Заинтересованная жертва вступает в чат, где другие «коллеги» обсуждают выполнение заданий. Сомневаются, успокаивают друг друга. Жертва ставит лайки, шлёт их скриншоты и видит скриншоты других.

Получает свои небольшие деньги на карту! Отлично, первый уровень пройден, появилось доверие к источнику небольшого, но заработка.

Такая технология применяется сегодня и для создания компрометирующего материала для шантажа, — говорит он. Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека родственника или коллеги. Они просят перевести деньги таким способом или сообщить код из СМС. С помощью ИИ мошенники могут автоматизировать этот процесс, масштабировать атаки и увеличить их эффективность, — отметил эксперт.

Тогда обман и вскрылся. Ей сообщили, что директор в отпуске, более того, у них не принято так отправлять деньги. На кибермошенников, подделавших голос Колмыкова через нейросети, подали заявление в полицию.

Проводится проверка.

Порой сам разговор не содержит откровенно подозрительных признаков: пользователей просят просто ответить на несколько вопросов», — сообщил IT-эксперт. Он отметил, что многих беспокоит — не являются ли такие странные звонки способом сделать слепок голоса, чтобы в дальнейшем использовать его для доступа к банковским счетам и другой важной информации. Тем более технологии развиваются стремительно. Искусственный интеллект сымитировал голос владельца счета, и системы открыли доступ к денежным средствам», — рассказал собеседник «Ленты. Однако для полноценного снятия слепка голоса нужен объемный датасет — то есть набор данных.

Похожие новости:

Оцените статью
Добавить комментарий