Участникам было предложено разработать алгоритм генерации голосового дипфейка – программы, которая копирует голос конкретного человека. В мессенджере Telegram появился бот Voices of Strangers, который по запросу присылает пользователям голосовые сообщения от незнакомых людей. Куценко, IT-эксперт, рассказал о том6 как мошенники обманывают людей с помощью подделанных голосовых сообщений в сети.
Харламов опроверг фейки о заявлениях про Украину
Мошенники вооружились ИИ для вымогательства с помощью фейковых голосовых сообщений | Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин. |
Можно ли украсть личные данные через голосовое сообщение WhatsApp? Почти | Как сообщили IT-специалисты, чтобы создать правдоподобное голосовое сообщение от имени любого пользователя, злоумышленнику достаточно небольшой записи его голоса. |
WhatsMock – создать фейк переписку WhatsApp 1.13.4 | В мессенджере «VIBER» c неизвестных номеров происходит рассылка голосовых сообщений с призывами к эвакуации из-за угрозы обстрелов приграничных с Украиной. |
Захарова заявила, что Россия продолжит открывать глаза миру на украинские фейки — РТ на русском | Глава региона сообщил о новом фейке – недоброжелатели начали подделывать его голос и рассылать голосовые сообщения жителям Белгородской области. |
«Скинь денег срочно». Мошенники научились подделывать голоса ваших друзей | АиФ Пермь | Еще новости. Фейк: «Вышки 5G маскируют под сосны, чтобы держать людей в неведении». |
Роскачество: мошенники могут имитировать голос родственника, чтобы украсть деньги
В мае 2021 года популярным стал ролик, в котором Алекса предсказала страшный ураган и наводнение, которое в 2025 году сотрёт с лица земли Майами. Формат ответа о событиях 2025 года точно такой же, как и ответ на вопрос о Третьей мировой, отмечают в издании. Фактчекеры портала Snopes выяснили, что Алекса даёт ответ об урагане лишь на видео, а в реальности, если задать голосовому помощнику аналогичный вопрос, искусственный интеллект говорит о прогнозируемом дефиците кадров в штате Флорида. При этом дефицит кадров спрогнозировали ещё в 2021 году и предсказанием это не являлось.
Это сообщение стало вирусным в Казнете еще в январе 2022 года. Тогда его распространяли от имени Комитета национальной безопасности. Тогда же ведомство сообщило, что все это ложь и никаких "новых правил коммуникации" в нашей стране нет. Кроме того, эта рассылка, только без упоминания в тексте Комитета национальной безопасности, распространялась в России.
Дипфейк — это очень достоверная копия чего-либо. Термин получил распространение с развитием нейросетей, но поначалу касался только видео — искусственный интеллект позволил делать визуальные цифровые копии людей, что стали применять в рекламе, мошенничестве и порнографии. Есть немало примеров, когда мошенники шантажировали своих жертв при помощи сгенерированных порно - дипфейков с ними. Фото: FreePik Те, кто любит разыгрывать звонящих им мошенников - в опасности. Их голос может записываться С голосом примерно та же схема, только здесь чаще всего жертвами становятся не сами владельцы голосов, а их друзья, знакомые и родственники. Например, при помощи голосового дипфейка можно вымогать деньги. Все только начинается На проблему безопасности голосов россиян обратили внимание эксперты ИБ-компании Angara Security. Они сообщил CNews, что объявления с набором актеров озвучания стали появляться на крупнейших платформах размещения вакансий , а также в Telegram. Некоторые «ортодоксальные» мошенники по-прежнему полагаются на обзвоны — они звонят совершенно незнакомым людям и предлагают им работу. Однако нет никакой гарантии того, что даже во время этого телефонного разговора не ведется запись, которая в дальнейшем превратится в виртуальную копию голоса.
Установлено, что данная киберкампания была запущена 28 марта; мобильного трояна вначале выдавали за софт для защиты от спама. По состоянию на 24 апреля зловреда детектируют 16 из 65 антивирусов коллекции VirusTotal. Подписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.
Харламов опроверг фейки о заявлениях про Украину
Сюжет Фейк Губернатор Вячеслав Гладков в утреннем обращении сообщил, что в Сети уже начали подделывать его голос. Глава региона напомнил, что он никогда не рассылает голосовые сообщения. Как отметил Гладков, в регионе уже привыкли к рассылкам писем с поддельными подписями различных чиновников. Привыкли и к созданию фейковых видео, с помощью которых пытаются создать социальную напряжённость в Белгородской области. Бороться с этим уже научились, однако прогресс на месте не стоит.
Обеспокоенные жители услышали по радио голос, похожий на привычный россиянам голос главы государства. Подобные случаи фиксировались уже несколько раз. Однако сегодня было что-то новое. Про указ, который подпишет Владимир Путин, означающий всеобщую мобилизацию, воронежцы еще не слышали.
После этого в систему загружается вредоносное ПО. Мошенническую схему нашли специалисты компании по информационной безопасности Armorblox. По их данным, вредонос был отправлен как минимум на 27 655 электронных адресов.
Тогда она сообщила знакомым, что это неправда, и пришла в нижнекамскую телерадиокомпанию, чтобы опровергнуть фейковую новость. Спустя два дня нижнекамку привлекли к ответственности за «Злоупотребление свободой массовой информации».
Власти Воронежской области напомнили, что не стоит доверять паникерским рассылкам в мессенджерах
«Завязав» диалог, мошенники копируют старые голосовые сообщения, что убеждает собеседника, что с ним действительно общается его знакомый или родственник. Как сообщили IT-специалисты, чтобы создать правдоподобное голосовое сообщение от имени любого пользователя, злоумышленнику достаточно небольшой записи его голоса. Обеспокоенные жители услышали по радио голос, похожий на привычный россиянам голос главы государства. Вы самостоятельно пишете его имя, устанавливаете аватарку, а также набираете сообщения от его имени.
КАК ОТПРАВИТЬ ФЕЙКОВОЕ ГОЛОСОВОЕ СООБЩЕНИЕ ВКОНТАКТЕ
Член комитета Госдумы по обороне генерал Андрей Гурулев назвал фейком информацию о том, что Россия якобы планирует военную операцию в Казахстане. Жительницу города Альметьевск (Татарстан), записавшую и отправившую ложное голосовое сообщение о коронавирусе, оштрафовали на 30 тыс. рублей. «Залог успешного фейка в том, чтобы сообщение стало «вирусным», «инфицировало» как можно больше умов». Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин.
Подписка на дайджест
- Украли голос
- Регистрация
- Фабрика дипфейков: как подделывают голоса
- Зачем мошенники копируют ваши голосовые сообщения из мессенджеров
В WhatsApp мошенники стали подделывать голосовые сообщения
Мошенники массово воруют голоса россиян. Как не стать их жертвой? | Эти голосовые сообщения значительно расширяют возможности злоумышленников использовать подделки. |
Мошенники подделывают голоса с помощью нейросетей: как защитить свой голос и не стать их жертвой | На оперативном штабе по коронавирусу опровергли информацию, которая передается голосовым сообщением в мессенджерах. |
Информационная безопасность операционных технологий | Ее суть заключается в том, что, получив образцы голоса человека из голосовых сообщений, которые он слал друзьям и знакомым, мошенники генерируют другие сообщения с необходимым им текстом. |
По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк
Чтобы отличить голосовой дипфейк, который используют мошенники, следует внимательно прислушаться к смене тона, громкости, несогласованности предложений, посоветовал эксперт по кибербезопасности Евгений Баклушин. Мол, техническая возможность сделать фейковое голосовое сообщение на основе собранных образцов есть, но это заведомо невыгодный сценарий, ведь подделка голоса требует специфических навыков, которые мошенник может использовать с гораздо большим выхлопом. Глава региона сообщил о новом фейке – недоброжелатели начали подделывать его голос и рассылать голосовые сообщения жителям Белгородской области. Единственное, что в этом сообщении правда – то, что информация о голосовых звонках хранится в течение полугода и может быть использована МВД, ФСБ, ФСО, СВР и ФСИН по решению суда. Искусственный интеллект помогает кибермошенникам генерировать голосовые сообщения и с их помощью разводить пользователей WhatsApp. Руководство компании WhatsApp сообщило, что в мессенджере была обнаружена уязвимость, с помощью которой хакеры-злоумышленники через голосовые сообщения могли устанавливать на телефон шпионские программы.