Deep Fake Elon Musk наводнит YouTube во время запуска SpaceX в Крипто-мошеннической вспышке

2024-06-19, 07:44

[TL; DR]

Недавно некоторые мошенники использовали технологию дипфейка, чтобы имитировать голос и действия Илона Маска и обмануть людей на инвестирование в программу крипто-мошенничества.

Мошенники используют искусственный интеллект и машинное обучение для создания голосов и манеризмов известных личностей, чтобы продвигать криптовалютные мошеннические схемы.

Организации должны обучать свой персонал обнаружению и обработке случаев глубокого фейка.

Введение

Продвижение технологий привело к возникновению гораздо больших рисков, чем когда-либо ранее. Например, некоторые злонамеренные актеры используют искусственный интеллект и сопутствующие технологии для подделки голосов и действий известных людей с целью вводить в заблуждение свою аудиторию и красть их цифровые активы. В частности, эти плохие актеры подделывают новости и создают глубокий фейк в видео, чтобы вводить в заблуждение инвесторов и обманывать их. В этой статье рассматривается, как некоторые из этих злонамеренных актеров создали глубокий фейк Elon Musk на YouTube во время запуска SpaceX.

Читайте также: Илон Маск обвиняется в манипулировании Dogecoin

Раскрывается масштабное мошенничество: на YouTube появилось более 35 поддельных прямых эфиров с участием Элона Маска

6 июня некоторые мошенники затопили YouTube глубоким фейком видео Элона Маска, пытаясь использовать инвесторов криптоактивов во время запуска SpaceX. Во время события запуска ракеты Starship мошенники транслировали голос, созданный искусственным интеллектом, Маска на более чем 35 каналах YouTube. Через прямую трансляцию они подделывали голос и манеру Маска, чтобы привлечь инвесторов в криптопроект, где обещали инвесторам заработать в два раза больше их вложенных сумм.

Видео показало, как если бы Маск говорил на открытом воздухе на SpaceX. Однако видео имело размытые секции, запрограммированные таким образом, чтобы скрыть реальность ситуации. Мошеннические потоки, совпадающие с запуском четвертого испытания SpaceX, направляли ракету в точку, где она входила в атмосферу с Земли. Оно также показало момент, когда ракета упала в Индийский океан, как было запланировано.

Читайте также: Схемы мошенничества с надписями и как их предотвратить

Выявление фальшивых потоков: технология дипфейков используется для имитации внешности и голоса Илона Маска

Наложив на себя различные элементы, имитаторы заставляли аудиторию верить, что это был Элон Маск, который говорил с ними. Согласно Издание Cointelegraph, видеоканал на YouTube выдавал себя за официальный канал SpaceX и проводил мошеннический прямой эфир, который привлек более 170 000 зрителей. Некоторые эксперты считают, что большая часть зрителей были всего лишь ботами, используемыми для убеждения аудитории, что это легитимный прямой эфир. Такое влияние на зрителей было призвано привлечь криптоинвесторов к инвестициям в предполагаемый проект Маска.

Голос, созданный искусственным интеллектом, похожий на Маска, убедил аудиторию отправить различные виды криптовалют, такие как Биткойн или Эфира на указанные цифровые адреса кошельков. Создатели видео с глубоким фейком сделали многое, чтобы убедить людей, что это был именно Маск, который говорил. Например, они включили его обычные манеры и другие аспекты его естественного голоса, такие как заикания и паузы. Это было очевидно, когда голос сказал«Это не фальшивка, это настоящий подарок. Я лично гарантирую вам это». Также был QR-код, который инвесторы сканировали, чтобы сделать свои криптовалютные депозиты.

Голос добавил: “У вас есть шанс увидеть, как ваша криптовалюта взлетает экспоненциально, когда наша ракета движется к звездам”. Этому заявлению последовал аплодирующий толпой, голоса которой также были поддельными. На данный момент нет точной цифры количества людей, которые попали в ловушку через этот мошеннический YouTube-сайт. Однако есть доказательства того, что некоторые люди отправили свою криптовалюту на указанные адреса. На следующем скриншоте показан человек, который отправил криптовалютные активы на сумму $30 на один из кошельков мошенников.

Источник: x.com

Однако потоковые видео были позже сняты, и канал был переименован, чтобы имитировать Кардано Фонд. Mysk, исследовательская группа, была первой, кто предупредил Криптосообщество криптовалютного мошенничества как показано на следующем изображении.

Источник: x.com

Несомненно, Маск помогает криптовалютному сообществу осознать опасность, в которой оно находилось в то время. Такие предупреждения об онлайн-безопасности необходимы для сохранения достоинства сектора цифровых активов. Однако это не первый раз, когда Маска втягивают в такую ​​мошенническую схему. Мошенники нацеливаются на крипто-миллиардера из-за его открытой поддержки криптовалют и его рекомендации нескольких криптопроектов, таких как Догекоин и Shiba Inu Например, в апреле Талал Хадж Бакри и Томми Миск обнаружили еще один фальшивый аккаунт SpaceX на YouTube с похожим сообщением, приглашающим криптоинвесторов инвестировать в мошеннический проект, удваивающий ваши деньги.

Более широкие последствия для крипто и онлайн-безопасности

Во-первых, следует отметить, что deepfakes используют мощные техники искусственного интеллекта и машинного обучения для манипулирования аудио- и видеоконтентом с целью обмануть определенные сегменты общества. Поэтому лучшим средством противодействия таким манипуляциям является использование аналогичных технологий для обнаружения deepfakes и снижения угрозы кибербезопасности, которую они представляют.

Другими словами, организации, включая цифровые компании, должны использовать технологии машинного обучения и искусственного интеллекта для аутентификации визуального и аудио контента, который они могут считать подозрительным. Поэтому организации должны инвестировать в соответствующие решения машинного обучения, которые используют автоматизацию для обнаружения и верификации живости. Это связано с тем, что то, что человеческий глаз может пропустить, системы, основанные на машинном обучении, могут обнаружить.

Во-вторых, организации должны создать системы для управления новыми кибербезопасностями, связанными с deepfakes и personification. К примеру, они должны включить обучение по осведомленности о deepfake в рамках своих образовательных программ по кибербезопасности. Другими словами, они должны обучить свой персонал всех уровней в организации распознавать deepfake-контент и реагировать соответственно.

Наконец, для организаций, работающих в цифровом секторе, важно разработать способы взаимодействия друг с другом в случае возникновения инцидентов с deepfake. Они также должны сотрудничать с правоохранительными органами в решении подобных случаев.

Заключение

Случаи глубокой фейковой видеозаписи участились в цифровой индустрии, особенно в секторе криптовалют. Недавно некоторые крипто-мошенники выдавали себя за Маска, чтобы обмануть некоторых инвесторов. вложить свои средства в мошенническую криптовалюту. Однако такие организации, как Mysk, смогли обнаружить эту угрозу кибербезопасности. В будущем организации в цифровом секторе должны обучать свой персонал обнаруживать и бороться с случаями дипфейков.


Автор:Машелл С., исследователь Gate.io
Эта статья представляет только точку зрения исследователя и не является инвестиционными рекомендациями.
Gate.io оставляет за собой все права на эту статью. Перепост статьи будет разрешен при условии ссылки на Gate.io. Во всех случаях будут предприняты юридические действия в связи с нарушением авторских прав.


Поделиться
Contenido
gate logo
Gate
Торгуйте сейчас
Присоединяйтесь к Gate и выигрывайте награды