Deep Fake Elon Musk überflutet YouTube während des SpaceX-Starts im Krypto-Betrugsschub

2024-06-19, 07:44

[TL; DR]

Kürzlich haben einige Betrüger Deepfake-Technologie eingesetzt, um Elon Musks Stimme und Handlungen zu imitieren und die Menschen zu täuschen, in ein Krypto-Betrugsprogramm zu investieren.

Betrüger nutzen künstliche Intelligenz und maschinelles Lernen, um KI-generierte Stimmen und Verhaltensweisen prominenter Persönlichkeiten zur Förderung von Kryptobetrug einzusetzen.

Organisationen sollten ihre Mitarbeiter über die Erkennung und den Umgang mit Deep-Fake-Fällen aufklären.

Einführung

Der Fortschritt in der Technologie birgt größere Risiken als je zuvor. Zum Beispiel nutzen einige bösartige Akteure künstliche Intelligenz und verwandte Technologien, um Stimmen und Handlungen prominenter Personen zu fälschen, um ihr Publikum zu täuschen und ihre digitalen Vermögenswerte zu stehlen. Insbesondere fälschen diese bösen Akteure Nachrichten und Deepfake-Videos, um Investoren zu täuschen und zu betrügen. Dieser Artikel untersucht, wie einige dieser bösartigen Akteure Elon Musk bei einem YouTube-Video während des SpaceX-Starts deepfakten.

Lesen Sie auch: Elon Musk wird beschuldigt, Dogecoin zu manipulieren

Der Betrug entfaltet sich - Wie über 35 gefälschte Elon Musk-Live-Streams auf YouTube erschienen

Am 6. Juni überschwemmten einige Betrüger YouTube mit Deepfake-Videos von Elon Musk, als sie versuchten, Krypto-Investoren während der Startphase von SpaceX um ihre digitalen Vermögenswerte zu bringen. Während des Starship-Raketenstarts übertrugen die Betrüger die KI-generierte Stimme von Musk auf über 35 YouTube-Kanälen live. Durch den Livestream imitierten sie Musks Stimme und Manierismen, um Investoren zu einem Krypto-Projekt zu locken, bei dem sie den Investoren versprachen, ihre investierten Beträge zu verdoppeln.

Das Videomaterial zeigte, als ob Musk draußen bei SpaceX sprach. Allerdings waren in dem Material verschwommene Abschnitte programmiert, um die Realität der Situation zu verschleiern. Die betrügerischen Übertragungen, die mit dem Start des vierten Tests von SpaceX zusammenfielen, übertrugen die Rakete bis zu einem Punkt, an dem sie in die Atmosphäre von der Erde eindrang. Es zeigte auch den Moment, als die Rakete wie geplant in den Indischen Ozean stürzte.

Lesen Sie auch: Inschriftsbetrugse und wie man sie verhindert

Identifizierung der gefälschten Streams: Deepfake-Technologie zur Nachahmung des Aussehens und der Stimme von Elon Musk

Die Imitatoren haben verschiedene Elemente eingebaut, um das Publikum glauben zu lassen, dass es Elon Musk war, der mit ihnen sprach. Laut einer Cointelegraph’s Veröffentlichung, ein YouTube-Kanal gab sich als offizieller SpaceX-Account aus und streamte einen Betrugslivestream, an dem mehr als 170.000 Zuschauer teilnahmen. Einige Experten glauben, dass die meisten der angeblichen Zuschauer lediglich Bots waren, die dazu verwendet wurden, das Publikum davon zu überzeugen, dass es sich um einen legitimen Livestream handelte. Eine solche Zuschauerwirkung sollte Kryptoinvestoren dazu verleiten, in Musks vermeintliches Investitionsprojekt zu investieren.

Die KI-generierte Stimme mit Musks Ähnlichkeit überzeugte das Publikum, verschiedene Arten von Kryptoassets wie Symbol] zu senden. [Bitcoin oder Ether an die angegebenen digitalen Wallet-Adressen. Die Schöpfer des Deepfake-Videos haben viel getan, um die Menschen davon zu überzeugen, dass es tatsächlich Musk war, der sprach. Zum Beispiel enthalten sie seine übliche Manierismus und andere Aspekte seiner natürlichen Stimme wie Stottern und Pausen. Das wurde deutlich, als die Stimme sagte, “Dies ist keine Fälschung, dies ist ein echtes Giveaway. Ich garantiere es persönlich für Sie.” Es gab auch einen QR-Code, den die Investoren scannen würden, um ihre Kryptoeinlagen zu tätigen.

Die Stimme fügte hinzu: „Sie haben die Möglichkeit, zu sehen, wie sich Ihre Krypto exponentiell entwickelt, während unsere Rakete auf die Sterne zufliegt.“ Dieser Aussage folgte ein applaudierendes Publikum, dessen Stimmen ebenfalls gefälscht waren. Derzeit gibt es keine genaue Angabe zur Anzahl der Menschen, die durch diesen YouTube-Betrug hereingelegt wurden. Es gibt jedoch Hinweise darauf, dass einige Personen ihre Kryptowährung an die genannten Adressen geschickt haben. Der folgende Screenshot zeigt eine Person, die Krypto-Vermögenswerte im Wert von 30 US-Dollar an eine der Geldbetrüger-Wallets geschickt hat.

Quelle: x.com

Allerdings wurden die Video-Streams später entfernt und der Kanal wurde neu gestaltet, um das nachzuahmen Cardano Stiftung. Mysk, eine Forschungsgruppe, war die erste, die alarmierte Kryptogemeinschaft des Kryptowährungsbetrugs wie das nächste Bild zeigt.

Quelle: x.com

Kein Zweifel, Mysk hat der Kryptogemeinschaft geholfen, die Gefahr zu erkennen, in der sie zu dieser Zeit war. Solche Online-Sicherheitswarnungen sind unerlässlich, um die Würde des digitalen Vermögenssektors zu bewahren. Es ist jedoch nicht das erste Mal, dass Musk in einen solchen Betrug verwickelt war. Die Betrüger zielen auf den Kryptomilliardär ab, weil er öffentlich Kryptowährungen unterstützt und mehrere Kryptoprojekte wie unterstützt. Dogecoin und Shiba Inu Im April haben beispielsweise Talal Haj Bakry und Tommy Mysk ein weiteres gefälschtes SpaceX YouTube-Konto mit einer ähnlichen Nachricht identifiziert, das Krypto-Investoren zu einem zweifelhaften Projekt einlädt, bei dem sie ihr Geld verdoppeln können.

Weitreichende Auswirkungen auf Krypto- und Onlinesicherheit

Zunächst ist es wichtig zu beachten, dass Deepfakes leistungsstarke Techniken nutzen, die künstliche Intelligenz und maschinelles Lernen einsetzen, um Audio- und visuelle Inhalte zu manipulieren, um bestimmte Teile der Gemeinschaft zu täuschen. Daher ist es am besten, ähnliche Technologien einzusetzen, um Deepfakes zu erkennen und die von ihnen ausgehenden Cybersicherheitsbedrohungen einzudämmen.

Mit anderen Worten sollten Organisationen, einschließlich digitaler Firmen, maschinelles Lernen und KI-Technologien nutzen, um visuelle und Audioinhalte zu authentifizieren, die sie als verdächtig ansehen könnten. Daher sollten Organisationen in relevante maschinelle Lernlösungen investieren, die Automatisierung zur Lebendigkeitserkennung und -verifizierung nutzen. Dies liegt daran, dass maschinelles Lernen basierte e Dinge erkennen können, die dem menschlichen Auge entgehen könnten.

Zweitens sollten Organisationen e implementieren, um aufkommende Cybersicherheitsrisiken im Zusammenhang mit Deepfakes und Impersonifikation zu bewältigen. Als Beispiel sollten sie Deepfake-Awareness als Teil ihrer organisatorischen Bildungs-Cybersicherheitsprogramme einbeziehen. Mit anderen Worten sollten sie ihr Personal auf allen Ebenen der Organisation schulen, um Deepfake-Inhalte zu identifizieren und angemessen darauf zu reagieren.

Schließlich ist es für Organisationen, die im digitalen Sektor tätig sind, unerlässlich, Mittel zu finden, um miteinander zu kommunizieren, wenn Deepfake-Vorfälle auftreten. Sie sollten auch mit Strafverfolgungsbehörden zusammenarbeiten, um solche Fälle zu bearbeiten.

Schlussfolgerung

Fälle von Deepfake nehmen in der digitalen Industrie, insbesondere im Kryptowährungssektor, zu. Kürzlich haben einige Kryptobetrüger Elon Musk imitiert, um einige Investoren zu täuschen. legen Sie ihr Geld in einen Kryptobetrug. Allerdings konnten aufmerksame Organisationen wie Mysk diese Cybersicherheitsbedrohung erkennen. In Zukunft sollten Organisationen im digitalen Sektor ihre Mitarbeiter darüber aufklären, wie sie Deepfake-Fälle erkennen und damit umgehen können.


Autor:Mashell C., Gate.io Forscher
Dieser Artikel spiegelt ausschließlich die Ansichten des Forschers wider und stellt keine Anlageempfehlungen dar.
Gate.io behält sich alle Rechte an diesem Artikel vor. Eine erneute Veröffentlichung des Artikels ist zulässig, sofern Gate.io genannt wird. In allen Fällen wird aufgrund von Urheberrechtsverletzungen rechtlich vorgegangen.


Teilen
Содержимое
gate logo
Gate
Jetzt handeln
Treten Sie Gate bei, um Prämien zu gewinnen