Comment les fraudeurs de crypto-monnaie adoptent la nouvelle technologie d'IA

Auteur : Eric Johansson, dlnews Compilateur : Shan Ouba, Golden Finance

  • Les escrocs de la boucherie utilisent de nouveaux outils d'intelligence artificielle pour tromper leurs victimes.
  • Les procureurs mettent en garde contre le nombre croissant de nouveaux cas dans le monde. *Les arnaques à la crypto-monnaie coûteront aux victimes plus de 2,5 milliards de dollars en 2022.

Dans les mois qui ont suivi le lancement de ChatGPT par OpenAI et bouleversé l'écosystème des startups, la technologie a été qualifiée de menace pour le journalisme, la scénarisation et la sécurité nationale. Il n'est donc pas surprenant que les fraudeurs et les cybercriminels exploitent de grands modèles de langage pour voler la crypto-monnaie à leurs victimes. Pourtant, cela lui est arrivé lorsqu'un gars utilisant Tandem, une application de partage de langues qui se double d'une plateforme de rencontres, avait une conversation en ligne. Un autre bavard l'a rapidement convaincu de déplacer le chat vers WhatsApp.

Quel que soit le résultat final prévu, l'escroquerie a été bâclée par un long texte qui a révélé "en tant que modèle de langage de" moi ", je n'ai pas de sentiments ou d'émotions humains", en utilisant essentiellement des Chatbots avancés, sinon ChatGPT, portez un ressemblance frappante avec celle-ci. Choquée, la victime potentielle a contacté la société de cybersécurité Sophos, qui a confirmé que les craintes que des criminels profitent de la nouvelle technologie étaient devenues une réalité.

"Nous pouvons maintenant dire que, du moins dans le cas des escroqueries à la boucherie, cela se produit effectivement", a déclaré Sean Gallagher, chercheur principal sur les menaces chez Sophos, dans un rapport soulignant l'affaire.

La boucherie est une arnaque dans laquelle les escrocs tentent d'inciter les victimes à investir dans une plate-forme de crypto-monnaie pendant un certain temps, promettant des rendements élevés avant de retirer leur argent, encourageant ainsi les victimes à engager leurs fonds, ce qui leur fait finalement subir des pertes et de la honte. Le FBI estime que ces escroqueries à la crypto-monnaie ont coûté aux victimes plus de 2,5 milliards de dollars d'ici 2022.

Cependant, l'utilisation de ChatGPT et d'outils similaires permettra aux criminels de se développer "d'une manière pire que ce que nous avons vu dans le passé", a déclaré l'avocate californienne Erin West. Elle est célèbre pour avoir récupéré avec succès des millions de crypto-monnaies volées. Cette technologie permettra aux criminels de mieux adapter les conversations avec les victimes, de surmonter les barrières linguistiques, d'atteindre plus de personnes et de causer plus de dégâts. "L'ajout de ChatGPT rend cela encore plus dangereux", a-t-elle ajouté.L'avertissement sobre fait suite à des rapports de cybercriminels utilisant des outils similaires pour écrire rapidement des logiciels malveillants.

** Pas une question de si, mais une question de quand **

Les sociétés de sécurité et les forces de l'ordre sont inquiètes de cette évolution, mais aucune des personnes à qui nous avons parlé n'a été surprise. "Ce n'est pas une question de savoir si, c'est une question de quand", a déclaré Bobby Cornwell, vice-président de l'habilitation et de l'intégration des partenaires stratégiques de la société de cybersécurité SonicWall, à DL News.

Ces histoires se préparent depuis qu'OpenAI a lancé ChatGPT en novembre dernier. Ces chatbots avancés sont formés avec de grandes quantités de données. Ils exploitent de grands ensembles de données, y compris des livres, des codes, des sites Web et des articles, sont capables d'écrire des codes complexes et même de mener des conversations en fonction des invites de l'utilisateur. C'est une percée pour OpenAI. En janvier, elle comptait environ 100 millions d'utilisateurs actifs par mois, ce qui en fait l'une des applications à la croissance la plus rapide de l'histoire. Les gens ont commencé à l'utiliser pour tout, de l'écriture de profils de rencontres en ligne aux histoires d'horreur, en passant par la génération de scripts vidéo et de code de débogage. Les géants de la technologie, dont Google et Meta, accélèrent également le développement de leurs propres outils d'IA conversationnelle, tels que Bard et LLaMA.

En juillet, le PDG de Tesla, Elon Musk, a lancé une nouvelle société appelée x.AI dans le but de créer une version de ChatGPT moins « éveillée » que la version OpenAI. Au premier semestre 2023, les entreprises d'IA ont levé plus de 25 milliards de dollars auprès d'investisseurs, selon Crunchbase.

Le côté obscur de ChatGPT

Au lieu de célébrer la victoire, le PDG d'OpenAI, Sam Altman, a fait une tournée mondiale mettant en garde contre les dangers de l'intelligence artificielle sans entraves. Il a témoigné devant le Congrès américain et a déclaré aux journalistes qu'il perdait le sommeil par crainte qu'OpenAI n'ait libéré son proverbial génie de l'IA "pour faire de très mauvaises choses". Que ses remarques aient été motivées par une véritable peur ou qu'elles s'inscrivent dans une stratégie de relations publiques élaborée reste incertain.

Quelle que soit la motivation derrière les remarques d'Altman, les foules numériques utilisent déjà ChatGPT ou des outils similaires pour soutenir leurs plans. Les cybercriminels prétendent même avoir créé leur propre version de ChatGPT, immunisée contre les mesures de sécurité installées par OpenAI. Ils les ont annoncés sur le dark web comme des outils pour améliorer les attaques de phishing et écrire des logiciels malveillants, a rapporté Wired début août. La communauté des cybercriminels et des acteurs de la menace est pro-active et férue de technologie, et a tendance à être les premiers à adopter les nouvelles tendances technologiques, car ils voient les avantages et les améliorations dans l'évolution de leurs outils, techniques et pratiques.

Il n'est donc pas surprenant que les acteurs de la menace adoptent l'IA générative, car ils peuvent récolter les mêmes gains de productivité et potentiellement améliorer leur capacité à se cacher, à effectuer des reconnaissances, à créer du code malveillant, à tromper les gens et les logiciels de sécurité, et plus encore. Ces développements obligent les experts en cybersécurité et les forces de l'ordre à se démener pour répondre à la menace.

Les entreprises de cybersécurité doivent "intégrer plus d'intelligence dans nos systèmes pour rechercher le contenu généré par l'IA", a déclaré Cornwell, ajoutant que le développement de telles contre-mesures prendra du temps. , et bien qu'elle et d'autres forces de l'ordre puissent avertir de ces menaces, les groupes criminels à l'origine de la tuerie seront difficiles à éliminer avant même d'exploiter l'intelligence artificielle.

Selon le groupe mondial de lutte contre la fraude, de nombreux réseaux criminels opèrent à partir d'endroits comme le Cambodge, le Laos et le Myanmar. Leurs crimes ont rapporté des milliards de dollars, leur permettant de payer les forces de l'ordre locales et d'éviter les sanctions internationales. Il est très difficile de lutter contre un groupe criminel aussi important et riche.

OpenAI n'a pas répondu à notre demande de commentaire.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)