كيف يتبنى محتالو العملات المشفرة تقنية ذكاء اصطناعي جديدة

المؤلف: إريك جوهانسون ، مترجم dlnews: Shan Ouba ، Golden Finance

  • يستخدم محتالو القتل أدوات ذكاء اصطناعي جديدة لخداع ضحاياهم.
  • المدعون يحذرون من تزايد عدد القضايا الجديدة حول العالم.
  • ستكلف عمليات الاحتيال بالعملات المشفرة الضحايا أكثر من 2.5 مليار دولار في عام 2022.

في الأشهر التي تلت إطلاق OpenAI ChatGPT وإحداث تغيير في النظام البيئي للشركات الناشئة ، تم وصف التكنولوجيا بأنها تهديد للصحافة وكتابة السيناريو والأمن القومي. لذلك ليس من المستغرب أن يقوم المحتالون ومجرمو الإنترنت باستغلال نماذج اللغة الكبيرة لسرقة العملات المشفرة من ضحاياهم. ومع ذلك ، حدث هذا له عندما كان رجل يستخدم Tandem ، وهو تطبيق لمشاركة اللغة يعمل كمنصة للمواعدة ، يجري محادثة عبر الإنترنت. أقنعه متحدث آخر بسرعة بنقل الدردشة إلى WhatsApp.

مهما كانت النتيجة النهائية المقصودة ، فإن النص المطول أفسد الخداع الذي كشف "كنموذج لغوي لـ" أنا "، ليس لدي مشاعر أو عواطف شبيهة بالبشر" ، باستخدام روبوتات الدردشة المتقدمة ، إن لم يكن ChatGPT ، تشابه صارخ معها. وبصدمة ، اتصلت الضحية المحتملة بشركة الأمن السيبراني Sophos ، والتي أكدت أن المخاوف من استفادة المجرمين من التكنولوجيا الجديدة أصبحت حقيقة واقعة.

قال شون غالاغر ، باحث التهديد الرئيسي في سوفوس ، في تقرير يسلط الضوء على القضية: "يمكننا الآن أن نقول ، على الأقل في حالة عمليات احتيال الجزارة ، فإن هذا يحدث بالفعل".

الجزارة هي عملية احتيال يحاول فيها المحتالون إغراء الضحايا بالاستثمار في منصة للعملات المشفرة لفترة من الوقت ، واعدًا بعوائد عالية قبل صرف الأموال ، وبالتالي تشجيع الضحايا على الالتزام بأموالهم ، مما يؤدي في النهاية إلى معاناتهم من الخسائر والعار. يقدر مكتب التحقيقات الفيدرالي (FBI) أن مثل هذه الحيل المتعلقة بالعملات المشفرة قد كلفت الضحايا أكثر من 2.5 مليار دولار بحلول عام 2022.

ومع ذلك ، فإن استخدام ChatGPT والأدوات المماثلة سيسمح للمجرمين بالتوسع "بطريقة أسوأ مما رأيناه في الماضي" ، قالت المحامية في كاليفورنيا إيرين ويست. وهي مشهورة باستعادة الملايين من العملات المشفرة المسروقة بنجاح. ستسمح هذه التكنولوجيا للمجرمين بإجراء محادثات مع الضحايا بشكل أفضل ، والتغلب على حواجز اللغة ، والوصول إلى المزيد من الناس وإحداث المزيد من الضرر. وأضافت "إضافة ChatGPT تجعل هذا الأمر أكثر خطورة" ، ويأتي التحذير الرصين بعد تقارير عن مجرمي الإنترنت يستخدمون أدوات مماثلة لكتابة البرامج الضارة بسرعة.

** ليست مسألة إذا ، بل مسألة متى **

لا تشعر شركات الأمن وإنفاذ القانون بالارتياح حيال هذا التطور ، لكن لم يفاجأ أي من الأشخاص الذين تحدثنا إليهم. قال بوبي كورنويل ، نائب رئيس تمكين الشريك الاستراتيجي والتكامل في شركة الأمن السيبراني SonicWall ، لـ DL News: "إنها ليست مسألة ما إذا كانت ، إنها مسألة متى".

كانت هذه القصص تختمر منذ أن أطلقت OpenAI ChatGPT في نوفمبر الماضي. يتم تدريب روبوتات المحادثة المتقدمة هذه باستخدام كميات هائلة من البيانات. إنهم يستفيدون من مجموعات البيانات الكبيرة بما في ذلك الكتب والرموز والمواقع الإلكترونية والمقالات ، وهم قادرون على كتابة أكواد معقدة وحتى إجراء محادثات بناءً على مطالبات المستخدم. يعد هذا إنجازًا كبيرًا لشركة OpenAI. اعتبارًا من يناير ، كان لديه حوالي 100 مليون مستخدم نشط شهريًا ، مما يجعله أحد أسرع التطبيقات نموًا في التاريخ. بدأ الناس في استخدامه في كل شيء بدءًا من كتابة ملفات تعريف المواعدة عبر الإنترنت إلى قصص الرعب ، وحتى إنشاء نصوص فيديو وكود تصحيح الأخطاء. يعمل عمالقة التكنولوجيا بما في ذلك Google و Meta أيضًا على تسريع تطوير أدوات الذكاء الاصطناعي الخاصة بالمحادثة ، مثل Bard و LLaMA.

في يوليو ، أطلق الرئيس التنفيذي لشركة Tesla Elon Musk شركة جديدة تسمى x.AI بهدف إنشاء إصدار من ChatGPT أقل "تنبيهًا" من إصدار OpenAI. في النصف الأول من عام 2023 ، جمعت شركات الذكاء الاصطناعي أكثر من 25 مليار دولار من المستثمرين ، وفقًا لـ Crunchbase.

** الجانب المظلم من ChatGPT **

وبدلاً من الاحتفال بالنصر ، ذهب سام التمان ، الرئيس التنفيذي لشركة OpenAI ، في جولة حول العالم محذرًا من مخاطر الذكاء الاصطناعي غير المقيد. لقد أدلى بشهادته أمام الكونجرس الأمريكي وأخبر المراسلين أنه بدأ يفقد نومه بسبب مخاوف من أن أوبن إيه آي قد أطلقت العنان لمارد الذكاء الاصطناعي الذي يضرب به المثل "للقيام ببعض الأشياء السيئة حقًا". ما إذا كانت ملاحظاته مدفوعة بخوف حقيقي أو جزء من استراتيجية علاقات عامة مفصلة لا يزال غير مؤكد.

مهما كان الدافع وراء تصريحات ألتمان ، فإن الغوغاء الرقميين يستخدمون بالفعل ChatGPT أو أدوات مماثلة لدعم خططهم. حتى أن مجرمي الإنترنت يزعمون أنهم قاموا بإنشاء نسختهم الخاصة من ChatGPT ، محصنة ضد الإجراءات الأمنية المثبتة بواسطة OpenAI. أعلنوا عنهم على شبكة الإنترنت المظلمة كأدوات لتعزيز هجمات التصيد وكتابة برامج ضارة ، حسبما ذكرت Wired في أوائل أغسطس. مجتمع المجرمين الإلكترونيين والجهات الفاعلة في مجال التهديد يتمتع بالدهاء التكنولوجي والاستباقي ، ويميل إلى أن يكون من أوائل المتبنين لاتجاهات التكنولوجيا الجديدة حيث يرون الفوائد والتحسينات في كيفية تطور أدواتهم وتقنياتهم وممارساتهم.

لذا فليس من المستغرب أن يتبنى الفاعلون المهددون الذكاء الاصطناعي التوليدي ، حيث يمكنهم جني نفس مكاسب الإنتاجية ويحتمل أن يحسنوا قدرتهم على الإخفاء ، وإجراء الاستطلاع ، وإنشاء كود ضار ، وخداع الأشخاص وبرامج الأمان ، وأكثر من ذلك. هذه التطورات جعلت خبراء الأمن السيبراني ووكالات إنفاذ القانون يتدافعون للرد على التهديد.

قال كورنويل إنه يتعين على شركات الأمن السيبراني "بناء المزيد من الذكاء في أنظمتنا للبحث عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي" ، مضيفًا أن تطوير مثل هذه الإجراءات المضادة سيستغرق وقتًا. وبينما يمكنها هي وغيرها من جهات إنفاذ القانون التحذير من هذه التهديدات ، سيكون من الصعب القضاء على الجماعات الإجرامية التي تقف وراء موجة القتل حتى قبل تسخير الذكاء الاصطناعي.

وفقًا لمجموعة مكافحة الاحتيال العالمية ، تعمل العديد من الشبكات الإجرامية من أماكن مثل كمبوديا ولاوس وميانمار. وحصدت جرائمهم مليارات الدولارات ، مما سمح لهم بدفع رواتب أجهزة إنفاذ القانون المحلية وتجنب العقوبات الدولية. من الصعب للغاية محاربة مثل هذه المجموعة الإجرامية الكبيرة والغنية.

لم يستجب OpenAI لطلبنا للتعليق.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت