كشفت شركة OpenAI في تقريرها الأخير أن استخدام الذكاء الاصطناعي لا يقتصر على الفوائد الإيجابية فقط، بل يمتد أيضًا إلى الأنشطة الإجرامية التي تهدد الأمن السيبراني. يشير التقرير إلى أن برنامج الدردشة الآلي ChatGPT أصبح أداة مفيدة لمجرمي الإنترنت، حيث يستخدمونه في كتابة التعليمات البرمجية وتطوير البرامج الضارة، مما يعكس تحولًا جديدًا في أساليب الهجمات الإلكترونية.
وفقًا للتقرير المعنون "التأثير والعمليات الإلكترونية: تحديث"، تم الإبلاغ عن أكثر من عشرين عملية إلكترونية خبيثة منذ بداية عام 2024، حيث تم استغلال ChatGPT في هجمات متنوعة عبر الإنترنت، بما في ذلك التصيد والهندسة الاجتماعية. وقد أظهر التقرير كيف أن مجرمي الإنترنت يستخدمون قدرات معالجة اللغة الطبيعية التي يوفرها ChatGPT لإنجاز مهام تتطلب عادةً مهارات فنية عالية، مما يسهل عليهم تنفيذ الهجمات.
تعود أول حالة موثقة لاستخدام الذكاء الاصطناعي في الهجمات الإلكترونية إلى أبريل 2024، عندما حددت شركة الأمن السيبراني Proofpoint مجموعة التجسس السيبراني الصينية "TA547"، المعروفة أيضًا باسم "Scully Spider"، والتي قامت بنشر برمجيات ضارة تم إنشاؤها بواسطة الذكاء الاصطناعي. تلا ذلك تقرير من HP Wolf Security في سبتمبر، حيث تم الإشارة إلى برامج نصية تم إنشاؤها بواسطة الذكاء الاصطناعي تُستخدم في هجمات متعددة الخطوات تستهدف المستخدمين في فرنسا.
واحدة من أبرز الحالات تتعلق بمجموعة "SweetSpecter"، التي استهدفت الحكومات الآسيوية وأرسلت رسائل تصيد تحتوي على ملفات ZIP ضارة لموظفي OpenAI. استخدمت هذه المجموعة ChatGPT لتحليل الثغرات الأمنية والبحث عن نقاط ضعف في الأنظمة.
وفي حالة أخرى، استخدمت مجموعة "CyberAv3ngers" الإيرانية ChatGPT للعثور على بيانات اعتماد لأجهزة التحكم الصناعية، مما يسلط الضوء على المخاطر المحتملة التي تهدد البنية التحتية الحيوية.
استجابةً لهذه التهديدات، اتخذت OpenAI إجراءات فورية من خلال إغلاق الحسابات المرتبطة بهذه الأنشطة ومشاركة معلومات حول مؤشرات الاختراق مع شركاء الأمن السيبراني. كما تعمل الشركة على تعزيز أنظمة المراقبة لديها للكشف عن الأنماط المشبوهة التي قد تشير إلى سلوك ضار، بهدف حماية منصتها من المزيد من الاستغلال في الأنشطة الإجرامية.
إرسال تعليق