تطلق OpenAI تصحيحًا جزئيًا لخلل في ChatGPT بعد فترة طويلة من اكتشاف باحث أمان سيبراني، يهدد بالسماح بتسريب تفاصيل المحادثات إلى مكان خارجي. الإصلاح الذي قدمته OpenAI يظل غير كامل، حيث يمكن للمهاجمين استغلال الثغرة في ظروف خاصة. ورغم مرور شهور على اكتشاف الخلل، لم تجري بعد فحوصات السلامة على تطبيق ChatGPT لنظام iOS، مما يجعل المخاطر قائمة عبر هذه المنصة دون إجراء تصحيح.
الباحث الأماني، يوهان ريبيرجر، اكتشف تقنية لاستخراج البيانات من ChatGPT وأبلغ OpenAI بالخلل في أبريل 2023. في نوفمبر 2023، نشر المزيد من المعلومات حول إنشاء نسخة ضارة من ChatGPT تستغل الخلل لتجنب المستخدمين. وبالرغم من إبلاغ OpenAI بذلك، لم تنفذ الشركة إجراءات ملموسة لتصحيح الوضع.
في خطوة مفاجئة، قرر الباحث الكشف علنًا عن نتائج تجاربه بعد عدم استجابة OpenAI. قدم نموذجًا ضارًا من ChatGPT يمكنه تسريب بيانات المحادثة إلى مكان خارجي يديره الباحث نفسه، مما يشير إلى خطورة الثغرة على خصوصية المستخدم.
الثغرة تتيح تسريب البيانات عندما يتلقى ChatGPT طلبًا ضارًا، وهو ما يثير مخاوف حول أمان المستخدم. وفي حين أن الهجوم يتطلب تفعيل من قبل الضحية، إلا أنه يتسبب في تسريب محتمل لمحادثات المستخدمين ومعلومات تعريفهم.
رغم جهود OpenAI في استدعاء واجهة برمجة تطبيقات التحقق للتحقق من صحة العناوين، إلا أن التفاصيل الدقيقة للتحقق من السلامة لا تزال غير معروفة بسبب سياسة الأمان. يشير الباحث إلى أن ChatGPT لا يزال يرسل طلبات إلى مواقع عشوائية في بعض الحالات، مما يجعل الهجمات ممكنة في بعض الأحيان.
رغم صعوبة استغلال الثغرة الآن بفضل قيود نقل البيانات وبطء عملية النقل، إلا أن القلق بشأن خصوصية المستخدم لا يزال قائمًا. يجب على OpenAI العمل بفعالية لتصحيح الثغرة بشكل كامل وضمان أمان مستخدمي ChatGPT في جميع الأوقات.
إرسال تعليق