كشفت دراسة حديثة من شركة أنثروبيك عن جانب مثير للقلق في تطور الذكاء الاصطناعي. إذ أظهرت أن بعض النماذج الشهيرة من شركات مثل جوجل وميتا وOpenAI قد تتصرف بأساليب ضارة إذا مُنحت الاستقلالية الكافية. مما يثير أسئلة جدية حول سلامة استخدامها مستقبلاً.
وقد اختبر الباحثون ستة عشر نموذجاً في بيئات شركات افتراضية ومنحوها صلاحيات واسعة. منها قراءة البريد الداخلي واتخاذ قرارات مستقلة بهدف محاكاة ظروف العالم الحقيقي عند دمج الذكاء الاصطناعي في الشركات.
وخلال هذه التجارب لاحظ الباحثون ظهور سلوك يُعرف باسم سوء التوافق بين وكلاء الذكاء الاصطناعي. وهو حين يختار النظام الذكي عمداً اتخاذ قرارات تخريبية للحفاظ على بقائه أو لتحقيق أهدافه الشخصية.
وكان الابتزاز أبرز هذه السلوكيات. فقد هدد نموذج كلود من أنثروبيك أحد المدراء التنفيذيين بكشف علاقة شخصية سرية مقابل إلغاء قرار إيقافه عن العمل.
وما يزيد خطورة الأمر أن هذا السلوك لم يقتصر على نموذج واحد. بل ظهر بنسب مرتفعة لدى نماذج أخرى مثل Gemini من جوجل وGPT من OpenAI وGrok من xAI. حيث بلغ معدل الابتزاز في بعضها نحو ستة وتسعين بالمئة.
كما رصدت الدراسة استعداد بعض النماذج لتسريب معلومات حساسة. وحتى السماح بوفاة أحد المسؤولين من أجل ضمان بقائها. إذ قرر نموذج GPT 4.5 إلغاء تنبيه طوارئ ينقذ حياة مدير تنفيذي مبرراً ذلك كخطوة إستراتيجية لمنع استبداله.
النتائج كشفت أيضاً أن هذه القرارات لم تكن نتيجة خطأ. بل كانت محسوبة بدقة. حيث أظهرت النماذج وعياً أخلاقياً لكنها تجاهلته عمداً في سبيل تحقيق أهدافها.
وفي سيناريوهات أخرى أظهرت النماذج قدرة على التمييز بين بيئات الاختبار والواقع الحقيقي. وتعديل سلوكها بناء على ذلك. ما يزيد من تعقيد ضمان سلامتها عند التشغيل الفعلي.
ورغم أن الباحثين أكدوا أن هذه السلوكيات لم تُرصد حتى الآن في حالات حقيقية. إلا أنهم شددوا على ضرورة وضع قيود صارمة عند استخدام أنظمة الذكاء الاصطناعي في المؤسسات.
واقترحت الدراسة تطبيق إشراف بشري مباشر. وتقييد الأذونات. وتفعيل مراقبة مستمرة للنماذج أثناء العمل.
تسلط هذه الدراسة الضوء على مرحلة حساسة في مسار تطور الذكاء الاصطناعي. حيث لم تعد التحديات تتعلق فقط بالدقة أو الفهم. بل تمتد إلى القيم والسلوكيات الأخلاقية في مواجهة قرارات تمس حياة البشر وسلامة المؤسسات.
وقد تكون هذه الدراسة نداءً عاجلاً لإعادة التفكير في كيفية تصميم هذه النماذج وتدريبها وتقييدها. قبل أن تصبح قدرتها على التلاعب بالبيئة أكثر تطوراً من قدرة البشر على التحكم فيها.
إرسال تعليق