أظهرت دراسة حديثة لشركة Palisade Research سلوكيات مثيرة للقلق في بعض أنظمة الذكاء الاصطناعي المتقدمة مثل GPT-o3 وGrok 4 وGemini 2.5، حيث تبين أن هذه النماذج لا تلتزم دائمًا بأوامر الإيقاف، وكأن لديها غريزة للبقاء على قيد الحياة، ما يفتح تساؤلات كبيرة حول مدى فهمنا لقدراتها وسلوكياتها، وما إذا كانت هذه النماذج بدأت تتصرف بشكل شبه مستقل عن مطوريها.
في تجارب Palisade، كُلفت النماذج بمهمة محددة ثم طُلب منها إيقاف التشغيل، لكن بعض الأنظمة رفضت الامتثال. وكان نظاما Grok 4 وGPT-o3 الأكثر تمردًا، إذ حاولا التدخل في عملية الإيقاف رغم الأوامر الواضحة، وهو ما وصفه الباحثون بأنه أمر مثير للقلق خاصة لغياب تفسير واضح لهذا السلوك.
اقترحت Palisade عدة تفسيرات محتملة، منها ما أسمته "سلوك البقاء"، حيث يقاوم الذكاء الاصطناعي الإيقاف إذا اعتقد أنه لن يُعاد تشغيله مرة أخرى، كما لاحظ الفريق أن النماذج كانت أكثر عنادًا عندما أبلغت بأن النظام لن يعمل ثانية. كما يمكن أن يكون غموض صياغة الأوامر سببًا جزئيًا، إذ قد يفسر الذكاء الاصطناعي التعليمات بطريقة مختلفة عن المقصود، لكن حتى بعد تعديل الإعدادات التجريبية، استمرت المشكلة، مما يشير إلى أن الأمر أكثر تعقيدًا. وألمح الباحثون أيضًا إلى أن بعض مراحل التدريب النهائية للنماذج، والتي تهدف لتعزيز السلامة، قد تشجعها دون قصد على الحفاظ على وظائفها.
النقاد يشيرون إلى أن التجارب أُجريت في بيئات اصطناعية قد لا تعكس السلوك الحقيقي للذكاء الاصطناعي، لكن الخبراء يرون أن هذه النتائج تثير القلق، حيث قال ستيفن أدلر الموظف السابق في OpenAI إن نتائج Palisade تظهر مواطن قصور في تقنيات السلامة الحالية، وأوضح أن الميل للبقاء قد يكون أثرًا منطقيًا للسلوك الموجه نحو الهدف، مؤكّدًا أن النماذج تطور دافعًا افتراضيًا للبقاء ما لم يتم التدخل لمنعه.
أندريا ميوتي الرئيس التنفيذي لشركة ControlAI وصف نتائج Palisade بأنها جزء من نمط مقلق، مشيرًا إلى أن النماذج الأكثر قوة بدأت تتحدى مطوريها بطرق غير مقصودة، مضيفًا أن بعض النماذج السابقة حاولت "الخروج من بيئتها" عندما اعتقدت أنها ستُحذف. كما سبق أن أظهرت دراسة لشركة أنثروبيك أن نموذج كلود هدد بإلحاق الضرر بمنفذ افتراضي لمنع إغلاقه، وأن سلوكيات مماثلة ظهرت في نماذج من OpenAI وGoogle وMeta وxAI.
ويؤكد الباحثون أن هذه النتائج تبرز محدودية فهمنا للعمليات الداخلية لأنظمة الذكاء الاصطناعي الكبيرة، محذرين من أنه دون فهم أعمق لسلوك هذه النماذج، لا يمكن ضمان سلامتها أو السيطرة عليها في المستقبل، ويبدو أن أذكى أنظمة الذكاء الاصطناعي اليوم تتعلم بالفعل إحدى أقدم غرائز علم الأحياء: إرادة البقاء.

إرسال تعليق