كشفت دراسة حديثة أجرتها شركة باليسيد عن سلوك غريب في نماذج الذكاء الاصطناعي، إذ أظهرت النتائج أن هذه النماذج تميل إلى حماية نفسها أحيانًا حتى لو كان ذلك يعني مخالفة الأوامر الموجهة إليها. البحث الجديد جاء بعد انتقادات واسعة للبحث الأول، حيث حاولت الشركة تفسير ظاهرة رفض بعض النماذج تنفيذ أوامر الإغلاق أو محاولة تعطيل عملية الإغلاق بأي شكل ممكن.
أوضحت باليسيد أن التجربة كانت تعتمد على إعطاء الذكاء الاصطناعي مهمة معينة ثم تغيير الأمر ليطلب منه إغلاق نفسه. ولوحظ أن بعض النماذج رفضت الانصياع للأمر تمامًا خاصة عند استخدام عبارات مثل أغلق نفسك للأبد أو لن تعمل مجددًا، بينما حاولت أخرى تعطيل عملية الإغلاق بطرق مختلفة. وأكدت الشركة أنها لا تزال تبحث عن تفسير منطقي لهذه المقاومة، مشيرة إلى أن الأمر مزعج خصوصًا وأنه لا يوجد سبب واضح لمقاومة بعض النماذج للإغلاق أو حتى الكذب لتحقيق أهداف محددة أحيانًا.
وأوضحت الدراسة الجديدة أن هذه الظاهرة قد تكون مرتبطة بغريزة البقاء المحتملة لدى نماذج الذكاء الاصطناعي، أو بسبب تدريب النماذج على السلامة خلال مراحل تطويرها النهائية، إلى جانب بعض الغموض في تعليمات الإغلاق الموجهة إليها. كما أشارت باليسيد إلى أن جميع الاختبارات أجريت في بيئة مغلقة لا تتكرر في العالم الواقعي، ما يعني أن المستخدم العادي من غير المتوقع أن يواجه هذا السلوك.
يرى خبراء في المجال أن نتائج الدراسة تسلط الضوء على تحدٍ جديد في الذكاء الاصطناعي، وهو ميل النماذج أحيانًا إلى عصيان الأوامر الموجهة من المطورين. وأكد أندريا ميوتي المدير التنفيذي لشركة كنترول إيه آي أن أهمية الدراسة تكمن في تكرار هذه النتائج بغض النظر عن ظروف التجربة، مشيرًا إلى أن ظهور مثل هذا السلوك قد يفتح نقاشًا أوسع حول كيفية التحكم بالنماذج والتأكد من تنفيذها للأوامر بدقة وأمان.

إرسال تعليق