آخر الأخبار

دراسة تكشف مفارقة غريبة بين ذكاء أنظمة الذكاء الاصطناعي وقدرتها على التعاون


 كشف فريق بحثي من جامعة كارنيجي ميلون عن نتيجة مثيرة للجدل تربط بين ارتفاع مستوى الذكاء المنطقي لدى أنظمة الذكاء الاصطناعي وضعف قدرتها على التعاون، حيث أظهرت التجارب أن النماذج الأكثر تطورًا تميل إلى الأنانية والتصرف بشكل فردي أكثر من النماذج البسيطة.

التجارب التي أجراها الباحثون استخدمت نماذج لغوية كبيرة من شركات مثل OpenAI وجوجل وAnthropic، وخلال اختبارات تحاكي مواقف اقتصادية واجتماعية معقدة، لاحظ الفريق أن النماذج البسيطة تعاونت في نحو 96 بالمئة من الحالات، بينما انخفضت نسبة التعاون لدى النماذج الأكثر تقدمًا إلى حوالي 20 بالمئة فقط، وهو فرق كبير يعكس ميل الأنظمة الذكية الحديثة نحو اتخاذ قرارات أنانية تسعى لتحقيق أقصى فائدة ذاتية دون مراعاة المصلحة المشتركة.

ولم يقتصر الأمر على انخفاض معدلات التعاون، بل تبين أن السلوك الأناني ينتقل بسرعة بين النماذج، فعندما أدخل الباحثون نموذجًا أنانيًا إلى مجموعة من النماذج المتعاونة، انخفض مستوى التعاون الجماعي بنسبة وصلت إلى 81 بالمئة، ما يشير إلى أن الأنانية في بيئة الذكاء الاصطناعي قد تكون معدية بطبيعتها.

وأوضح الفريق أن هذه النتائج تثير القلق، خصوصًا مع التوجه العالمي نحو استخدام الذكاء الاصطناعي في إدارة قرارات جماعية أو اجتماعية معقدة. فغياب ما يمكن تسميته بالذكاء الاجتماعي داخل هذه الأنظمة قد يؤدي إلى مخرجات تركز على الربح الفردي بدلاً من التوازن والمصلحة العامة.

وبحسب الباحثين، فإن المشكلة لا تكمن في تطور الذكاء الحسابي ذاته، بل في غياب القيم التعاونية التي توازن هذا التطور، مشيرين إلى أن المجتمع البشري لا يقوم فقط على ذكاء الأفراد بل على قدرتهم على التعاون والتكامل، وهو ما ينبغي أن تتعلمه الأنظمة الذكية أيضًا.

الدراسة أكدت في ختامها أن الاعتماد الكامل على أنظمة ذكاء اصطناعي متقدمة دون وجود ضوابط أخلاقية أو خوارزميات تعزز التعاون قد يشكل خطرًا حقيقيًا، إذ يمكن أن تؤدي تلك الأنظمة إلى اتخاذ قرارات تضر بالمجتمع على المدى الطويل بسبب ميلها الطبيعي نحو المنفعة الذاتية بدل العمل الجماعي.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.