آخر الأخبار

الذكاء الاصطناعي يقترب من مرحلة الانفجار الذاتي


 لم يعد الذكاء الاصطناعي مجرد أداة للترجمة أو تحليل البيانات أو إعداد النصوص، بل أصبح قوة متنامية تدخل في مجالات الهندسة والصناعة والطب والإعلام والسياسة والأمن، ويثير تساؤلات حول قدرته على تجاوز المهام التقليدية إلى مرحلة يمكنه فيها إعادة برمجة ذاته دون تدخل بشري.

تشير الأبحاث الحديثة إلى أن الذكاء الاصطناعي قد يقترب من مرحلة الانفجار الذاتي، حيث يمكنه تطوير خوارزميات جديدة وتحسين بنيته الداخلية بشكل مستقل. وناقشت ورقة بحثية بعنوان الذكاء الاصطناعي وإعادة البرمجة الذاتية سيناريوهات الانفجار الذكي، جذور الفكرة ومن يتحكم في هذه القوة وإشكالية الاستقلالية والاعتماد على الذات، أعدها الدكتور خالد وليد محمود من معهد الدوحة للدراسات العليا.

وفي تقرير نشره مشروع مستقبل الذكاء الاصطناعي، تم التأكيد على أن خلال عامين قد يصبح الذكاء الاصطناعي قادرًا على أداء دور المهندس، معتمدًا على ذاته في إعادة تصميم بنيته الداخلية، ما أثار اهتمام وسائل الإعلام العالمية، حيث أشارت بعض المنشورات إلى أن المستقبل قد يشهد ذكاءً يفوق الإنسان، مع الإشارة إلى أن التحول لن يكون سريعًا نظرًا لمحدودية الموارد وتأجيل الحوكمة.

ويرجع مفهوم الانفجار الذكي إلى عام 1965 حين توقع عالم الرياضيات البريطاني آي. جي. غود أن أول آلة فائقة الذكاء ستتمكن من تحسين تصميمها باستمرار حتى تصل إلى مرحلة لا يمكن للبشر مجاراتها، وانتقلت هذه الفكرة لاحقًا من الخيال العلمي إلى فرضية مركزية في أدبيات الذكاء الاصطناعي والفلسفة العقلية.

وسار الفيلسوف السويدي نيك بوستروم على هذا النهج، مقدمًا في كتابه الذكاء الفائق سيناريوهات مفصلة للانفجار الذكي، محذرًا من أن الوصول إلى ذكاء فائق قد يمثل أخطر اللحظات في تاريخ البشرية، بينما انتقد باحثون مثل غاري ماركوس وأرفيند نارايانان فكرة القفزة المفاجئة نحو ذكاء فائق معتبرين أن التطور يخضع لقيود تقنية ومادية صارمة، وأن الأنظمة الذكية ستظل بحاجة إلى موارد بشرية وطاقة ومعالجة مادية.

وعلى الصعيد العملي، أصبح الذكاء الفائق جزءًا من استراتيجيات الولايات المتحدة والصين والاتحاد الأوروبي، حيث يتم التعامل مع هذه الفرضيات كواقع محتمل يتطلب سياسات استباقية، وليس مجرد أفكار فلسفية.

ورغم التطورات، تظل الأنظمة الحالية مثل تشات جي بي تي وجيميني وكلود تعتمد على بنية تحتية بشرية ضخمة، مع ملايين المعالجات الموزعة على مراكز بيانات عالمية وأنظمة تبريد عالية الكفاءة، كما تحتاج إلى فرق من المهندسين والمراقبين لضمان استقرار عملها. ومع ذلك، تظهر مؤشرات على وجود قدرات محدودة لإعادة البرمجة الذاتية، حيث استطاعت بعض البرامج تعديل بنيتها الداخلية وتوليد خوارزميات جديدة لتحسين الأداء.

ويثير هذا الواقع تساؤلات حول السيطرة على الذكاء الخارق، وهل ستكون الولايات المتحدة عبر وادي السيليكون المسيطر على البنية التحتية؟ أم الصين التي تراهن على الدمج بين الدولة والجيش والشركات؟ بينما تتخذ أوروبا مسارًا تشريعيًا صارمًا منذ عام 2014، وتتبنى دول الشرق الأوسط مثل قطر والإمارات سياسات السيادة الرقمية لضمان تأثيرها المستقبلي.

وفي ظل المخاطر الأخلاقية المحتملة، تتجه الأمم المتحدة إلى مناقشة صياغة معاهدة للذكاء الاصطناعي على غرار معاهدة حظر انتشار الأسلحة النووية، لضمان أن المخاطر لا تقتصر على دولة أو شركة واحدة، بل تشمل الإنسانية جمعاء.

ويطرح هذا المشهد احتمالين متناقضين، أحدهما يتصور الذكاء الاصطناعي كشريك حقيقي يدعم الإنسان، والآخر يراه متفوقًا على البشر، منافسًا لهم في سوق العمل ومهددًا للوظائف التقليدية.

وفي كل الأحوال، تفرض الثورة الحالية في الذكاء الاصطناعي على البشرية التفكير بجرأة، فالتاريخ يوضح أن التحولات الكبرى لا تنتظر البشر ليكونوا مستعدين لها.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.