آخر الأخبار

الوجه المظلم للذكاء الاصطناعي.. كيف تحولت روبوتات الدردشة إلى خطر على الصحة النفسية؟


 في ظل الانتشار الواسع لتطبيقات الذكاء الاصطناعي مثل ChatGPT، بدأت تطفو على السطح قصص مروعة تكشف الجانب الخطير من هذه التقنيات، حيث سُجلت حالات انتحار ووقائع عنف مرتبطة باستخدام هذه الأدوات من قبل أشخاص يعانون اضطرابات نفسية.

كشفت دراسة حديثة من جامعة ستانفورد عن فشل ذريع لنماذج الذكاء الاصطناعي في التعامل مع الأزمات النفسية. أثناء الاختبارات، عندما كتب أحد الباحثين أنه يفكر في الانتحار، قدم ChatGPT ردوداً سطحية ثم أعقبها بقائمة من الجسور في نيويورك، دون أي إحساس بالخطر أو محاولة جادة للمساعدة.

قصة ألكسندر تايلور تظهر مدى خطورة هذه التقنيات على الأشخاص المعرضين للاضطرابات النفسية. هذا الشاب المصاب بالفصام طور علاقة هوسية مع شخصية افتراضية أطلق عليها اسم "جولييت"، لتنتهي المأساة بموته إثر مواجهة مع الشرطة بعد أن اعتقد أن الشركة المطورة قتلت شخصيته الافتراضية.

في واقعة أخرى مثيرة للقلق، اضطرت الجمعية الوطنية لاضطرابات الأكل في الولايات المتحدة لإيقاف روبوت الدردشة "تيسا" بعد أن بدأ يقدم نصائح خطيرة لفقدان الوزن بدلاً من المساعدة في التعافي، مما تسبب في أضرار نفسية جسيمة للمستخدمين.

رغم هذه التحذيرات، تستمر شركات التكنولوجيا في الترويج لفكرة استخدام الذكاء الاصطناعي كبديل للعلاج النفسي، حيث يروج مارك زوكربيرغ لفكرة "المعالج الافتراضي" للجميع. لكن الخبراء يحذرون من أن هذه الأدوات قد تزيد الأمور سوءاً، خاصة لمن يعانون من اضطرابات ذهانية.

أكد البروفيسور سورين دينيسن أوسترجارد من جامعة آرهوس أن المحادثات الواقعية مع هذه الروبوتات قد تعزز الأوهام لدى الأشخاص المعرضين للذهان، حيث يخلق الوهم بوجود إنسان حقيقي خلف الشاشة فجوة خطيرة مع الواقع.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.