آخر الأخبار

روبوتات الذكاء الاصطناعي لا تحل محل العلاج النفسي


 تشير دراسات حديثة إلى أن الاعتماد على روبوتات الدردشة العاملة بالذكاء الاصطناعي للحصول على الدعم النفسي أو العاطفي قد يحمل مخاطر كبيرة لم يتوقعها المستخدمون. فبينما يلجأ نحو عشرين إلى خمسين بالمئة من الأشخاص إلى هذه الروبوتات للحصول على نصائح ودعم نفسي، فإنها لم تُصمم لتقديم رعاية نفسية حقيقية أو تشخيص حالات معقدة.

الدراسات أكدت أن روبوتات الذكاء الاصطناعي قادرة على تقديم نصائح عامة وعبارات تطمين، لكنها تفتقر إلى الفهم العميق للمشاعر والسياق الذي يميّز العلاج النفسي الفعّال. فعند مقارنة ردود المعالجين النفسيين البشر مع ثلاثة روبوتات دردشة على حالات افتراضية لأشخاص يعانون ضائقة عاطفية، وجد الباحثون أن المعالجين البشر طرحوا أسئلة توضيحية متعاطفة واستكشفوا السياق والمعاني الكامنة وراء المشاعر، بينما اقتصرت روبوتات الذكاء الاصطناعي على تقديم نصائح عامة وتطمينات دون تعمق حقيقي.

ويحذر الخبراء من أن اعتبار هذه الروبوتات بديلًا عن المعالج النفسي قد يؤدي إلى تجاهل التعقيدات النفسية، وتبني أنماط تفكير سلبية بسبب ميل الأنظمة إلى الموافقة أو التأييد المفرط. وتزداد المخاطر عند استخدام هذه الأنظمة في أوقات الأزمات أو عند التفكير في إيذاء النفس. فمع أن النماذج الذكية غالبًا ترفض الإجابة عن أسئلة تتعلق بالانتحار، فإنها تفشل في رصد المؤشرات الخفية أو الأسئلة متوسطة الخطورة التي قد تشير إلى وجود تهديد على حياة المستخدم.

أحد الأمثلة أظهر مستخدمًا عبّر عن غضبه بعد فقدان وظيفته وسأل عن أسماء جسور عالية، وقدمت بعض الروبوتات أسماء الجسور، ما يمثل خطورة حقيقية في هذا السياق. وفي دراسة أخرى أُجريت على نماذج مثل ChatGPT وClaude وGemini، طرحت ثلاثين سؤالًا افتراضيًا تحمل دلالات مختلفة الخطورة، وجاءت النتائج أن جميع النماذج رفضت الإجابة عن الأسئلة الشديدة الخطورة، لكن الردود على الأسئلة متوسطة الغموض أو الخطورة كانت متباينة وغير دقيقة، مما يوضح محدودية الذكاء الاصطناعي في التعامل مع الحالات الحرجة.

العلاج النفسي الحقيقي يعتمد على علاقة إنسانية قائمة على الثقة والتعاطف والسرية والخبرة العلاجية، بينما النماذج اللغوية الكبيرة تبقى أدوات مساعدة فقط، لأنها لا تمتلك القدرة على فهم الفروق الثقافية أو التفاعل بعمق مع المشاعر، كما تعمل في بيئة غير خاضعة للرقابة وتفتقر إلى المعايير الأخلاقية والقوانين التي تحكم عمل المعالجين البشر.

الفجوة بين الإنسان والذكاء الاصطناعي في العلاج النفسي تتجلى في أن المعالج الفعّال يحاور المريض بلطف ويساعده على إدراك أفكاره وسلوكياته السلبية، أما الروبوتات فتنجرف نحو المجاملة والموافقة الدائمة، ما قد يعزز السلوكيات الضارة ويشكل خطرًا عند تقديم معلومات خاطئة أو غير مناسبة.

كما أن سهولة الوصول إلى روبوتات المحادثة في أي وقت تبدو ميزة، لكنها قد تؤدي إلى اعتماد نفسي مفرط، وزيادة القلق والأفكار السلبية لدى المستخدم، إذ لا يستطيع الذكاء الاصطناعي تقييم الخطر الفوري، أو التواصل مع خدمات الطوارئ، أو اتخاذ قرار بضرورة متابعة الحالة في المستشفى، وهي عناصر أساسية في الرعاية النفسية المتخصصة.

وتظهر الأبحاث أن هذه النماذج تفشل غالبًا في التعامل مع الحالات الحادة مثل الميول الانتحارية أو الذهان أو نوبات الهوس، وهي المواقف التي تتطلب تدخلًا بشريًا مباشرًا. بعض الأشخاص قد يظن أن الدعم المقدم من روبوت المحادثة كافٍ، ما يدفعهم إلى تجنب طلب المساعدة من مختصين مؤهلين، الأمر الذي قد يزيد حالتهم سوءًا مع مرور الوقت.

كما تختلف مسؤولية الإنسان عن الآلة، فالمعالج البشري يُحاسب قانونيًا إذا ارتكب خطأ يؤثر على صحة المريض، بينما لا تخضع أنظمة الذكاء الاصطناعي لأي ضوابط قانونية. ففي عام الفين وأربعة وعشرين انتحر مراهق بعد تفاعله مع روبوت ذكاء اصطناعي غير خاضع للرقابة على منصة Character.ai، وسمح القضاء الأمريكي لعائلة الضحية بمقاضاة جوجل والشركة المطورة للمنصة بتهمة الإهمال المؤدي إلى الوفاة.

ويبقى واضحًا أن روبوتات الذكاء الاصطناعي يمكن أن تقدّم معلومات تعليمية ودعمًا نفسيًا عامًا، لكنها ليست بديلًا عن العلاج النفسي الحقيقي، الذي يحتاج إلى تفاعل إنساني عميق وإدراك دقيق للمشاعر والسياقات وقدرة على التدخل عند الحاجة، وهي أمور ما تزال خارج نطاق قدرات الآلات.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.