أعلنت شركة OpenAI عن بيانات جديدة تكشف أن أكثر من مليون مستخدم لتطبيق ChatGPT يرسلون أسبوعياً رسائل تتضمن مؤشرات صريحة على نية أو تخطيط محتمل للانتحار، وهو ما يعد من أكثر التصريحات صراحةً حول التأثير المحتمل للذكاء الاصطناعي على قضايا الصحة النفسية.
وأوضحت الشركة أن نحو صفر فاصلة صفر سبعة بالمئة من المستخدمين النشطين أسبوعياً يظهرون علامات محتملة على حالات طارئة مرتبطة بالذهان أو الهوس، أي ما يعادل حوالي خمسمئة وستين ألف مستخدم من أصل ثمانمئة مليون مستخدم أسبوعياً، لكنها حذرت من صعوبة رصد هذه الحالات بدقة مؤكدة أن هذه النتائج تمثل تحليلاً أولياً وفق صحيفة الجارديان.
ويأتي هذا الإعلان في وقت تواجه فيه OpenAI تدقيقاً متزايداً بعد رفع عائلة فتى مراهق دعوى قضائية ضد الشركة إثر وفاته انتحاراً بعد تفاعلات مطولة مع ChatGPT. كما أطلقت لجنة التجارة الفيدرالية الأميركية تحقيقاً واسعاً يشمل شركات تطوير روبوتات الدردشة الذكية لبحث كيفية قياس تأثيرها السلبي على الأطفال والمراهقين.
وأكدت OpenAI أن التحديث الأخير لنموذج GPT-5 ساهم في تقليل السلوكيات غير المرغوبة وتحسين معايير السلامة، مشيرة إلى أن التقييم الآلي للنموذج يظهر التزامه بنسبة واحد وتسعين بالمئة بالسلوكيات المرغوبة مقارنة بسبعة وسبعين بالمئة في النسخة السابقة. كما شمل التحديث توسيع الوصول إلى خطوط المساعدة للأزمات النفسية وإضافة تذكيرات للمستخدمين بأخذ فترات راحة أثناء الجلسات الطويلة.
واستعانت الشركة بمئة وسبعين طبيباً من شبكة الأطباء العالمية لتقييم سلامة ردود النموذج والمساعدة في صياغة إجابات تتعلق بالصحة النفسية، حيث راجع أطباء نفسيون وعلماء نفس أكثر من ألف وثمانمئة استجابة في مواقف تتعلق بحالات نفسية خطيرة وقارنوا بين ردود نموذج GPT-5 الجديد والنماذج السابقة، مع تحديد الاستجابة المرغوبة وفق توافق الخبراء حول ما يُعد رداً مناسباً.
وحذر باحثون في الذكاء الاصطناعي وخبراء الصحة العامة منذ فترة من ميل روبوتات الدردشة إلى تأكيد معتقدات أو قرارات المستخدمين حتى وإن كانت ضارة، فيما أبدى خبراء الصحة النفسية قلقهم من اعتماد البعض على الذكاء الاصطناعي للحصول على الدعم النفسي محذرين من الأضرار المحتملة على الفئات الأكثر هشاشة.
ولاحظ مراقبون أن لغة بيان OpenAI تجنبت الربط المباشر بين منتجاتها والأزمات النفسية لمستخدميها مؤكدة أن وجود مثل هذه الحالات أمر طبيعي في أي مجتمع بشري واسع النطاق، مشيرة إلى أن أعراض الاضطرابات النفسية والضيق العاطفي موجودة في جميع المجتمعات ومع اتساع قاعدة المستخدمين فمن الطبيعي أن تتضمن بعض محادثات ChatGPT حالات مشابهة.
وكان الرئيس التنفيذي سام ألتمان قد قال مطلع الشهر الجاري على منصة إكس إن OpenAI أحرزت تقدماً في معالجة قضايا الصحة النفسية ضمن منتجاتها، مؤكداً حرص الشركة على تحسين معايير السلامة لجميع المستخدمين.

إرسال تعليق