يشهد العالم موجة متسارعة في اعتماد تقنيات الذكاء الاصطناعي لحماية الفئات الضعيفة مثل الأطفال في دور الرعاية وكبار السن والطلاب. لكن وراء هذه التقنيات الواعدة تكمن تحديات أخلاقية وعملية تطرح تساؤلات جوهرية حول جدواها الحقيقية.
تتنوع تطبيقات الذكاء الاصطناعي في هذا المجال بين تحليل الأنماط اللغوية للكشف عن العنف الأسري، والنمذجة التنبؤية لتقييم مخاطر الأسر، وأنظمة المراقبة الذكية لاكتشاف العنف الجسدي. هذه التقنيات تقدم وعوداً بالكشف المبكر عن المخاطر والتدخل السريع.
لكن الدكتورة أيسلين كونراد، الخبيرة في مجال العنف الأسري، تحذر من أن هذه الأنظمة قد تكرر نفس الأخطاء والتحيزات الموجودة في الأنظمة التقليدية. وتشير إلى أن الذكاء الاصطناعي يتعلم من بيانات تاريخية تحمل في طياتها أشكالاً من التمييز والعنصرية.
الأمثلة على هذه التحيزات كثيرة، منها نظام في بنسلفانيا كان يبلغ عن الأطفال السود بنسبة تفوق 20% مقارنة بالأطفال البيض. كما أظهرت دراسات أن أنظمة معالجة اللغة الطبيعية أساءت فهم اللهجات الأفريقية الأمريكية واعتبرتها عدوانية بنسبة تصل إلى 62%.
في أستراليا، كشفت تجربة نظام مراقبة بالذكاء الاصطناعي عن إنتاج 12 ألف تنبيه خاطئ في عام واحد، مما أرهق العاملين وأدى إلى إغفال حالات حقيقية. وفي المدارس الأمريكية، صنفت أنظمة المراقبة سلوكيات طبيعية مثل الضحك على أنها مؤشرات خطر.
تواجه هذه التقنيات معضلة أخلاقية حقيقية. فمن ناحية تهدف لحماية الضعفاء، ومن ناحية أخرى قد تتحول إلى أدوات مراقبة جماعية تكرر التحيزات وتنتهك الخصوصية.
لكن الأمل لا يزال قائماً وفقاً للدكتورة كونراد التي طورت إطار عمل "الذكاء الاصطناعي المستجيب للصدمات" القائم على أربعة مبادئ أساسية: تحكم الناجين في بياناتهم، الإشراف البشري، تدقيق التحيزات، وحماية الخصوصية منذ مرحلة التصميم.
بدأت بعض الحلول الواعدة بالظهور، مثل أدوات الكشف عن التحيزات المقدمة من شركات كبرى، وتشريعات تحد من استخدام الذكاء الاصطناعي في اتخاذ القرارات دون إشراف بشري كما في ولاية مونتانا الأمريكية.
الخبراء يجمعون على أن الذكاء الاصطناعي لن يحل محل الحكم البشري والتعاطف الإنساني، لكنه قد يصبح أداة مساعدة فعالة إذا ما تم تصميمه وتطبيقه وفق معايير أخلاقية صارمة تحمي حقوق الضعفاء بدلاً من انتهاكها.
إرسال تعليق