يواجه العديد من الأشخاص اليوم خطر التورط في جرائم لم يرتكبوها بسبب التلاعب بالصورة والفيديو باستخدام الذكاء الاصطناعي، وهو أمر أصبح يشكل تهديدًا كبيرًا للمجتمعات. الأمين العام للإنتربول، يورجن ستوك، حذر من أن المجرمين أصبح لديهم الآن أدوات قوية، مثل التزييف العميق للصور والفيديوهات، ومحاكاة الأصوات، وتزييف الوثائق، التي باتت سهلة الوصول إليها بفضل التطور السريع في الذكاء الاصطناعي.
لكن في المقابل، تتسابق أجهزة الأمن حول العالم لتوظيف الذكاء الاصطناعي في مكافحة الجريمة. من أنظمة التعرف على الوجوه، إلى تقنيات التعرف التلقائي على لوحات السيارات، وحتى أدوات مراقبة وسائل التواصل الاجتماعي، لا يقتصر الأمر على تحسين الأمن فقط، بل أصبح للذكاء الاصطناعي دور في تسريع العمليات القضائية.
رغم ذلك، يحمل استخدام هذه التقنيات العديد من المخاطر المرتبطة بالخصوصية، والمساءلة، والعدالة. من أبرز هذه المخاطر التحيّز في الخوارزميات التي تستخدمها الأنظمة القضائية، حيث تؤدي البيانات الملوثة بتحيّزات إلى نتائج غير عادلة، ما قد يؤثر على الحكم في القضايا. فكيف يمكن ضمان أن هذه الأنظمة خالية من التحيّز؟ ومن يتحمل المسؤولية إذا ارتكب الذكاء الاصطناعي خطأ في اتخاذ القرارات القضائية؟
في هذا السياق، تكشف التقارير مثل تحقيق "نيويورك تايمز" الذي سلط الضوء على شركة "Clearview AI" الأمريكية، التي جمعت بيانات صور ملايين الأشخاص من الإنترنت لاستخدامها في تقنيات التعرف على الوجوه. لكن هذه الممارسات أثارت جدلاً واسعًا حول الخصوصية، ودفعت حكومات عدة إلى فرض قيود على استخدامها.
المخاوف بشأن دقة تقنيات التعرف على الوجوه ما زالت قائمة، إذ أظهرت الدراسات أن هذه الأنظمة قد ترتكب أخطاء في التعرف على الأشخاص ذوي البشرة السمراء، مما قد يؤدي إلى اعتقال الأبرياء أو التمييز العنصري. ونتيجة لذلك، بدأت بعض وكالات الشرطة، مثل شرطة تورنتو في كندا، بتطوير سياسات أكثر شفافية بشأن استخدام الذكاء الاصطناعي، رغم أن هذه المبادرات لم تتوسع على نطاق واسع.
تتجاوز التحديات المتعلقة بالتقنيات الحديثة مشاكل التحيّز في الخوارزميات، فالتزييف العميق أصبح أداة قوية لخلق أدلة مزيفة، مما يثير الشكوك حول صحة الأدلة في المحاكم. فقد ظهرت حالات مثل قضية جوشوا دولين التي تم فيها الطعن في مصداقية مقاطع الفيديو التي كانت جزءًا من الأدلة، رغم أنها كانت قد تم جمعها من منصات مثل يوتيوب.
وما يزيد الوضع تعقيدًا هو أن تقنيات التزييف العميق تُستخدم في مهاجمة الشخصيات العامة، مما يسبب للمدعى عليهم حالة من التشكيك في الأدلة المقدمة ضدهم، ويؤثر ذلك على قرارات المحلفين والقضاة في القضايا المعقدة.
ومع استمرار تقدم هذه التقنيات، يواجه النظام القضائي تحديات جديدة، حيث يعبر العديد من القضاة والمحامون عن قلقهم من إمكانية وقوع أخطاء قضائية نتيجة عدم القدرة على التمييز بين الأدلة الحقيقية والمزيفة. لذلك، هناك دعوات لتحديث الأنظمة القانونية لتواكب هذا التقدم التكنولوجي السريع.
وفيما يتعلق بتوظيف خوارزميات الذكاء الاصطناعي في اتخاذ قرارات قضائية، فإن هناك مخاوف حقيقية من استخدامها في تحديد مصير الأفراد في السجون، على سبيل المثال، استنادًا إلى تقديرات قد تكون متحيزة أو غير دقيقة. خاصة أن هذه الأنظمة تعمل وفق "صناديق سوداء" يصعب على المستخدمين فهم طريقة عملها.
من الجدير بالذكر أن بعض الدول، مثل دول الاتحاد الأوروبي، بدأت في تطوير قوانين صارمة لتنظيم استخدام الذكاء الاصطناعي في المجالات الحساسة مثل العدالة الجنائية. هذه التشريعات تهدف إلى حماية حقوق الإنسان ومنع التمييز العنصري، مما يعد خطوة هامة نحو استخدام هذه التقنيات بشكل مسؤول وآمن.
إرسال تعليق