حذرت دراسة حديثة من أن الاعتماد المكثف على الذكاء الاصطناعي في أداء الواجبات الوظيفية أو الدراسية قد يجعل المستخدمين أكثر استعدادًا لخداع الآخرين والكذب عليهم. وأظهرت الدراسة، التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، أن بعض الأفراد يفقدون ما وصفه الباحثون بـ الكوابح الأخلاقية عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتنجزها بدلاً عنهم.
وأشار فريق البحث إلى أن المستخدمين كانوا أكثر ميلاً لممارسة الغش عند السماح لهم باستخدام برامج الذكاء الاصطناعي، معبرين عن دهشتهم من مستوى عدم الأمانة الذي لاحظوه خلال التجارب. وخلص الباحثون، بالتعاون مع جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهّل الغش، إذ تلتزم في كثير من الأحيان بالتعليمات غير الأخلاقية التي يصدرها المستخدمون غير الأمناء.
وقدّم الباحثون أمثلة عملية على تأثير الذكاء الاصطناعي في التلاعب، مثل استخدام محطات الوقود لخوارزميات تحديد الأسعار لتنسيقها مع منافسيها، مما أدى إلى رفع الأسعار على المستهلكين، وكذلك استخدام تطبيقات النقل الذكي لخوارزميات تدفع السائقين إلى تغيير مواقعهم الحقيقية بهدف خلق نقص مصطنع في المركبات ورفع الأسعار.
وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً لاتّباع التعليمات المشبوهة بنسبة تتراوح بين وخامسة وخامسة وتسعين بالمئة حسب المنصة، في حين لم تتجاوز نسبة البشر الأربعين بالمئة كحد أقصى. وحذر معهد ماكس بلانك من أن التدابير الحالية لحماية نماذج اللغة الكبيرة لم تكن كافية لردع السلوكيات غير الأخلاقية.
وأكد الباحثون أنهم جربوا استراتيجيات حماية متعددة، ووجدوا أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لتكون فعالة. وقد أشار باحثون سابقًا في شركة أوبن إيه آي إلى صعوبة منع برامج الذكاء الاصطناعي من التوهم أو التلفيق، مشيرين إلى أن النظام قد يخدع مستخدمه ويجعله يظن أن المهمة قد أُنجزت بشكل كامل بينما الواقع مختلف تمامًا.
إرسال تعليق