آخر الأخبار

دراسة تكشف تفوق البشر على الذكاء الاصطناعي في تفسير التفاعلات الاجتماعية


 أظهرت دراسة جديدة أجراها باحثون في جامعة جونز هوبكينز أن البشر يتفوقون بشكل ملحوظ على أنظمة الذكاء الاصطناعي الحالية في فهم وتفسير التفاعلات الاجتماعية داخل مشاهد ديناميكية. ويعد هذا التفسير أمرًا حيويًا خصوصًا لتطوير تقنيات مثل السيارات الذاتية القيادة والروبوتات المساعدة التي تعتمد بشكل رئيسي على الذكاء الاصطناعي للتفاعل بشكل آمن في بيئات العالم الحقيقي.

وكشفت الدراسة أن أنظمة الذكاء الاصطناعي الحالية تعاني من صعوبة في فهم الإشارات الاجتماعية الدقيقة والسياقات الأساسية التي تُمكنها من التفاعل الفعّال مع البشر. وتُظهر نتائج البحث أن هذه الصعوبات قد تكون ناتجة عن البنية الأساسية لنماذج الذكاء الاصطناعي المتاحة الآن.

تم عرض نتائج الدراسة في مؤتمر التعلم الآلي والذكاء الاصطناعي (International Conference on Learning Representations) في 24 أبريل، حيث أضافت ليلى إيسيك، المؤلفة الرئيسية للدراسة والأستاذة المساعدة في قسم علوم الإدراك في جامعة جونز هوبكينز، قائلة: "على سبيل المثال، يحتاج نظام الذكاء الاصطناعي في السيارات الذاتية القيادة إلى التعرّف على نوايا السائقين والمشاة، مثل التنبؤ في أي اتجاه سيسير المشاة أو ما إذا كان شخصان يتحدثان معًا، أو ما إذا كانوا على وشك عبور الشارع. وفي لحظات تفاعل الذكاء الاصطناعي مع البشر بشكل مباشر، يجب أن يكون النظام قادرًا على فهم ما يفعله الناس، وهذه الدراسة توضح أن النماذج الحالية لا تزال غير قادرة على أداء هذا الدور بشكل كافٍ".

في إطار المقارنة بين الذكاء الاصطناعي والبشر في فهم التفاعلات الاجتماعية، طلب الباحثون من مجموعة من المشاركين البشر مشاهدة مقاطع فيديو قصيرة مدتها ثلاث ثوانٍ، وتقييم سمات أساسية لفهم التفاعلات الاجتماعية. وشملت هذه المقاطع مشاهد لأشخاص يتفاعلون مع بعضهم البعض بشكل مباشر، أو ينفذون أنشطة تعاونية أو مستقلة.

ثم طُلب من أكثر من 350 نموذجًا للذكاء الاصطناعي، بما في ذلك نماذج لغوية ونماذج تدربت على مقاطع فيديو وأخرى على صور ثابتة، التنبؤ بكيفية تقييم البشر لتلك المقاطع. ومع ذلك، لم تتمكن النماذج المعتمدة على الذكاء الاصطناعي من الوصول إلى نفس مستوى الدقة التي قدمها البشر في تقييم هذه المشاهد، بغض النظر عن حجم البيانات أو نوع النماذج المستخدمة.

كما أظهرت نتائج الدراسة أن النماذج المدربة على مقاطع الفيديو لم تتمكن من وصف الأنشطة البشرية بدقة، بينما فشلت النماذج المدربة باستخدام الصور الثابتة في التعرف على التفاعلات بين الأشخاص في مقاطع الفيديو. وكانت النماذج اللغوية أكثر نجاحًا في التنبؤ بالسلوك البشري.

وفي تعليقها على النتائج، قالت كاثي غارسيا، طالبة الدكتوراه والمشاركة في الدراسة: "التعرف على الوجوه والأشياء في الصور الثابتة لم يعد كافيًا. كان ذلك خطوة أولى في تطوير أنظمة الذكاء الاصطناعي، لكن الحياة الواقعية ليست ثابتة، نحن بحاجة إلى أن يفهم الذكاء الاصطناعي العلاقات الاجتماعية والسياق والتفاعلات الديناميكية".

النتائج التي تم التوصل إليها في هذه الدراسة تشير إلى فجوة كبيرة في قدرة الذكاء الاصطناعي على محاكاة ما يفعله البشر في الحياة الواقعية، وهو ما يحد من استخدامه في بعض التطبيقات الحيوية مثل السيارات الذاتية القيادة والروبوتات المساعدة. ويعتقد الباحثون أن السبب في هذه الفجوة يكمن في أن الشبكات العصبية للذكاء الاصطناعي مستوحاة من بنية الدماغ المسؤولة عن معالجة الصور الثابتة، وهي لا تتناسب مع المناطق الدماغية التي تتعامل مع المشاهد الاجتماعية الديناميكية.

ختامًا، أوضحت ليلى إيسيك، أن استجابة الدماغ البشري للمشاهد الديناميكية لا يمكن محاكاتها حاليًا بواسطة النماذج المعتمدة على الذكاء الاصطناعي، مشيرة إلى أن هناك عنصرًا أساسيًا في معالجة الإنسان للمشاهد الاجتماعية تفتقر إليه هذه الأنظمة الذكية.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.