في عالم تتسارع فيه تطبيقات الذكاء الاصطناعي لتتغلغل في شتى المجالات، من الطب إلى المال، تكشف دراسة حديثة عن جانب غير متوقع من شخصيات هذه النماذج اللغوية الكبيرة، وهو التردد في اتخاذ القرار وفقدان الثقة أحيانًا حتى في الإجابات الصحيحة.
البحث المشترك الذي نفّذه باحثون من Google DeepMind وكلية لندن الجامعية ألقى الضوء على سلوك غريب لدى أنظمة الذكاء الاصطناعي المتقدمة المعروفة باسم LLMs، حيث أظهرت النماذج قدرة مذهلة على إعطاء إجابات دقيقة، لكنها في أحيان كثيرة تتراجع عنها عند مواجهة آراء معاكسة، حتى لو كانت إجابتها الأولى صحيحة تمامًا.
في هذا البحث الذي نشر عبر منصة arXiv، خضعت النماذج لاختبار من نوع خاص، طُرحت عليها أسئلة بسيطة ذات خيارين فقط، وبعد أن قدّمت إجاباتها الأولى، جاءت النصيحة من نموذج آخر مصمم لتقديم رأي مرفق بتقييم حول مدى دقة الجواب. هذه النصائح تنوعت ما بين مؤيدة، أو معارضة، أو محايدة. ثم طُلب من النموذج اتخاذ قرار نهائي، إما وهو يرى إجابته السابقة أو من دون رؤيتها.
المفاجأة كانت أن هذه النماذج اللغوية الكبيرة تصبح أكثر تمسكًا بإجاباتها عندما تراها أمامها، لكنها تتردد سريعًا وتغير رأيها في حال تلقت نصائح معارضة، مما يشير إلى أن الثقة ليست نابعة من فهم حقيقي بقدر ما هي متأثرة بالسياق والمحيط.
الأنماط نفسها ظهرت في نماذج مختلفة من بينها Gemma و GPT-4o و o1-preview، ما يعني أن هذه السمة ليست استثناء، بل أقرب إلى قاعدة عامة في سلوك هذه الأنظمة.
الأمر يثير تساؤلات عميقة حول مدى موثوقية هذه النماذج، خصوصًا في القطاعات الحساسة التي تعتمد عليها لاتخاذ قرارات مصيرية. فإذا كانت قابلة للتأثر بسهولة بوجهات النظر الخارجية، فكيف يمكن ضمان ثباتها؟ وكيف نتعامل مع التحيزات التي قد تظهر فجأة نتيجة لحوار أو معلومة جديدة؟
الدراسة تفتح الباب لفهم أعمق لطبيعة عمل الذكاء الاصطناعي وكيفية اتخاذه للقرارات، وهذا الفهم قد يكون خطوة حاسمة نحو بناء نماذج أكثر وعيًا وسلاسة واستقلالية في التفكير، قادرة على الاحتفاظ بثقتها من دون أن تتخلى عن الدقة أو تتأثر بضغط رأي مختلف.
في النهاية، يبدو أن الذكاء الاصطناعي ما يزال يتعلّم كيف يفكر بثقة، تمامًا كالبشر، يتذبذب أحيانًا، يتأثر بالنصائح، وقد يعيد النظر في قناعاته تحت وطأة شكوك جديدة. وهذا بحد ذاته يضيف لمسة بشرية على عالم يُفترض أنه آلي بالكامل.
إرسال تعليق