كشفت دراسة حديثة أجرتها شركة "جيسكارد" الفرنسية، المتخصصة في اختبار نماذج الذكاء الاصطناعي، أن توجيه روبوتات المحادثة العاملة بالذكاء الاصطناعي لتقديم إجابات موجزة قد يزيد من احتمالية وقوعها في "الهلوسة" – أي توليد معلومات غير دقيقة أو خاطئة.
ووفقًا للباحثين في "جيسكارد"، فإن الطلب على إجابات مختصرة، خصوصًا عند طرح أسئلة غامضة أو مضللة، يمكن أن يُقوّض دقة النموذج ويزيد من ميله لتقديم معلومات مغلوطة. وأشاروا في منشور مدونة إلى أن "تغييرات بسيطة في صيغة التعليمات قد تؤثر بشكل كبير في قابلية النموذج للوقوع في التضليل".
وتنبّه الدراسة إلى أن هذا التوجه له تداعيات كبيرة على تطبيقات الذكاء الاصطناعي، حيث تميل العديد من المنصات إلى تفضيل الردود المختصرة بهدف تقليل استهلاك البيانات وتسريع زمن الاستجابة وخفض التكاليف التشغيلية. لكن هذا قد يأتي على حساب الدقة.
الهلوسة تُعدّ من التحديات المعقدة التي تواجه مطوري الذكاء الاصطناعي، ولا تزال حتى النماذج المتقدمة مثل GPT-4o من "OpenAI"، وClaude 3.7 Sonnet من "Anthropic"، وMistral Large عرضة لها، لا سيما عندما يُطلب منها تقديم ردود مختصرة.
وتشير الدراسة إلى أن قصر الإجابات قد يمنع النموذج من توضيح الأخطاء أو الاعتراف بالمقدمات الخاطئة التي تتضمنها الأسئلة، وهو ما يعني أن الردود الدقيقة غالبًا ما تتطلب مساحة أكبر للتفسير. كما أوضح الباحثون أن تعليمات تبدو بسيطة مثل "كن موجزًا" يمكن أن تُضعف قدرة النماذج على التعامل مع المعلومات المضللة.
من بين أبرز ما توصلت إليه الدراسة، أن النماذج تكون أقل فاعلية في دحض الادعاءات الخلافية عندما تُطرح بصيغة واثقة، وأن النماذج التي يُفضّلها المستخدمون ليست دائمًا الأكثر التزامًا بالحقائق. وأشارت أيضًا إلى أن "تحسين تجربة المستخدم قد يتعارض أحيانًا مع دقة المعلومات"، مما يخلق حالة من التوتر بين الإرضاء والواقعية، خاصة عندما يكون المستخدم نفسه مُنطلقًا من افتراضات غير صحيحة.