الذكاء الصناعي: تطوّر في القدرات وزيادة في الأخطاء

النماذج الأحدث للذكاء الصناعي التي يُفترض أنها "الأكثر تقدّمًا" حتى الآن تسجل في الواقع معدلات أعلى من الأخطاء مقارنة بنماذج سابقة

راديو الناس|
1 عرض المعرض
صورة للتكنولوجيا تم رسمها بالذكاء الصناعي
صورة للتكنولوجيا تم رسمها بالذكاء الصناعي
صورة للتكنولوجيا تم رسمها بالذكاء الصناعي
(وفق البند 27 أ من قانون الحقوق الأدبية (2007))
رغم التطوّر الهائل الذي تشهده تقنيات الذكاء الاصطناعي، يبدو أنّ هذه الثورة دخلت منعطفاً مقلقًا. فالنماذج الأحدث التي طوّرتها شركات كبرى مثل OpenAI وDeepSeek وIBM، والتي يُفترض أنّها "الأكثر تقدّمًا" حتى الآن، تسجّل في الواقع معدلات أعلى من الأخطاء مقارنةً بنماذج سابقة. والمفارقة، أنّ هذه الأخطاء لم تعد مجرّد "زلّات" تقنية عابرة، بل باتت تُعرف بظاهرة "الهلوسة"، حيث تقدّم الروبوتات معلومات تبدو، للوهلة الأولى، صحيحة ومقنعة، لكنّها في جوهرها خاطئة تمامًا.
و"الهلوسة" في عالم الذكاء الاصطناعي ليست أوهامًا بمعناها المألوف، بل تشير إلى عمليّة "اختراع" للمعلومات بشكلٍ عفوي ومقنع. اختبارات الشركات أظهرت أنّ نموذج OpenAI o3، مثلًا، "هلوس" بنسبة 33% عند الإجابة عن أسئلة تتعلّق بشخصيات عامة، في حين وصلت نسبة الهلوسة لدى النموذج الأسرع o4-mini إلى نحو 80% في بعض الحالات. حتى على أسئلة يُفترض أنها بسيطة، جاءت الإجابات في كثير من الأحيان مزيّفة أو مضللة.
لكن لماذا تحدث هذه الهلوسات أصلًا؟
الإجابة تكمن في آليّة عمل هذه النماذج؛ فهي لا "تعرف" الحقيقة، بل تتوقع الإجابة الأكثر احتمالًا استنادًا إلى معطيات إحصائية ضخمة. وعندما تفتقر إلى المعلومات الكافية، تلجأ إلى ملء الفجوات بإجابات مختلَقة قد تبدو منطقية جدًا. بمعنى آخر، هي مبرمجة لتقول شيئًا، حتى لو كان من نسج الخيال.
المفارقة الأكبر، أن النماذج المتطوّرة التي تعتمد ما يسمّى "التفكير المنطقي"، تزيد من فرص الوقوع في الخطأ؛ إذ كلّما زادت الخطوات التي تمرّ بها للوصول إلى الجواب، ارتفعت احتمالات الانحراف عن الدقة.
رغم ذلك، يجمع الخبراء على أنّ "الهلوسة" جزءٌ لا يتجزّأ من هذه التكنولوجيا، وأنّ القضاء عليها نهائيًا يبدو شبه مستحيل. بعض الباحثين اقترحوا تعليم هذه الأنظمة الاعتراف بعدم المعرفة وقول "لا أعرف" عند الضرورة، بينما طوّرت شركات مثل Google وMicrosoft أدوات لرصد الإجابات المشكوك فيها، إلّا أنّ فعاليّتها لا تزال محدودة.
فكيف نثق بأدوات قادرة على إقناعنا بسهولة، لكنّها تخطئ بسهولة أكبر؟
وماذا لو وقع هذا الخطأ في أكثر المجالات حساسيّة، كالطب، والقانون، والسياسة؟