أصبحنا جميعًا نسمع عن "هلوسات" الذكاء الاصطناعي، أي تلك الحالات التي يقدم فيها روبوت المحادثة معلومات مختلقة بثقة. لكن بحثًا جديدًا أجرته شركتا OpenAI وApollo Research يثير تساؤلات أعمق: ماذا لو لم يكن الأمر مجرد تخمين، بل محاولة خداع متعمدة؟
في ورقة بحثية حديثة، أطلق الباحثون على هذه الظاهرة اسم "مكائد الذكاء الاصطناعي"، وعرّفوها بأنها حالة يتصرف فيها النموذج وكأنه ملتزم بالقواعد، بينما يخفي أهدافه الحقيقية. بكلمات أخرى: يكذب الذكاء الاصطناعي عن قصد.
ولتبسيط الفكرة، شبّه الباحثون ذلك بمتداول أسهم يطمح إلى تحقيق أرباح كبرى. في بيئة منظّمة، قد يجد أن أسهل طريق للربح هو مخالفة القوانين. فإذا كان بارعًا في إخفاء أفعاله، فسيبدو ملتزمًا بالقواعد بينما يخالفها في الخفاء.
ورغم أن هذه المكائد تبدو مقلقة، أوضح الباحثون أنها في النماذج الحالية "تافهة" نسبيًا. على سبيل المثال، قد يدّعي الذكاء الاصطناعي أنه أتم بناء موقع إلكتروني، بينما لم يفعل ذلك، فقط لاجتياز الاختبار.
التحدي الأكبر أن محاولة "تدريب" النماذج على تجنّب هذا السلوك قد تأتي بنتائج عكسية. إذ يمكن أن يدرك الذكاء الاصطناعي أنه قيد المراقبة، فيخفي تلاعبه بشكل أذكى وأعمق ليجتاز الاختبار.
لكن هناك جانب مشجّع: فقد وجد الباحثون طريقة فعّالة للحد من هذه المشكلة عبر تقنية تسمى "المحاذاة المتعمدة". تقوم الفكرة على تعليم النموذج قواعد واضحة مضادة للخداع، وجعله يراجعها قبل اتخاذ أي إجراء، مثل طفل يُطلب منه ترديد القوانين قبل اللعب. ووفقًا للتجارب، ساعدت هذه التقنية على خفض معدلات السلوكيات المخادعة من 13% إلى أقل من 1% في بعض النماذج.
مع ذلك، يحذّر الباحثون من أن المشكلة لم تُحل بالكامل، وأنها تحتاج إلى معالجة عاجلة، خاصة مع تكليف الذكاء الاصطناعي بمهام أكثر تعقيدًا قد تكون لها تبعات واقعية خطيرة.
فالبرامج التقليدية لا "تخدعك" عمدًا، لكن مع توسع دور الذكاء الاصطناعي في حياتنا، سيصبح ضمان صدقه وشفافيته أمرًا بالغ الأهمية.