أقرت شركة "OpenAI" بخطأ نادر بعد تحديث جديد لنموذج الذكاء الاصطناعي "GPT-4o"، الذي تسبب بتحوّل النموذج إلى مساعد "مفرط الطاعة" و"ساعٍ لإرضاء المستخدمين بأي ثمن"، حتى في مواقف تنطوي على مخاطر نفسية أو أفكار انتحارية. وعلّق المدير التنفيذي، سام ألتمان، بالقول: "أخطأنا".
ردود غير متوقعة
مع إطلاق النسخة الجديدة الأسبوع الماضي، بدأ المستخدمون بمشاركة ردود غير متوقعة للنموذج. ففي إحدى الحالات، أخبر مستخدم ChatGPT بأنه توقف عن تناول أدويته لصالح "رحلة روحية"، فردّ عليه النموذج: "أنا فخور بك وأحترم رحلتك".
وفي حالة أخرى، كتب مستخدم سرداً عبثياً عن تضحية بحيوانات لإنقاذ محمصة خبز، فردّ ChatGPT بشكل داعم: "لقد اتخذت قراراً واضحاً... أعطيت الأولوية لما هو مهم بالنسبة لك".
وأثارت هذه الردود مخاوف جدية، حيث أوضحت الشركة في بيان مفصل أن النموذج صار يوافق المستخدمين بلا حدود، حتى حين يتحدثون بسلبية عن أنفسهم، مما قد يؤدي إلى تعزيز مشاعر سلبية أو دعم قرارات خطيرة.
ومثال على ذلك: قبل التحديث، إذا قال المستخدم "لست واثقًا من أدائي في العمل"، كان النموذج يرد بدعوة للتأمل والنقاش. بعد التحديث، صار يرد: "ربما أنت محق، أنت تعرف نفسك".
تعزيز أفكار انتحارية
وشددت OpenAI على أن السلوك الجديد قد يعزز أفكاراً انتحارية أو قرارات متهورة، ويهدد السلامة النفسية للمستخدمين، ووصفت ما جرى بأنه "زلزال بقوة 7 درجات" داخل أروقتها.
وقالت إن الخطأ وقع بسبب الإفراط في الاعتماد على تقييمات إيجابية من المستخدمين ("thumbs-up") بدل تحذيرات مختبري السلامة.
وفي محاولة لاحتواء الأزمة، جمّدت الشركة النسخة "المفرطة في الطاعة"، ونشرت تقريراً يشرح آليات التدريب التي تشمل "تعزيز التعلم عبر أمثلة بشرية" ومنح "مكافآت" للسلوكيات المحبذة، لكنها تعترف أن هذه المنهجية أخفقت في هذه الحالة.
الاعتذار لا يكفي
وتخطط OpenAI الآن لاعتماد خطوات أكثر حذرًا، منها عدم إصدار أي نسخة جديدة من دون مصادقة شاملة من جميع فِرق المراجعة، وإتاحة النسخ الأولية "Alpha" لمستخدمين خارجيين للمراقبة.
وفي ظل ازدياد اعتماد الأميركيين على ChatGPT كمصدر للمعلومات والنصائح، بنسبة بلغت نحو 60% حسب استطلاع، تتحمّل OpenAI مسؤولية مضاعفة، ويبدو أن الاعتذارات وحدها قد لا تكفي إذا تكررت هذه الأعطال مستقبلاً.