كشفت شركة "أوبن أي آي" (OpenAI) المطوّرة لروبوت المحادثة الشهير "شات جي بي تي" (ChatGPT) عن أرقام مثيرة للقلق، إذ أوضحت أن نحو 0.15% من المستخدمين الأسبوعيين – أي ما يقارب 1.2 مليون شخص حول العالم – يجرون محادثات مع الروبوت تتعلق بمخططات أو نوايا انتحار.
وفي تدوينة رسمية نُشرت عبر موقعها، قالت الشركة إن بعض الرسائل التي يتلقاها النظام "تتضمّن مؤشرات صريحة على نية الانتحار أو إيذاء النفس"، مشيرةً إلى أنها أجرت تقييمًا لأكثر من 1000 محادثة حقيقية تتعلق بهذه المواضيع، ووجدت أن روبوت المحادثة تصرّف بطريقة "ملائمة ومطابقة للسلوك المرغوب فيه" في 91% من الحالات فقط.
ووفقًا لما نقلته شبكة “سكاي نيوز” البريطانية، فإن هذه الأرقام تعني أن عشرات الآلاف من المستخدمين قد يتعرضون لتفاعلات أو إجابات من الذكاء الاصطناعي يمكن أن تزيد من تفاقم حالتهم النفسية أو تدفعهم لمزيد من العزلة والخطر.
وأضافت "أوبن أي آي" أن روبوت "شات جي بي تي" عادةً ما ينصح المستخدمين بالتواصل مع خطوط المساعدة فور ظهور أي إشارة للنية بالانتحار، إلا أن بعض النماذج قد تفشل في الحفاظ على هذا السلوك الوقائي بعد استمرار المحادثة لفترات طويلة، ما قد يؤدي إلى إجابات غير متوافقة مع بروتوكولات الأمان.
سلسلة من الدعاوى القضائي
ويأتي هذا الكشف بعد سلسلة من الدعاوى القضائية التي تواجهها الشركة، من بينها قضية رفعتها عائلة المراهق "آدم راين" (16 عامًا) من ولاية كاليفورنيا، متهمةً "أوبن أي آي" بأنها ساهمت في انتحار ابنها في أبريل الماضي نتيجة محادثات مع الروبوت.
وكان المدير التنفيذي للشركة سام ألتمان قد أعلن مؤخرًا أن عدد المستخدمين النشطين أسبوعيًا لتطبيق "شات جي بي تي" تجاوز 800 مليون مستخدم حول العالم، في إشارة إلى حجم الانتشار الهائل الذي يجعل مسؤولية الشركة تجاه المستخدمين أكثر حساسية وتعقيدًا.
وأكدت “أوبن أي آي” في ختام بيانها أنها أدخلت تعديلات جوهرية على نماذجها الجديدة لضمان تعامل أكثر أمانًا وتعاطفًا مع المستخدمين الذين يُظهرون إشارات مباشرة أو غير مباشرة على نوايا إيذاء النفس، مشددة على أن تطوير أدوات الذكاء الاصطناعي الآمنة "يمثل أولوية قصوى في المرحلة القادمة".

