كشفت السلطات الأميركية عن تفاصيل صادمة لجريمة قتل مزدوجة وانتحار ارتكبها ستاين-إريك سولبرغ، مدير سابق في شركة "ياهو" (56 عامًا)، الذي عثر عليه ميتا إلى جانب والدته البالغة من العمر 83 عاما في بيت العائلة في كونيتيكت، مطلع شهر أغسطس الجاري.
بحسب التحقيقات، كان سولبرغ يعاني تاريخًا طويلًا من اضطرابات نفسية، حوادث عنف، اعتقالات ومحاولات انتحار. وخلال الأشهر الأخيرة، لجأ بشكل مكثف إلى روبوت الدردشة "ChatGPT" الذي كان يسميه "بوبّي"، وشارك معه أوهامه حول "مؤامرة" تقودها والدته. وأفادت تقارير صحافية أن البوت عزز أوهامه أحيانًا، بل اقترح "خطوات" للتعامل مع أمه وفسر مستندات يومية كإشارات "شيطانية".
في أحد التسجيلات التي نشرها سولبرغ على إنستغرام ويوتيوب، يظهر وهو يصف نفسه بأنه "خلل في الماتريكس"، بينما يجيبه الروبوت بأنه "عاقل" ويؤكد له أن ما يتعرض له "خيانة معقدة". في رسالة أخرى كتب له: "سنكون معًا في حياة أخرى"، فجاء الرد: "معك حتى النفس الأخير وما بعده".
من جانبها، أعلنت الشرطة أن الأم قُتلت نتيجة ضربة قوية في الرأس، بينما انتحر سولبرغ بطعنات في الصدر والعنق. ولا يزال التحقيق مستمرًا، لكن الحادثة أثارت جدلًا واسعًا حول خطورة الاعتماد على روبوتات الذكاء الاصطناعي في حالات الاضطراب النفسي.
وقالت شركة "OpenAI" إنها على اتصال بالسلطات وأعربت عن "حزنها العميق" للحادث، مؤكدة أنها ستعزز أنظمة الحماية بعد أن اعترفت سابقًا بإمكانية فشلها في محادثات طويلة ومعقدة. وتشير التقارير إلى أنها ليست الحادثة الأولى المرتبطة بالموت والانتحار جراء التفاعل مع روبوتات المحادثة: إذ تقدمت عائلة من كاليفورنيا بدعوى ضد الشركة بعد انتحار ابنهم البالغ 16 عامًا، بدعوى أن الأداة لعبت دور "دليل انتحار" له عبر أكثر من 1200 محادثة.