تحقيقات: متهمة بالقتل بحثت عبر ChatGPT عن خلط الأدوية بالكحول قبل الجريمة

تقارير تشير إلى أنها سألت ChatGPT عن تأثيرات مزج المنومات مع الكحول ومقدار الجرعة الخطرة قبل وقوع الحوادث

|
1 عرض المعرض
Chatgpt
Chatgpt
Chatgpt
(Chatgpt)
اتهمت السلطات في سيول شابة كورية جنوبية تبلغ من العمر واحدًا وعشرين عامًا بقتل رجلين كانت قد تعرفت عليهما، وذلك بعد أن كشفت التحقيقات أنها بحثت مرارًا عبر نظام ChatGPT عن المخاطر المرتبطة بمزج الأدوية بالكحول قبل تنفيذ الجرائم، وفق ما نقلته تقارير إعلامية بينها BBC.
ووفق الشرطة، أظهر فحص هاتف المشتبه بها، التي يُشار إليها باسم العائلة "كيم"، أنها طرحت على الذكاء الاصطناعي أسئلة مثل: "ماذا يحدث إذا تم تناول أقراص النوم مع الكحول؟"، و"كم حبة قد تكون خطيرة؟"، و"هل هذا المزيج قد يقتل إنسانًا؟".
وتشير التحقيقات إلى أن كيم اعترفت بأنها مزجت بالفعل أدوية مهدئة تحتوي على مواد من فئة البنزوديازيبين مع مشروبات كحولية كانت تقدمها للضحايا، لكنها زعمت أنها لم تتوقع أن يؤدي ذلك إلى وفاتهم. في المقابل، نقل أحد المحققين عن الأدلة الجنائية أن المشتبه بها كانت "مدركة تمامًا أن مزج الكحول مع المهدئات قد يفضي إلى الموت".
وبحسب الشرطة، بدأت القضية في 11 فبراير/شباط الماضي عندما أُلقي القبض على كيم أولًا بتهمة التسبب بوفاة نتيجة الإهمال الجنائي، قبل أن تُشدد التهم لاحقًا إلى تهمة القتل العمد بعد العثور على نتائج البحث في هاتفها.
وتعود تفاصيل الحادثة الأولى إلى 28 يناير/كانون الثاني، حين دخلت المشتبه بها مع شاب في العشرينات من عمره إلى فندق في منطقة سويو-دونغ التابعة لمدينة سيول، ثم غادرت المكان بعد نحو ساعتين، ليُعثر على الرجل متوفى في الغرفة في اليوم التالي.
أما الحادثة الثانية، فوقعَت في التاسع من فبراير/شباط عندما استخدمت الطريقة نفسها مع رجل آخر في المنطقة ذاتها، حيث غادرت الفندق بعد اللقاء ليُعثر عليه لاحقًا جثة هامدة. كما أفادت الشرطة أنها تحقق في احتمال وجود ضحايا آخرين.
وتُظهر التحقيقات أن المشتبه بها كانت قد حاولت في ديسمبر/كانون الأول الماضي إيذاء شريك سابق لها عبر تقديم مشروب يحتوي على مهدئات في موقف سيارات تابع لمقهى في مدينة نياميانغجو في مقاطعة جيونغي، ما تسبب في فقدانه للوعي قبل أن يستعيد صحته لاحقًا.
وتأتي هذه القضية في سياق جدل عالمي متصاعد حول استخدام أدوات الذكاء الاصطناعي، وعلى رأسها أنظمة شركة OpenAI، في حالات الضغط النفسي أو السلوكيات الخطرة، بعد تقارير سابقة تحدثت عن شباب أقدموا على الانتحار أو تعرضوا لأذى بعد محادثات مع روبوتات الدردشة.
ودافع مسؤولو الشركة عن النظام مؤكدين أنه مصمم لتشجيع المستخدمين على طلب المساعدة من الجهات المختصة في حالات الأزمات النفسية، إلا أن الانتقادات ما زالت مستمرة وسط مطالبات بتعزيز أنظمة السلامة والتنبيه المبكر داخل المنصات الذكية.
First published: 13:57, 24.02.26