تثير تطورات قانونية متسارعة في الولايات المتحدة تساؤلات غير مسبوقة حول حدود مسؤولية شركات الذكاء الاصطناعي، بعد بروز دعوات لبحث إمكانية تحميل مطوري هذه التقنيات مسؤولية جنائية عن أدوار محتملة لأدواتهم في جرائم قتل أو حالات انتحار، في خطوة قد تعيد رسم العلاقة بين التكنولوجيا والقانون.
وتصدّر الجدل مؤخرًا بعد تصريحات للمدعي العام في ولاية فلوريدا، جيمس أوثماير، على خلفية تحقيقات مرتبطة بهجوم إطلاق نار شهدته جامعة ولاية فلوريدا في أبريل/نيسان 2025. وقال أوثماير في تصريح لافت: "لو كان هذا الشيء خلف الشاشة إنسانًا، لكنا اتهمناه بالقتل"، في إشارة إلى روبوت الدردشة "تشات جي بي تي".
وبحسب المعطيات التي جمعها مكتب الادعاء، أجرى منفذ الهجوم، الطالب فينيكس آيكنر، محادثات مع برنامج الذكاء الاصطناعي تناولت أنواع الأسلحة والذخائر، إلى جانب مناقشات مرتبطة بأماكن وتوقيتات قد تُستخدم لإلحاق أكبر قدر من الضرر، قبل أن ينفذ هجومًا داخل الحرم الجامعي أسفر عن مقتل شخصين وإصابة ستة آخرين.
وفي ضوء ذلك، فتح المدعي العام تحقيقًا جنائيًا لم يستبعد خلاله احتمال توجيه اتهامات إلى شركة OpenAI المطورة لـ"تشات جي بي تي" أو إلى أفراد من طواقمها.
ورغم أن القانون الأمريكي يسمح نظريًا بملاحقة الشركات وموظفيها جنائيًا، إلا أن هذا النوع من القضايا يبقى نادرًا نسبيًا. وقد شهدت الولايات المتحدة سابقًا ملاحقات بحق شركات كبرى في قضايا مختلفة، من بينها شركات أدوية وصناعات كبرى على خلفيات صحية وبيئية.
ويرى خبراء قانونيون أن القضية قد تستند إلى فرضيات مثل الإهمال أو تجاهل مخاطر معروفة أو التقصير في إجراءات الحماية. إلا أنهم يؤكدون أن الوصول إلى إدانة جنائية في ملف بهذا التعقيد يتطلب أدلة داخلية قوية تثبت علم الشركة بمخاطر محددة وعدم تعاملها معها بشكل جدي.
من جهتها، نفت شركة OpenAI مسؤولية "تشات جي بي تي" عن الهجوم، مؤكدة أن الأداة ليست مسؤولة عن "الجريمة الشنيعة"، وأنها تعمل باستمرار على تطوير أنظمة حماية قادرة على رصد النوايا الخطيرة والتعامل معها بما يحافظ على سلامة المستخدمين.
ويشير مختصون إلى أن المسار المدني قد يكون أكثر قابلية للتحقق من الجنائي، إذ رُفعت بالفعل عدة دعاوى ضد شركات الذكاء الاصطناعي في الولايات المتحدة، معظمها مرتبط بادعاءات حول تأثير أنظمة المحادثة على حالات انتحار أو أعمال عنف، إلا أن أياً منها لم يصل حتى الآن إلى إدانة قضائية نهائية.
وبينما يرى البعض أن أي إدانة محتملة قد تشكل نقطة تحول تاريخية في مساءلة شركات الذكاء الاصطناعي، يحذر آخرون من أن الاعتماد على المحاكم وحدها لن يكون كافيًا، مؤكدين أن القطاع يحتاج إلى أطر تنظيمية وتشريعات واضحة تحدد المسؤوليات وحدود التدخل قبل أن تتحول التكنولوجيا نفسها إلى طرف داخل قاعات المحاكم.

