في سابقة قضائية أثارت جدلًا واسعًا في الأوساط القانونية الأميركية، أسقط قاضٍ فيدرالي في ولاية اوكلاهوما تهمًا عن رجل استخدم أدوات الذكاء الاصطناعي لإنتاج صور إباحية لقاصرين، بحجة أن "المواد المُصوّرة لا تتضمّن ضحية حقيقية"، وبالتالي فهي محميّة بموجب حرية التعبير.
القرار، الذي كشفت عنه صحيفة Washington Post في ديسمبر 2024، اعتُبر اختبارًا جديدًا لحدود "حرية التعبير" في زمن التقنيات التكنولوجية المتقدّمة. فالصور لم تكن حقيقية، بل تولّدَت بواسطة برمجيات ذكاء اصطناعي قادرة على إنتاج صور واقعية للغاية لأشخاص غير موجودين.
النيابة الأميركية اعتبرت هذه الممارسات تعزيزًا لثقافة الاستغلال الجنسي وفتح الباب للتطبيع مع محتويات مَرَضيّة، حتى إن لم تكن موجّهة ضدّ ضحية فعلية. امّا القاضي فأسقط التّهم معتبرًا أن التعديل الأوّل للدستور الأميركي، الذي يعنى بحرّية التعبير، قد يحمي هذه الصور "المولّدة" ما لم تكن هناك ضحية فعلية، ممّا يجعل إدانة المتهم صعبة قانونيًا، وإن كانت مرفوضة أخلاقيًا.
قوبل القرار بانتقادات حادّة من قانونيّين ومحلّلين، الذين رأوا فيه ثغرة خطيرة قد تُستغلّ في المستقبل لإنتاج محتويات غير قانونية، دون الخضوع لمساءلة أيّ كانت. وكأنّ القضيّة صدامٌ مباشر بين تطوّر الأدوات التكنولوجية، وبطء الاستجابة القانونية لتبعاتها الاجتماعية والأخلاقية.
فإذا لم يكن هناك طفل حقيقي، هل يعني ذلك أنه لا توجد جريمة؟