أثار إطلاق النسخة الجديدة من تطبيق الفيديوهات المدعوم بالذكاء الاصطناعي "Sora 2" موجة من الانتقادات، بعد أن انتشرت عبره مقاطع تتضمّن مشاهد عنف وعنصرية وشخصيات محمية بحقوق نشر في أوضاع مسيئة، رغم تعهّد الشركة بوضع "ضوابط صارمة" لمنع مثل هذا المحتوى.
انتقادات حادة للمنصة الجديدة
ذكرت صحيفة "ذا غارديان" أنّ تطبيق "Sora"، الذي أطلق الثلاثاء، تمكّن خلال ثلاثة أيام فقط من تصدّر متجر "آبل"، متفوّقًا حتى على تطبيق "ChatGPT". غير أنّ باحثين في التضليل الإعلامي حذّروا من أنّ المقاطع التي يُنتجها التطبيق، بتقنية عالية تُشبه الواقع، قد تُستخدم لنشر الأكاذيب والتحريض والتخويف.
وأوضحت الباحثة في جامعة بوسطن، جوان دونوفان، أنّ هذه التقنية "لا علاقة لها بالحقيقة أو التاريخ"، مضيفةً: "حين تقع بأيدي أشخاص سيئين، تُستخدم للتحريض والكراهية".
مقاطع تمثّل حروبًا وكوارث وهمية
وبحسب التقرير، أنتج التطبيق مقاطع تُظهر تفجيرات وهمية في جامعات ومحطات قطارات، وأطفالًا يتحدثون من مناطق حرب في غزة وميانمار، فضلًا عن فيديوهات من "مسيرات شارلوتسفيل" يظهر فيها متظاهر أسود يردد شعارًا للعنصريين البيض.
شكاوى من ضعف "الضوابط"
رغم أنّ رئيس OpenAI، سام ألتمان، وصف التطبيق بأنّه "لحظة الإبداع المشابهة لإطلاق ChatGPT"، إلّا أنّ مستخدمين وصحافيين قالوا إنّ آليات الرقابة في التطبيق غير فعّالة، بعدما تمكّن البعض من إنتاج فيديوهات بشخصيات مشهورة تروّج لعمليات احتيال بالعملات الرقمية.
الأستاذ في جامعة جورج واشنطن، ديفيد كارف، علّق قائلًا: "الضوابط ليست حقيقية إذا كان بإمكان الناس إنشاء شخصيات محمية تروّج لاحتيالات".
جدل حول حقوق النشر
وقبل الإطلاق، تواصلت OpenAI مع استوديوهات وشركات إنتاج لتخييرها بين السماح باستخدام شخصياتها أو تقديم طلبات استثناء، لكن الشركة أقرت لاحقًا أنّه لا يمكن للأفراد أو الشركات منع استخدام شخصياتهم بشكل شامل.
وقالت أستاذة اللغويات في جامعة واشنطن، إميلي بندر، إن هذه التطورات "تضعف ثقة الناس بالمصادر الموثوقة وتلوّث النظام المعلوماتي كما يفعل تسرب النفط بالبيئة".