أثارت مقاطع مصوّرة انتشرت مؤخرًا عبر شبكات التواصل الاجتماعي جدلًا واسعًا، بعدما ظهرت فيها صور مزعومة لعدد من أعضاء الكنيست العرب وهم يروّجون لشراء عقارات. لكن سرعان ما تبيّن أنّ هذه المقاطع مزيفة، أنتجت باستخدام تقنيات الذكاء الاصطناعي. الحادثة أعادت إلى الواجهة النقاش حول خطورة هذه الظاهرة وطرق تمييزها.
أمين أبو هيكل: فيديوهات "التزييف العميق" تهدد السمعة والأمن الشخصي محليًا وعالميًا
غرفة الأخبار مع عفاف شيني
06:44
وفي هذا السياق، قال أمين أبو هيكل، المختص في مجال السايبر وأمن المعلومات، في حديث لراديو الناس إنّ ما يحدث اليوم "تطور متوقّع لتقنيات الذكاء الاصطناعي، لكن الخطير هو استغلالها لانتحال شخصيات عامة، كما حصل مع أعضاء الكنيست، بطريقة قد تخدع أي مستخدم عادي".
وأوضح أبو هيكل أنّ تقنيات "التزييف العميق" أو ما يُعرف بالـ Deepfake تعتمد على "التعلّم الآلي لنبرات الصوت وحركات الوجه وحتى حركة الشفاه لتبدو متناسقة مع الكلام"، لافتًا إلى أنّ ما يجعلها أكثر خطورة هو "القدرة على تقليد الأصوات عبر تقنيات Deep Voice، بحيث يمكن إنتاج خطاب كامل بصوت أي شخص بمجرد امتلاك تسجيل قصير له". وأضاف: "المستخدم العادي قد يجد صعوبة في التمييز، لكن غياب العاطفة في الصوت أو عدم انسجام تعابير الوجه مع حركة الشفاه قد تكون إشارات تكشف التزييف".
وأشار إلى أنّ بعض المنصات العالمية بدأت تطوّر أدوات للتصدي لهذه الظاهرة من خلال "الكشف عن العلامة المائية" التي تتركها أنظمة توليد الفيديوهات. لكنه حذّر في الوقت نفسه من أنّ مطوّري هذه التقنيات قادرون أيضًا على إزالة العلامات أو التلاعب بها، مما يعقّد مهمة التحقق.
ظاهرة عالمية مقلقة
ليست هذه الحادثة محلية فحسب، إذ شهد العالم في السنوات الأخيرة انتشارًا واسعًا لمقاطع "التزييف العميق". ففي الولايات المتحدة، تم تداول مقاطع مزيفة للرئيس السابق باراك أوباما وهو يدلي بتصريحات لم يقلها قط، في محاولة للتأثير على الرأي العام. وفي بريطانيا، انتشر مقطع مفبرك لرئيس الوزراء الأسبق بوريس جونسون يتحدث بلهجة ساخرة ضد خصومه السياسيين.
كما أُثيرت مخاوف أوروبية من استخدام هذه التقنيات في الحملات الانتخابية، إذ يمكن عبرها "تشويه السمعة" أو نشر أخبار مضللة بشكل يصعب كشفه. وفي الهند، ظهرت تسجيلات مفبركة لسياسيين خلال الانتخابات الأخيرة، مما أثار جدلًا واسعًا حول خطورة استخدامها في توجيه الناخبين.
محليا، هذه مخاطرها
وحذّر أبو هيكل من خطورة التعامل العفوي مع ما يُنشر عبر المنصات الرقمية، قائلاً: "يجب على المستخدم ألا يصدّق أي فيديو يُنشر على الشبكات لمجرد أنّه يبدو حقيقيًا. حتى لو ظهر شخص تعرفه بالصوت والصورة، قد يكون ذلك مجرد تلاعب عبر الذكاء الاصطناعي".
كما شدّد على أهمية تقليل نشر الفيديوهات الشخصية أو مشاركتها دون تعديلات أو فلاتر، موضحًا: "الفلاتر قد تجعل عملية التزييف أصعب، بينما نشر الفيديوهات كما هي يسهّل استغلالها من قبل المنتحلين".
وختم أبو هيكل بالقول: "الذكاء الاصطناعي أداة قوية، لكنها قد تتحول إلى سلاح خطير إذا لم نملك الوعي الكافي لمواجهتها. علينا أن نطوّر ثقافة تقنية تقوم على التحقق من المصادر والتفاصيل قبل مشاركة أي محتوى"، داعيًا المؤسسات الإعلامية والتعليمية إلى تكثيف التوعية بشأن مخاطر التزييف العميق.
الموحدة: نحذر من فيديوهات تصنع بالذكاء الاصطناعي تظهر النواب العرب وكأنهم يدعون للاستثمار
تحذّر القائمة العربية الموحدة من مقاطع فيديو مزيفة تُنشر مؤخرًا على وسائل التواصل تظهر النواب العرب ومن بينهم الدكتور منصور عباس وكأنهم يدعون للاستثمار. ونؤكد أنّ هذه المقاطع مصنوعة بتقنيات الذكاء الاصطناعي ولا أساس لها من الصحة.
ندعو الجمهور إلى الحذر، عدم التفاعل أو المشاركة، والتبليغ عن الصفحات والجهات المروّجة لها. من جهتنا، سنتخذ الإجراءات القانونية ضد الجهات المسؤولة. ونشدد أن أي تصريح رسمي للموحدة ونوابها يُنشر حصريًا وفقط عبر القنوات الإعلامية الموثوقة.


