الذكاء الاصطناعي سلاح بيد الجماعات المتطرفة - ما القصة؟

حسب ما أوردته وكالة “أسوشيتد برس”، يرى خبراء أمنيون أن تنظيم “داعش” أدرك منذ سنوات أهمية وسائل التواصل الاجتماعي كمنصّة مركزية للتجنيد وبثّ المعلومات المضللة

|
2 عرض المعرض
تحذيرات استخبارية: الذكاء الاصطناعي قد يتحول إلى سلاح بيد الجماعات المتطرفة
تحذيرات استخبارية: الذكاء الاصطناعي قد يتحول إلى سلاح بيد الجماعات المتطرفة
تحذيرات استخبارية: الذكاء الاصطناعي قد يتحول إلى سلاح بيد الجماعات المتطرفة
(chatgpt)
حذّرت وكالات استخبارات وخبراء في الأمن القومي من تنامي مخاطر استخدام الذكاء الاصطناعي من قبل الجماعات المسلحة المتطرفة، معتبرين أنه قد يشكّل أداة فعّالة لتجنيد عناصر جدد، وإنتاج محتوى وصور مزيفة، وتعزيز قدراتها في تنفيذ الهجمات السيبرانية ونشر الدعاية على نطاق واسع.
وبحسب ما أوردته وكالة “أسوشيتد برس”، يرى خبراء أمنيون أن تنظيم “داعش” أدرك منذ سنوات أهمية وسائل التواصل الاجتماعي كمنصّة مركزية للتجنيد وبثّ المعلومات المضللة، الأمر الذي يجعل لجوءه حاليًا إلى اختبار أدوات الذكاء الاصطناعي تطورًا متوقعًا في استراتيجيته الرقمية.
وفي هذا السياق، أشار التقرير إلى أن مستخدمًا على موقع إلكتروني مؤيد لتنظيم داعش دعا، الشهر الماضي، أنصار التنظيم إلى دمج الذكاء الاصطناعي في عملياتهم، وكتب باللغة الإنجليزية أن “أحد أبرز مزايا الذكاء الاصطناعي هو سهولة استخدامه”.
عمليات التجنيد المتطرف ونقلت الوكالة عن مصادر استخبارية قولها إن بعض أجهزة الأمن تخشى أن يؤدي توظيف الذكاء الاصطناعي في عمليات التجنيد المتطرف إلى تحويل أسوأ السيناريوهات إلى واقع ملموس، في ظل القدرة على إنتاج دعاية رقمية وصور ومقاطع فيديو مزيفة على نطاق واسع وبكلفة منخفضة.
وأوضح جون لاليبيرت، الباحث السابق في وكالة الأمن القومي الأميركي والرئيس التنفيذي الحالي لشركة الأمن السيبراني “كلير فيكتور”، أن الذكاء الاصطناعي يجعل تنفيذ العمليات أكثر سهولة بالنسبة لأي جهة معادية، مضيفًا: “حتى مجموعة صغيرة ذات موارد محدودة يمكنها إحداث تأثير كبير”.
ووفق التقرير، بدأت الجماعات المسلحة باستخدام أدوات الذكاء الاصطناعي منذ إطلاق برامج مثل “تشات جي بي تي”، إلا أن الأشهر الأخيرة شهدت تصاعدًا ملحوظًا في اعتمادها على هذه التقنيات لإنتاج محتوى بصري ومرئي أكثر واقعية. ويسهم ربط هذا المحتوى بخوارزميات منصّات التواصل الاجتماعي في توسيع دائرة التأثير، واستقطاب مؤيدين جدد، وإرباك الخصوم، وبثّ الخوف والدعاية.
ومن الأمثلة على ذلك، انتشار مقاطع فيديو دعائية أُنتجت باستخدام الذكاء الاصطناعي على وسائل التواصل الاجتماعي، عقب هجوم تبنّاه تنظيم داعش العام الماضي وأسفر عن مقتل 140 شخصًا في قاعة حفلات بمدينة موسكو، بهدف استقطاب مجندين جدد.
2 عرض المعرض
تحذيرات استخبارية: الذكاء الاصطناعي قد يتحول إلى سلاح بيد الجماعات المتطرفة
تحذيرات استخبارية: الذكاء الاصطناعي قد يتحول إلى سلاح بيد الجماعات المتطرفة
تحذيرات استخبارية: الذكاء الاصطناعي قد يتحول إلى سلاح بيد الجماعات المتطرفة
(chatgpt)


"الجماعات المتطرفة لا تزال متأخرة تقنيًا " وفي المقابل، نقلت “أسوشيتد برس” عن ماركوس فاولر، العميل السابق في وكالة الاستخبارات المركزية الأميركية (CIA) والرئيس التنفيذي الحالي لشركة “دارك تريس فيدرال” للأمن السيبراني، أن الجماعات المتطرفة لا تزال متأخرة تقنيًا مقارنة بدول مثل الصين وروسيا وإيران، إلا أنها تواصل السعي للحاق بالتطورات. وأضاف فاولر أن “داعش كان من أوائل التنظيمات التي استثمرت في تويتر ووجد طرقًا لاستخدام وسائل التواصل الاجتماعي لصالحه، وهو دائمًا يبحث عن الأداة التالية لإضافتها إلى ترسانته”.
وأشار التقرير إلى أن قراصنة الإنترنت يستخدمون بالفعل تقنيات الصوت والفيديو الاصطناعي في حملات التصيّد الاحتيالي، من خلال انتحال شخصيات مسؤولين كبار في شركات أو حكومات بهدف اختراق شبكات حساسة، كما يمكن استخدام الذكاء الاصطناعي في كتابة برمجيات خبيثة أو أتمتة مراحل من الهجمات السيبرانية.
سيناريوهات مثيرة للقلق ووفقًا للمصدر ذاته، فإن أكثر السيناريوهات إثارة للقلق يتمثل في احتمال لجوء الجماعات المسلحة إلى الذكاء الاصطناعي للمساعدة في تطوير أسلحة بيولوجية أو كيميائية، بهدف تعويض نقص الخبرات التقنية لديها. وقد أُدرج هذا الخطر ضمن “تقييم التهديدات الداخلية” المحدث الصادر عن وزارة الأمن الداخلي الأميركية في وقت سابق من هذا العام.
وفي ضوء هذه التهديدات، تحرك مشرعون أميركيون وطرحوا سلسلة مقترحات تشريعية للحد من المخاطر المتزايدة. وقدم السناتور مارك وارنر، كبير الديمقراطيين في لجنة الاستخبارات بمجلس الشيوخ، مقترحًا يهدف إلى تسهيل تبادل المعلومات بين مطوري تقنيات الذكاء الاصطناعي حول كيفية استغلال منتجاتهم من قبل جهات سيئة، سواء جماعات متطرفة أو قراصنة أو أجهزة تجسس.
كما كشفت جلسات استماع حديثة في الكونغرس الأميركي أن تنظيمي داعش والقاعدة عقدا ورشات تدريبية لمساعدة أتباعهما على تعلّم استخدام أدوات الذكاء الاصطناعي. وفي السياق ذاته، أقرّ مجلس النواب الأميركي، الشهر الماضي، تشريعًا يُلزم مسؤولي وزارة الأمن الداخلي بإجراء تقييم سنوي لمخاطر الذكاء الاصطناعي التي قد تشكلها هذه الجماعات.