الذكاء الصناعي: كيف ساهم في اغتيال نصر الله وكبار قادة حماس

الحرب الأخيرة على غزة شهدت استخداما مكثفا للذكاء الصناعي وكانت أول تجربة باغتيال ابراهيم البياري التي أدت لمقتل عدد كبير من المدنيين معه

راديو الناس|
2 عرض المعرض
رسم على حائط بتل ابيب عن نجاح اغتيال حسن نصر الله
رسم على حائط بتل ابيب عن نجاح اغتيال حسن نصر الله
رسم على حائط بتل ابيب عن نجاح اغتيال حسن نصر الله
(Photo by Miriam Alster/Flash90)
شهدت الحرب الأخيرة على قطاع غزة استخدامًا مكثفًا وغير مسبوق لتقنيات الذكاء الاصطناعي (AI) من قِبل الجيش الإسرائيلي، وتحديدًا وحدة الاستخبارات العسكرية 8200، والتي تُعتبر من أهم وأكبر وحدات الاستخبارات التكنولوجية في إسرائيل.
تقرير جديد نشرته صحيفة نيويورك تايمز يكشف تفاصيل دقيقة عن كيفية دمج هذه التقنيات في العمليات العسكرية، وعن الجدل الأخلاقي والقانوني الذي أثير نتيجة لذلك.
تذكر الصحيفة الأميركية على سبيل المثال اغتيال إبراهيم البياري، قائد كتيبة جباليا المركزية التابعة لحماس، والذي كان أحد قادة ومخططي أحداث السابع من أكتوبر/تشرين الأول. وبحسب التقرير، تمكنت إسرائيل من تحديد موقعه داخل شبكة أنفاق معقدة عبر تحليل محادثات صوتية بواسطة أنظمة ذكاء اصطناعي متقدمة. عملية استهدافه أسفرت عن مقتله، لكنها أدت أيضًا إلى مقتل أكثر من 125 مدنيًا، مما أثار موجة انتقادات دولية.
2 عرض المعرض
اغتيال القائد العسكري في حماس ابراهيم البياري في جباليا
اغتيال القائد العسكري في حماس ابراهيم البياري في جباليا
اغتيال القائد العسكري في حماس ابراهيم البياري في جباليا
((وفق البند 27 أ من قانون الحقوق الأدبية (2007)))
وكتبت صحيفة التايمز أنها أجرت مقابلات مع تسعة مسؤولين أمنيين كبار في إسرائيل والولايات المتحدة، وأن اغتيال بياري باستخدام نفس الأداة الصوتية هو مجرد مثال واحد على الطريقة التي تستخدم بها إسرائيل الحرب في غزة لاختبار ونشر تقنيات الذكاء الاصطناعي بسرعة للاستخدام العسكري، على مستوى لم يسبق له مثيل من قبل.
موظفون في كبرى شركات الهايتك يشاركون في بناء النموذج الذكي
على مدى الأشهر الـ18 الماضية، قامت إسرائيل بدمج الذكاء الاصطناعي في برامج التعرف على الوجه لمقارنة الصور الضبابية بالهويات الحقيقية، واستخدمتها لإعداد قائمة بالأهداف المحتملة للغارات الجوية، وأنشأت نموذج ذكاء اصطناعي باللغة العربية لإنشاء روبوت محادثة يمكنه مسح وتحليل الرسائل النصية ومنشورات وسائل التواصل الاجتماعي وغيرها من البيانات باللغة العربية.
وُلدت العديد من هذه المحاولات جراء التعاون السابق بين أفراد وحدة 8200، وبين الجنود وضبط الاحتياط في صفوف الجيش الإسرائيلي الذين يعملون في شركات التكنولوجيا مثل غوغل، ومايكروسوفت، وميتا. في وحدة 8200، تم إنشاء ما أصبح يُعرف لاحقًا باسم "الاستوديو" - وهو مركز مبتكر يتم فيه اختيار الخبراء للمشاريع في مجال الذكاء الاصطناعي. لكن في بعض الأحيان أدت هذه التقنيات الجديدة إلى أخطاء في تحديد الهوية ومقتل مدنيين في الهجمات.
ومن الأدوات التي طورها "الاستوديو" نموذج ذكاء اصطناعي باللغة العربية يسمى "نموذج اللغة الكبير". وأشارت صحيفة نيويورك تايمز إلى أن المطورين واجهوا في البداية صعوبة في إنشاء مثل هذا النموذج بسبب عدم وجود قاعدة بيانات عربية لتدريب التكنولوجيا، وإن وجدت فكانت بالفصحى، والتي تختلف عن اللغة العربية المنطوقة.
ولكن الجيش الإسرائيلي لم يواجه مثل هذه المشكلة، بعد عقود من فك رموز الرسائل النصية، ونصوص المكالمات الهاتفية، والمنشورات على وسائل التواصل الاجتماعي باللغة العربية المنطوقة. وبناء على ذلك تم إنشاء "نموذج اللغة الكبير" في الأشهر الأولى من الحرب، وبجانبه تم تطوير برنامج محادثة باللغة العربية. في وحدة 8200، قاموا بدمج الأداة مع قواعد بيانات الوسائط المتعددة التي تسمح للمحللين بإجراء عمليات بحث معقدة باستخدام الصور ومقاطع الفيديو.
التحدي الأصعب: الاغتيال الكبير في لبنان
بعد اغتيال الأمين العام لحزب الله حسن نصر الله في أيلول، قام الروبوت بتحليل ردود الفعل في البلدان الناطقة بالعربية. في بعض الأحيان، فشل برنامج المحادثة الآلي في التعرف على المصطلحات العامية الحديثة والكلمات المترجمة من الإنجليزية إلى العربية. وهذا تطلب من ضباط الاستخبارات في الجيش الإسرائيلي، الذين هم خبراء في اللهجات المختلفة، تحسين النظام. كما قدم روبوت المحادثة في بعض الأحيان إجابات غير صحيحة - مثل صور الأنابيب بدلاً من الأسلحة. ومع ذلك، ساهمت أدوات الذكاء الاصطناعي بشكل كبير في تسريع الدراسات والتحليلات المختلفة.
وفي المعابر المؤقتة التي أقيمت بين شمال قطاع غزة وجنوبه، زودت إسرائيل كاميرات قادرة على مسح وإرسال صور فلسطينيين عالية الدقة إلى برنامج التعرف على الوجوه المبني على الذكاء الاصطناعي. لكن النظام واجه في بعض الأحيان صعوبة في التعرف على الأشخاص الذين تغطي وجوههم. وأدى ذلك إلى اعتقال واستجواب فلسطينيين تم تحديدهم عن طريق الخطأ كمشتبه بهم.
الموقف الأخلاقي والحقوقي
أثار الاستخدام المكثف لهذه التقنيات تساؤلات أخلاقية وقانونية، خاصة مع سقوط عدد كبير من الضحايا المدنيين. ودعت جهات أكاديمية وخبراء حقوقيون إلى ضرورة فرض رقابة صارمة على استخدام الذكاء الاصطناعي في العمليات العسكرية.
وحذرت هاداس لوربر من معهد حولون للتكنولوجيا لصحيفة من أن هناك حاجة إلى الضوابط والتوازنات للذكاء الاصطناعي، مضيفة أن "القرارات النهائية ينبغي أن يتخذها البشر".
First published: 08:59, 26.04.25