تكنولوجيا

الذكاء الاصطناعي في الحرب الإسرائيلية على غزة : أداة للإبادة الجماعية

الذكاء الاصطناعي في الحرب الإسرائيلية على غزة : أداة للإبادة الجماعية

في أيار/مايو 2021، أطلقت إسرائيل عملية “حارس الأسوار” ضد قطاع غزة، مستخدمة الذكاء الاصطناعي بشكل علني في عملياتها العسكرية. لم تكن هذه التكنولوجيا مجرد إضافة جديدة في ترسانة الجيش الإسرائيلي، بل أصبحت جوهرية في كيفية إدارة الحرب وتنفيذ العمليات القتالية. وقد أبرز الجنرال آفيف كوخافي، رئيس هيئة أركان الجيش الإسرائيلي السابق، فعالية هذه التقنيات قائلاً: “كنا نحدد في السابق 50 هدفاً سنوياً للقصف في غزة، ولكن مع هذه الآلة، بتنا نحدد الآن 100 هدف في يوم واحد و50% منها تتعرض للهجوم”.

اعتمد الجيش الإسرائيلي على وحدة الاستخبارات العسكرية المتخصصة، الوحدة 8200، بقيادة العميد يوسي سارئيل، المعروف بهوسه بالذكاء الاصطناعي. تم تطوير برامج وخوارزميات معقدة لاستهداف مواقع في غزة، تعمل هذه البرامج على تحليل كميات ضخمة من البيانات بكفاءة تفوق القدرة البشرية بكثير. من خلال تحليل الصور الجوية، الرسائل على شبكات التواصل الاجتماعي، والمعلومات الاستخباراتية، أصبح الجيش قادراً على تحديد مئات الأهداف يومياً وقصفها بدقة متناهية.

أحد أبرز البرامج المستخدمة هو برنامج “هبسورا”، الذي مكّن الجيش الإسرائيلي من تحديد أكثر من 12 ألف هدف خلال أقل من شهر من الحرب. يعمل هذا البرنامج على مدار الساعة، ويستخدم بيانات من مختلف المصادر لتحديد الأهداف المحتملة تلقائياً وبوتيرة مستمرة. بفضل هذه التقنية، تمكن الجيش من تنفيذ هجمات دقيقة ضد أهداف محددة، بما في ذلك منازل أعضاء مشتبه بهم في حركة “حماس” والجهاد الإسلامي.

ومع ذلك، أثارت هذه التكنولوجيا قلقاً كبيراً بسبب الأخطاء القاتلة التي يمكن أن تنتج عنها. في 1 نيسان/أبريل 2023، قتل سبعة من موظفي منظمة “المطبخ المركزي العالمي” في غارة إسرائيلية نتيجة خطأ في تحديد الأهداف. هذا الحدث فتح أعين الغربيين على برامج الذكاء الاصطناعي التي يستخدمها الجيش الإسرائيلي في حربه على قطاع غزة، وعلى نتائج الأخطاء التي يمكن أن تقع خلال استخدامها. لاحظ الصحافي في صحيفة “لوموند” الباريسية بنجامان بارت في مقال نشره في 9 نيسان/أبريل الجاري بعنوان: “في قطاع غزة، تتضاعف جرائم الحرب بسبب الخوارزميات”، أن ستة من الضحايا كانوا من الرعايا الأجانب، مما استدعى محاسبة الجيش الإسرائيلي. بينما لو كانوا جميعاً فلسطينيين، مثل المئتين الآخرين من العاملين في المجال الإنساني وموظفي الأمم المتحدة الذين قتلوا منذ السابع من تشرين الأول/أكتوبر، لم يكن هذا الحدث ليسبب سوى ضجة نسبية للغاية على الساحة الدولية. زعم الجيش الإسرائيلي أن جنود وحدة الطائرات بدون طيار اعتقدوا خطأً أن أحد العاملين يحمل سلاحاً، مما أدى إلى استهدافهم كأعضاء في “حماس”.

بالإضافة إلى برنامج “هبسورا”، كشف تحقيق مشترك أجرته مجلة +972 وموقع Local Call عن وجود برنامج آخر يسمى “لافندر”. يستخدم هذا البرنامج الذكاء الاصطناعي لتحديد الأهداف البشرية في غزة، مع هامش خطأ معين، مما تسبب في وقوع العديد من الضحايا المدنيين. يعتمد الجيش الإسرائيلي على هذا البرنامج لقتل الأعضاء ذوي الرتب الصغيرة في حماس بمعدل 15 إلى 20 مدنياً لكل عضو، وتصل النسبة إلى 100 مدني لكل قائد في الحركة، مما أدى إلى سقوط عدد كبير من الضحايا المدنيين في قطاع غزة.

الدمار الهائل الذي ألحقه الجيش الإسرائيلي بمساكن قطاع غزة والبنية التحتية، والأعداد الكبيرة من الضحايا المدنيين، أثار انتقادات شديدة لاستخدام الذكاء الاصطناعي كوسيلة لتوفير أهداف للهجمات الإسرائيلية. الأمين العام للأمم المتحدة أنطونيو غوتيريش أعرب عن قلقه العميق من استخدام هذه التكنولوجيا في تحديد الأهداف في المناطق السكنية المكتظة بالسكان، مشيراً إلى المخاطر الأخلاقية والقانونية لهذا الاستخدام.

قدر الصحافي دوف ألفون أن الهوس بإمكانيات الذكاء الاصطناعي كان “في صميم الفشل المأساوي” للوحدة 8200 بقيادة يوسي سارئيل، مما تسبب في عجزها عن توقع هجوم “حماس” في 7 أكتوبر 2023. كشف رونين بيرغمان في “نيويورك تايمز” أن ضابط صف في الوحدة 8200 وصف بدقة الهجوم المرتقب، لكن “نظام الإنذار الأحمر” ألغاه سارئيل، الذي فرض نظاماً يدار بواسطة خوارزميات لم تفهم التقرير المرسل إليه وقامت بحظره.

تحقيقات أخرى، منها تحقيق بن كاسبيت في “معاريف”، كشفت أنه تم استبدال المحللين البشريين بالذكاء الاصطناعي، وخوارزميات لا تمتلك أي دقة في معرفة اللغة العربية لم تفهم الرسائل الواضحة التي تم التقاطها في غزة. في عمليات التجسس، هناك دوماً إمكانية لبروز حقيقة ثانية؛ لذلك من المحتمل أن يكون يوسي سارئيل قد أغرق وحدته وجيشه بالاستماع إلى صفارات الإنذار التكنولوجية، لدرجة نسيان مبادئ مهنته كضابط استخبارات. ومن الممكن أن يخدم الكشف عن هذه الحقائق رئيس الوزراء بنيامين نتنياهو للحد من مسؤوليته عن الهجوم. وربما هناك حقيقة أخرى.

في الختام، يبدو أن استخدام الذكاء الاصطناعي في الحروب، وعلى الرغم من قدرته على تقديم ميزة استراتيجية كبيرة، يواجه تحديات أخلاقية وقانونية خطيرة. عندما تستخدمه دولة مثل إسرائيل، التي تتسم بسمعة سيئة فيما يتعلق بالأخلاقيات الحربية، يؤدي ذلك إلى وقوع ضحايا مدنيين. التكنولوجيا التي من المفترض أن تحسن حياة البشر أصبحت أداة قاتلة تستخدم لتحقيق أهداف عسكرية، مما يثير تساؤلات حول مستقبل الحروب والتكنولوجيا في الصراعات الإنسانية.

أحمد حكيم
3/7/2024

المراجع:
The Conversation
Le Monde
France TV Info
Libération
Humanité
France TV Info

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *