
في أواخر عام 2023، واجهت إسرائيل تحديًا استخباراتيًا حاسمًا: العثور على إبراهام البياري، أحد أبرز قادة حركة حماس المتورطين في هجوم 7 أكتوبر الدامي. فشلت الأدوات التقليدية في تحديد موقعه، ما دفع الجيش الإسرائيلي إلى الاعتماد على تقنيات متطورة مدعومة بالذكاء الاصطناعي، لتبدأ قصة مثيرة حول استخدام التكنولوجيا في الحروب الحديثة. لكن هذا التقدم لم يخلُ من جدل أخلاقي حول تأثيره على المدنيين ومستقبل النزاعات المسلحة.
الذكاء الاصطناعي كسلاح استراتيجي: قصة إسقاط إبراهيم البياري
في محاولة لاغتيال إبراهام البياري، الذي اختبأ في شبكة أنفاق معقدة تحت قطاع غزة، لجأت إسرائيل إلى تطبيق تجريبي لتقنيات الذكاء الاصطناعي الصوتي، وفقًا لشهادات ثلاثة مسؤولين إسرائيليين وأمريكيين. هذه التكنولوجيا، التي طورتها الوحدة 8200 (التي تُقارن بوكالة الأمن القومي الأمريكية)، استطاعت تحليل المكالمات الهاتفية وتوفير موقع تقريبي للبياري. نتج عن الغارة الجوية التي شنتها إسرائيل في 31 أكتوبر 2023 مقتله، لكنها أيضًا أدت إلى مقتل أكثر من 125 مدنيًا، بحسب منظمة Airwars الرصدية.
هذا الحدث لم يكن مجرد عملية عسكرية فردية، بل كان نقطة تحول في استخدام الذكاء الاصطناعي كأداة حرب حاسمة.
دمج الذكاء الاصطناعي في العمليات العسكرية: من التعرف على الوجوه إلى تحليل البيانات العربية
لم تتوقف إسرائيل عند الأدوات الصوتية، بل توسعت في تطبيقات الذكاء الاصطناعي لتشمل:
- التعرف على الوجوه: دمجت تقنيات تُحلل الوجوه الجزئية أو التالفة لتحديد هويات المشتبه بهم بدقة أعلى.
- تحديد الأهداف: استخدمت خوارزميات الذكاء الاصطناعي لجمع قوائم الأهداف المحتملة للغارات الجوية، مما سرّع العملية العسكرية.
- التحليل اللغوي: طوّرت نموذجًا خاصًا باللغة العربية لتشغيل روبوت محادثة يُحلل الرسائل النصية ومنشورات وسائل التواصل الاجتماعي، بهدف جمع معلومات استخباراتية دقيقة.
هذه الجهود لم تكن ممكنة دون شراكة استراتيجية بين الجيش الإسرائيلي وشركات التكنولوجيا الكبرى. فجنود الاحتياط العاملون في شركات مثل جوجل وميتا ومايكروسوفت ساهموا في تطوير هذه الأدوات، حيث أنشأت الوحدة 8200 ما يُعرف بـ “الاستوديو”، مركز الابتكار الذي يربط الخبراء العسكريين بالتقنيات المدنية المتقدمة.
الآثار الجانبية: أخطاء التعرف وزيادة الخسائر المدنية
رغم النجاحات التكتيكية، حذر مسؤولون إسرائيليون وأمريكيون من مخاطر استخدام الذكاء الاصطناعي في سياقات الحرب:
- تحديد هويات خاطئة: أدت الأخطاء في خوارزميات التعرف إلى اعتقالات غير دقيقة، مما زاد من التوترات مع السكان المدنيين.
- زيادة الخسائر البشرية: ارتفاع معدلات القتلى المدنيين نتيجة الاعتماد على بيانات غير مكتملة أو مضللة.
- الرقابة المفرطة: استخدام الذكاء الاصطناعي في المراقبة الشاملة يُثير تساؤلات حول انتهاك الخصوصية وحقوق الإنسان.
كما أشار المسؤولون إلى أن هذه التكنولوجيا، رغم قوتها، تحتاج إلى ضوابط بشرية لتجنب الكوارث الأخلاقية، مشددين على أن “اتخاذ القرار النهائي يجب أن يبقى للإنسان”.
الرؤية الدولية: هل نحن أمام حرب من نوع جديد؟
وصف مسؤولون دفاعيون أوروبيون وأمريكيون استخدام إسرائيل للذكاء الاصطناعي في غزة بأنه الأكثر تقدمًا وسرعة في التاريخ الحديث. هذه التجربة تُظهر كيف يمكن للتكنولوجيا أن تُغير مفهوم الحروب المستقبلية، لكنها تُحذر أيضًا من انحراف هذه الأدوات عن أهدافها إذا لم تُنظم بقوانين صارمة.
على الجانب الآخر، رفضت شركتا ميتا ومايكروسوفت التعليق، بينما أكدت جوجل أن “عمل موظفيها الاحتياطيين لا علاقة له بنشاط الشركة”. أما آفي هاسون، رئيس منظمة Startup Nation Central، فأكد أن “جنود الاحتياط من شركات التكنولوجيا الكبرى ساعدوا في دمج معرفة فنية لم تكن متاحة سابقًا للجيش”.
الخلاصة: التكنولوجيا بين الابتكار والمسؤولية الأخلاقية
تُمثل تجربة إسرائيل في استخدام الذكاء الاصطناعي في غزة مرحلة جديدة في تاريخ الحروب، حيث تصبح البيانات والخوارزميات جزءًا من المعادلة العسكرية. لكن هذا التطور يطرح أسئلة وجودية:
- كيف يمكن التوازن بين الفعالية القتالية وحماية المدنيين؟
- ما الضمانات القانونية لمنع سوء استخدام هذه التكنولوجيا؟
- هل ستُعيد الدول تعريف “الحرب العادلة” في ظل أدوات الذكاء الاصطناعي؟
حتى الآن، يبدو واضحًا أن الذكاء الاصطناعي قد غير قواعد الاشتباك، لكن مستقبله يعتمد على المسؤولية الجماعية لضمان استخدامه بحكمة.

تعليق واحد
موفق