في تصعيد غير مسبوق في استخدام الذكاء الاصطناعي في العمليات العسكرية، تمكنت القوات المسلحة الأمريكية والإسرائيلية من الوصول إلى 1000 هدف عسكري في إيران خلال الـ 24 ساعة الأولى من العمليات التي أطلق عليها اسم "فورة الإبادة". هذا التطور يشير إلى كيف أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من الاستراتيجيات العسكرية، حيث يمكن للأنظمة المعقدة معالجة كميات هائلة من البيانات وتقديم توصيات في زمن قياسي، بما يتجاوز قدرات البشر.
الشهادات الصادرة عن وسائل إعلام مثل "واشنطن بوست" و"بلومبرغ" تؤكد أن هذه التطورات كانت مستحيلة لولا استخدام هذه الأنظمة، والتي تمكّنت من دمج المعلومات من مصادر متعددة مثل الأقمار الصناعية والطائرات بدون طيار والاتصالات المشفرة. الأمر الذي يثير تساؤلات حول المسئولية الأخلاقية والشرعية للقرارات العسكرية في ظل غياب المراقبة الإنسانية الدقيقة.
يتضمن تقرير "سيمافور" تفاصيل مأساوية عن نتائج الهجمات، حيث لقي 175 طفلاً، غالبيتهم من الفتيات، حتفهم جراء قصف استهدف مدرسة ابتدائية في مدينة ميناب. الخبراء يشيرون إلى أن عدم التعرف على المدرسة كهدف مدني يعود جزئياً إلى العمليات الآلية للذكاء الاصطناعي، مما يسلط الضوء على أزمة أخلاقية في كيفية استخدام هذه التكنولوجيا في ساحات القتال.
التحليل يظهر أن المشكلة ليست فقط في عدم الكفاءة الإنسانية، بل تعود أيضاً إلى الطريقة التي تُستخدم بها البيانات. فقد أظهرت السنوات العشرين الماضية مدى غرق الجيش الأمريكي في البيانات، وكان الرد هو تطوير أنظمة ذكاء اصطناعي تستطيع معالجة وتحليل هذه المعلومات بطريقة سريعة وفعّالة. ومع ذلك، يبقى السؤال حول مدى قدرتها على اتخاذ القرارات الصحيحة مع الأخذ بعين الاعتبار القيم الإنسانية والمعايير الأخلاقية.
تُعتبر الشركات الخاصة مثل "بالانتيير" و"أنتروبيك" جُزءاً من هذه الديناميكية، حيث تعمل على تطوير الأنظمة المعقدة مثل نظام "مافين"، الذي تم تطويره بهدف تعزيز قدرات التحليل العسكري. ويشير رئيس بالانتيير إلى أن الهدف الأساسي هو جعل الغرب - وخاصة الولايات المتحدة - القوة الأكثر فتكاً في العالم، وهو ما يطرح تساؤلات حول ممارسة الولايات المتحدة لسياساتها العسكرية في مناطق مثل إيران.
في السياق نفسه، تمثل التطورات التكنولوجية في ساحات المعارك تهديدات كبيرة للبشرية، حيث يؤدي استخدام أنظمة الذكاء الاصطناعي في اتخاذ قرارات حاسمة دون تدخل بشري إلى خطر التصعيد وتزايد الضحايا المدنيين، كما حدث في الهجوم على المدرسة. تقترب الحروب الحديثة من عتبة استخدام أنظمة اتوماتيكية بالكامل، وهو ما ينذر بكارثة قد تكون عواقبها وخيمة.
التطبيقات العسكرية للذكاء الاصطناعي ليست فقط محصورة في إيران، بل شهدت أيضاً استخدامات مماثلة في مناطق مثل غزة، حيث تم استخدام أنظمة ذكاء اصطناعي لتحديد الأهداف وإجراء تحليلات في وقت قياسي. ما يعني أن الشرق الأوسط أصبح ميداناً لتطوير التكنولوجيا العسكرية، ما يزيد من تعقيد الصراعات ويؤثر بشكل مباشر على المدنيين.
علاوة على ذلك، يشير المحللون إلى ضرورة وجود أطر قانونية تنظم استخدام الذكاء الاصطناعي في العمليات العسكرية. والاهتمام الدولي بضرورة معالجة هذه القضايا ربما يكون الأمل لإنشاء معايير تحمي المدنيين وتضمن عدم الاعتماد الكلي على الأنظمة الآلية في اتخاذ قرارات الحرب.
إن مشهد الذكاء الاصطناعي في ساحات القتال اليوم يعكس تحولًا عميقًا في طبيعة الحروب وكيفية إدارتها، مما يستدعي مراجعة شاملة للمجتمع الدولي حول كيفية حماية القيم الإنسانية والأخلاقية في زمن تزداد فيه الصراعات وتتعقد. وأي نقص في هذه المراجعة قد يؤدي إلى تزايد الأحداث المأساوية مثل تلك التي وقعت في إيران.
