حذر البروفيسور توبي والش، أحد أبرز العلماء في مجال الذكاء الاصطناعي، من المخاطر المتزايدة التي تطرحها "خوارزميات الموت" في سياق الحرب الإيرانية، حيث أصبحت الأنظمة الذكية تشارك في اتخاذ قرارات القتل بشكل متزايد. وأكد والش في حديثه للجزيرة أن غياب المساءلة القانونية يهدد بتحويل الحروب إلى دمار مؤتمت بالكامل.
مع تصاعد النزاع في إيران، أصبح واضحاً أن المعارك لم تعد تدار بالأسلحة التقليدية فقط، بل أيضاً بالشفرات البرمجية المتطورة والبيانات الضخمة. فالتفوق العسكري لم يعد يعتمد على الترسانات، بل على ما وصفه البعض بـ "ثورة خوارزمية"، مما يشير إلى أن العالم قد تجاوز بالفعل نقطة اللاعودة في عسكرة الذكاء الاصطناعي.
تفاصيل الحدث
أوضح والش أن الجيوش، وعلى رأسها الجيش الأمريكي، لم تعد تكتفي بالأسلحة التقليدية، بل تعتمد بشكل متزايد على أنظمة معالجة البيانات الضخمة لتحديد الأهداف العسكرية. وقد تم استخدام خوارزميات متقدمة لتحليل كميات هائلة من المعلومات الاستخباراتية، مما أدى إلى تقديم "توصيات ضرب" فورية. هذه الأنظمة قادرة على اختيار السلاح المناسب والتوقيت المثالي للهجوم بناءً على احتمالات النجاح وتقليل الخسائر.
هذه التحولات التقنية تسهم في تسريع وتيرة النزاع، حيث يقلص الذكاء الاصطناعي "دورة اتخاذ القرار" إلى أجزاء من الثانية، مما يجعل الحروب أسرع من قدرة القادة البشر على الاستيعاب أو التراجع. وهذا يطرح تساؤلات حول الأخلاقيات المرتبطة بتسليم "مفاتيح الحرب" للآلات.
السياق والخلفية
في ظل هذه التحولات، حذر والش من أن الآلات تفتقر إلى "الذكاء العاطفي" والقدرة على ممارسة "التقدير الأخلاقي" في مواقف معقدة. وقال: "يجب أن نشعر بقلق شديد، فالآلات لا تمتلك صفاتنا الإنسانية، ولا تعرف التعاطف، والأخطر من ذلك أنه لا يمكن مساءلتها عن الأخطاء". هذه المخاوف تعيد إلى الأذهان سيناريوهات أفلام الخيال العلمي، حيث تدار الحروب بالكامل عبر أنظمة مؤتمتة.
في هذا السياق، كشف والش عن تحركات دولية في جنيف تهدف إلى صياغة أطر قانونية ملزمة. الفكرة المطروحة حالياً هي معاملة "الذكاء الاصطناعي العسكري" مثل الأسلحة الكيميائية والبيولوجية، مما يستدعي حظر أو تقييد أي تقنيات قد تؤدي إلى انزلاق البشرية نحو سيناريوهات خطيرة.
التداعيات والتأثير
استخدام الذكاء الاصطناعي في الحرب ضد إيران لم يكن مجرد تجربة تقنية، بل كان بمثابة "إثبات مفهوم" لجيل جديد من الحروب. نحن الآن أمام لحظة فارقة، فإما أن ينجح المجتمع الدولي في وضع "أكواد أخلاقية" ملزمة لهذه البرمجيات، أو أننا سنواجه مستقبلاً تدار فيه الصراعات بواسطة خوارزميات لا تعرف الندم ولا تخضع للمحاسبة.
هذا التحول في طبيعة الحروب يثير قلقاً عميقاً حول مستقبل الإنسانية، حيث قد تصبح الحروب أكثر دموية وتعقيداً في ظل غياب القيم الإنسانية. كما أن هذه التطورات قد تؤدي إلى تفاقم الأزمات الإنسانية في مناطق النزاع، مما يستدعي تحركاً عاجلاً من المجتمع الدولي.
الأثر على المنطقة العربية
تتأثر المنطقة العربية بشكل مباشر من هذه التحولات، حيث أن استخدام الذكاء الاصطناعي في الحروب قد يؤدي إلى تصعيد النزاعات القائمة. كما أن غياب الأطر القانونية قد يفتح المجال أمام استخدام هذه التقنيات بشكل غير مسؤول، مما يهدد الأمن والاستقرار في المنطقة.
في ختام حديثه، أكد والش أن المجتمع الدولي أمام تحدٍ كبير، يتطلب تعاوناً دولياً لوضع قواعد تحكم استخدام الذكاء الاصطناعي في الحروب، لضمان عدم انزلاق البشرية نحو مستقبل مظلم.
