Dans une escalade sans précédent de l'utilisation de l'intelligence artificielle dans les opérations militaires, les forces armées américaines et israéliennes ont réussi à identifier 1000 cibles militaires en Iran au cours de la première journée des opérations surnommées "la frénésie de l'extermination". Ce développement indique à quel point l'intelligence artificielle est devenue partie intégrante des stratégies militaires, permettant à des systèmes complexes de traiter d'énormes quantités de données et de fournir des recommandations en un temps record, dépassant les capacités humaines.
Les témoignages issus des médias comme le "Washington Post" et Bloomberg confirment que ces développements n'auraient pas été possibles sans l'utilisation de ces systèmes, capables d'intégrer des informations provenant de sources multiples telles que des satellites, des drones et des communications cryptées. Cela soulève des questions sur la responsabilité éthique et légale des décisions militaires en l'absence de supervision humaine rigoureuse.
Le rapport de "Semafor" fournit des détails tragiques sur les conséquences des attaques, avec la mort de 175 enfants, principalement des filles, suite à un bombardement d'une école primaire dans la ville de Minab. Les experts soulignent que le fait de ne pas avoir identifié l'école comme une cible civile est en partie dû aux opérations automatisées de l'intelligence artificielle, mettant en lumière une crise éthique sur l'utilisation de cette technologie sur les champs de bataille.
L'analyse montre que le problème ne réside pas seulement dans l'incompétence humaine, mais aussi dans la manière dont les données sont utilisées. Les vingt dernières années ont démontré à quel point l'armée américaine était submergée par les données, et la réponse a été de développer des systèmes d'intelligence artificielle capables de traiter et d'analyser ces informations rapidement et efficacement. Cependant, la question demeure de savoir dans quelle mesure ils peuvent prendre les bonnes décisions en tenant compte des valeurs humaines et des normes éthiques.
Des entreprises privées telles que "Palantir" et "Anthropic" font partie de cette dynamique, travaillant à développer des systèmes complexes comme le système "Maven", conçu pour renforcer les capacités d'analyse militaire. Le président de Palantir indique que l'objectif principal est de faire en sorte que l'Occident - en particulier les États-Unis - soit la puissance militaire la plus meurtrière au monde, soulevant des questions sur la manière dont les États-Unis appliquent leurs politiques militaires dans des régions comme l'Iran.
Dans le même contexte, les avancées technologiques sur les champs de bataille représentent de grandes menaces pour l'humanité, alors que l'utilisation de systèmes d'intelligence artificielle pour prendre des décisions cruciales sans intervention humaine entraîne un risque d'escalade et une augmentation des victimes civiles, comme cela a été le cas lors de l'attaque contre l'école. Les guerres modernes s'approchent du seuil de l'utilisation de systèmes totalement automatisés, ce qui pourrait annoncer une catastrophe aux conséquences désastreuses.
Les applications militaires de l'intelligence artificielle ne se limitent pas à l'Iran, mais on a également observé des utilisations similaires dans des régions comme Gaza, où des systèmes d'intelligence artificielle ont été utilisés pour identifier des cibles et effectuer des analyses en un temps record. Cela signifie que le Moyen-Orient est devenu un terrain d'expérimentation pour le développement de la technologie militaire, ce qui complique les conflits et a un impact direct sur les civils.
De plus, les analystes soulignent la nécessité de cadres juridiques régissant l'utilisation de l'intelligence artificielle dans les opérations militaires. L'intérêt international pour la nécessité de traiter ces questions peut être l'espoir d'établir des normes protégeant les civils et garantissant qu'il n'y a pas de dépendance totale aux systèmes automatisés pour prendre des décisions de guerre.
Le paysage de l'intelligence artificielle sur les champs de bataille aujourd'hui reflète une transformation profonde de la nature des guerres et de la manière dont elles sont gérées, ce qui nécessite une révision exhaustive par la communauté internationale sur la façon de protéger les valeurs humaines et éthiques à une époque où les conflits s'intensifient et se compliquent. Tout manquement à cette révision pourrait entraîner une augmentation des événements tragiques comme ceux survenus en Iran.
