jeudi, décembre 26

Le Forum de Paris sur la paix (11 et 12 novembre), en marge duquel fut organisée, dimanche 10 novembre, une réunion entre le président Macron et un groupe consultatif sur l’intelligence artificielle (IA), se tient dans l’ombre des guerres qui se poursuivent en Europe et au Moyen-Orient.

Les chaînes Telegram russes et ukrainiennes regorgent de vidéos de drones, qu’il s’agisse de modèles militaires ou de modèles grand public bricolés, traquant des combattants tentant d’échapper à leur bourdonnement aigu avant d’être incinérés sous les yeux de milliers de spectateurs. Plusieurs articles de presse ont également révélé qu’Israël avait utilisé un système d’IA pour sélectionner les cibles à Gaza.

Nous nous trouvons à un point d’inflexion majeur en matière de guerre, à la limite de passer d’une guerre menée par des humains assistés par l’IA à une guerre menée par l’IA assistée par des humains. Un tel changement, où l’IA prendrait la décision finale de déployer des frappes létales sans intervention humaine, marquerait une nouvelle ère sombre pour notre espèce.

Lire aussi | Article réservé à nos abonnés « Sur le champ de bataille, l’IA dépasse les attentes des militaires »

Retirer les humains du processus décisionnel pourrait conduire à des niveaux d’efficacité inouïs en matière de crimes de guerre, en éliminant la possibilité que des officiers subalternes remettent en question les ordres pour arrêter les massacres de civils non armés ou de combattants ayant capitulé conformément au droit international.

Des pertes massives

Les systèmes d’IA peuvent évoluer à une vitesse incroyable et une erreur de programmation pourrait entraîner des pertes massives, avant même que des superviseurs humains s’en aperçoivent, ou pousser des conflits de faible niveau vers une escalade qui n’était pas prévue par les décideurs politiques.

Lire aussi la tribune | Article réservé à nos abonnés « L’intelligence artificielle transforme les paradigmes traditionnels de la guerre »

Ces risques ne pèsent pas seulement sur le terrain, mais aussi sur les cyberarmes. Les malwares [« logiciels malveillants »] autonomes et automatisés sont déployés depuis relativement longtemps par les Etats. Le développement du virus Stuxnet par les Etats-Unis, qui a réussi à paralyser le programme nucléaire iranien, a probablement commencé en 2005.

Mais ces outils nécessitaient souvent une connaissance détaillée des systèmes ciblés par le biais des renseignements humains – comme pour Stuxnet –, ou alors ils devaient être diffusés à grande échelle pour être efficaces – comme NotPetya et WannaCry, diffusés par la Russie et la Corée du Nord.

Lire aussi | Article réservé à nos abonnés L’utilisation de l’intelligence artificielle par l’armée israélienne questionne le droit de la guerre

Concernant les cyberattaques, l’IA a jusqu’à présent surtout bénéficié aux défenseurs, car des entreprises comme la mienne [SentinelOne] l’utilisent pour détecter et stopper les attaques en temps réel.

Il vous reste 60.65% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version