Aux États-Unis, de nouveaux accords entre le gouvernement et les géants de la tech facilitent toujours plus l’utilisation des algorithmes dans la stratégie militaire.

Image d’illustration - © Pixabay
Le 28 février, les États-Unis et Israël ont frappé le territoire iranien plus de 1 000 fois en 24 heures. Cette fréquence de frappe élevée est en grande partie due à l’utilisation d’outils d’intelligence artificielle, comme l’ont révélé Le Wall Street Journal et Axios. Avec l'IA, « vous pouvez rapidement préparer de longues listes de cibles, bien plus vite qu’avec des humains », alertait la semaine dernière, Peter Asaro, le président du Comité international pour le contrôle des armes robotisées, auprès de l’AFP.
La guerre en Iran n’est pas le seul exemple de l’utilisation de l’IA dans les conflits armés. En Ukraine par exemple, l’armée a développé des drones capables de prendre le relais du pilote sur les 500 derniers mètres afin de frapper leur cible avec une plus grande précision.
Aux États-Unis, les investissements se sont démultipliés en juin dernier, avec la signature d’un contrat de 200 millions de dollars entre la société Anthropic et le Pentagone. Le but était de permettre l’utilisation de Claude AI (l’outil développé par Anthropic) dans les opérations militaires. Pourtant, quelques jours avant l’intervention en Iran, cette même entreprise a refusé de laisser un accès illimité au gouvernement américain. Dans un communiqué, Dario Amodei, le dirigeant d’Anthropic a affirmé « Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger. Anthropic comprend que c’est le ministère de la Défense, pas les entreprises privées, qui prend les décisions militaires. Cependant, dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques, plutôt que les défendre. »
Une utilisation sans limites
Résultat, le contrat est rompu, et quelques heures plus tard, OpenAI, concurrent d’Anthropic, annonce la signature d’un nouveau partenariat avec le ministère de la Guerre [nouveau nom donné par Donald Trump au ministère de la Défense américain].
Pourtant, Sam Altman, à la tête d’OpenAI, assure maintenir des gardes fous et limiter l’accès du gouvernement américain à son outil, ChatGPT. « Deux de nos principes de sécurité les plus importants sont l’interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes », a-t-il écrit sur X.
Le problème, c’est qu’il n’y a pour l’instant aucune garantie que les principes évoqués par Sam Altman seront respectés. D’un côté, les points qu’il soulève sont exactement les mêmes que ceux qui ont poussé la Maison Blanche à arrêter son partenariat avec Anthropic.
De l’autre, Caitlin Kalinowski, la responsable des produits physiques (hardware) chez OpenAI a annoncé sa démission le 7 mars, suite à la signature de l’accord. Sur X, elle explique : « L'IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu ».
Dans 95 % des cas, les modèles d’IA choisissent l’escalade nucléaire
L’influence que pourraient avoir les outils d’intelligence artificielle dans les conflits armés interroge de nombreux chercheurs. En février, le King's College de Londres a publié une étude avec un objectif simple : placer différents modèles d’intelligence artificielle (ChatGPT, Claude et Gemini) dans le rôle de chefs de guerre à travers des simulations. Dans 95 % des cas, au moins un modèle choisissait l’escalade nucléaire, allant de la simple menace à la frappe.
Pauline Moyer
Édité par Axel Guillou