Malgré l’interdiction prononcée par le président Donald Trump, l’intelligence artificielle Claude, développée par la startup américaine Anthropic, a été déployée par le Pentagone lors des récentes frappes massives contre l’Iran. Cette utilisation controversée, survenue seulement quelques heures après un ordre exécutif fédéral, met en lumière les tensions croissantes entre souveraineté militaire et contraintes éthiques des géants de l’IA.
L’information, révélée en exclusivité par le Wall Street Journal et Axios, s’appuie sur des sources anonymes proches du Centcom (US Central Command). Ces médias rapportent que Claude a été activée dans un environnement opérationnel classifié, malgré les refus répétés d’Anthropic de fournir un accès illimité à ses modèles pour des usages militaires sensibles. Fondée par d’anciens cadres d’OpenAI, l’entreprise impose des garde-fous stricts, excluant les décisions létales autonomes ou la surveillance de masse sans supervision humaine.
Rôles opérationnels de Claude
Dans l’opération « Epic Fury », menée conjointement par les États-Unis et Israël le 28 février contre des sites militaires iraniens et des personnalités politiques et militaires iraniennes, Claude a joué des rôles précis et cruciaux, selon WSJ. Tout d’abord, l’IA a effectué des évaluations de renseignement en temps réel, analysant des volumes massifs de données satellite, SIGINT et HUMINT pour détecter des patterns critiques. Elle a ensuite contribué à l’identification et à la priorisation des cibles, optimisant les frappes qui ont visé des infrastructures stratégiques, dont le complexe de Natanz et le bunker du Guide suprême Ali Khamenei.
Claude a enfin simulé des scénarios de bataille complexes, modélisant les réponses potentielles de Téhéran et affinant les plans tactiques pour minimiser les risques alliés. Ces fonctions, intégrées aux systèmes du Centcom, ont permis une précision accrue sans que l’IA ne prenne de décisions finales létales, respectant partiellement les limites éthiques d’Anthropic. Ce n’est pas un précédent : Claude avait déjà soutenu l’opération de capture de Nicolás Maduro au Venezuela en janvier dernier.
Conflit avec l’administration Trump
Le bras de fer entre Anthropic et Washington s’est cristallisé après un incident en janvier, où l’entreprise a refusé un accès total à ses modèles pour des opérations spéciales. Trump a alors qualifié Anthropic de « société d’IA gauchiste radicale » sur Truth Social, tandis que le secrétaire à la Défense Pete Hegseth l’a érigée en « risque pour la chaîne d’approvisionnement critique ». Un ordre exécutif a imposé un arrêt immédiat de son usage fédéral, avec une transition de six mois vers des alternatives comme OpenAI ou xAI.
Malgré cela, la continuité des frappes contre l’Iran a démontré l’impossibilité d’une coupure brutale : Claude était trop profondément embeddée dans les chaînes de commandement pour être désactivée en quelques heures. Le débat dans les médias américains et dans les cercles de la tech se questionne sur « cette dépendance forcée et qui pose des problèmes juridiques majeures », potentiellement en violation des termes de service d’Anthropic, qui n’a pas donné son consentement explicite.
















