L’annonce, le 27 février dernier, d’un accord stratégique entre OpenAI et le département de la Défense américain (DoD, ou Pentagone) a mis le feu aux poudres. Ce contrat, évalué à environ 200 millions de dollars, marque un tournant pour l’entreprise à l’origine de ChatGPT.
Après avoir écarté Anthropic, jugé trop restrictif sur les usages militaires, le Pentagone a choisi OpenAI pour fournir ses modèles d’IA « pour toute finalité légale », y compris dans des environnements classifiés. Mais ce choix a déclenché un tollé mondial, avec des vagues de désinstallations, de désabonnements et une crise de confiance sans précédent.
Un virage idéologique assumé
Ce partenariat s’inscrit dans une évolution doctrinale d’OpenAI. Dès janvier 2024, l’entreprise avait assoupli sa politique en supprimant l’interdiction générale des usages « militaires et de guerre », ne conservant que des limites sur les armes autonomes et certains types de surveillance. Sam Altman, PDG d’OpenAI, justifiait ce pivot par des applications « bénéfiques » en cybersécurité, protection d’infrastructures critiques ou collaboration avec la DARPA (Agence de recherche et développement du Département de la Défense américain).
L’accord avec le Pentagone prolonge cette logique : les modèles d’IA seront utilisés pour des tâches administratives et analytiques, avec des garde-fous techniques censés respecter les règles internes de sécurité d’OpenAI.
Pourtant, l’annonce a surpris. Anthropic, concurrent direct, avait refusé de lever ses restrictions, attirant les foudres de l’administration Trump. OpenAI, en revanche, a opté pour une « alliance pragmatique », malgré ses promesses éthiques initiales.
Backlash massif des utilisateurs
La réaction n’a pas tardé. Dès le 28 février, le hashtag #CancelChatGPT explose sur X, Reddit et Instagram. Selon Sensor Tower, les désinstallations de l’application ChatGPT ont bondi de 295% aux États-Unis ce jour-là, contre une moyenne habituelle de 9%.
Sur la semaine suivante, la hausse moyenne atteint 200%, avec des downloads en chute de 13% le premier jour et 4% globalement. Les avis 1-étoile sur l’App Store américain ont été multipliés par 775%, tandis que les 5-étoiles chutaient de 50%. Environ 1,5 million d’utilisateurs ont signé des pétitions ou annoncé leur départ, dénonçant un « soutien aux opérations militaires » et une « trahison éthique ».
OpenAI sells out to Pentagon — consumers respond with #CancelChatGPT
— The Nordic Times (@nordictimes_com) March 2, 2026
Green light for mass surveillance of American citizens and autonomous weapons systems using Sam Altman's AI technology.https://t.co/pLJCPh2tv9
Malgré ce tumulte, ChatGPT résiste. Sur Google Play, il domine la catégorie Productivité (n°1 gratuit au Brésil, par exemple), avec plus de 500 millions de téléchargements cumulés. Sur l’App Store US, il glisse au top 2, devancé par Claude d’Anthropic, dont les downloads grimpent de 17%. Globalement, les daily active users (DAU) rebondissent même de 3% le 2 mars.
Ajustements en urgence et débats persistants
Face à la fronde, OpenAI a réagi vite. Sam Altman a annoncé des modifications au contrat, ajoutant des clauses alignées sur les « principes » de l’entreprise : interdiction explicite d’usages « intentionnels » pour la surveillance de citoyens américains, et exclusion des agences comme la NSA sans avenant futur. Le Pentagone confirme ces garde-fous. Mais le mal est fait : médias tech et économiques parlent d’un « cadeau empoisonné », ternissant l’image d’OpenAI au profit de rivaux plus « éthiques ».
Ce scandale dépasse les États-Unis. Bien que les données Sensor Tower se concentrent sur l’Amérique (épicentre viral), le mouvement s’étend en Europe (Allemagne, Belgique, Suisse via la montée de Claude) et ailleurs, porté par une presse internationale. En Algérie et au Maghreb, où l’IA transforme déjà l’économie numérique, ce cas interroge : jusqu’où les géants tech céderont-ils aux sirènes militaires ? Pour OpenAI, le pari est risqué : gain financier stratégique, mais fracture potentielle avec une base utilisateur sensible aux enjeux éthiques.
















