Le Pentagone veut utiliser l'IA d'Anthropic, qui refuse malgré les menaces
Fondée en 2021 par d'anciens membres d'OpenAI, la start-up Anthropic a toujours revendiqué une approche éthique de l'intelligence artificielle. Son modèle Claude est aujourd'hui le seul chatbot d'IA générative disponible sur les réseaux classifiés de l'armée américaine. Un contrat de 200 millions de dollars signé avec le Pentagone en juillet 2024 ancrait cette relation. Mais l'administration Trump a voulu lever toutes les restrictions d'usage militaire de Claude, déclenchant un bras de fer aussi technique que politique.
Des mesures gouvernementales qualifiées de "sans précédent et illégales"
Le 27 février 2026, Donald Trump a annoncé sa décision de ne plus faire affaire avec Anthropic, assortie d'une période de transition de six mois. Derrière cette annonce, une mécanique de représailles bien huilée : le gouvernement américain a ordonné à l'ensemble de ses services de cesser immédiatement toute utilisation de la technologie de la start-up.
Le ministère de la Défense a inscrit Anthropic sur sa liste des sociétés présentant un risque chaîne approvisionnement pour la sécurité nationale. Problème : cette liste ne comprenait jusqu'alors que des entreprises étrangères, comme l'équipementier chinois Huawei ou le spécialiste russe des logiciels antivirus Kaspersky. Mettre une start-up américaine dans cette catégorie, c'est un peu comme bannir votre propre développeur du dépôt Git après un désaccord sur les conventions de code.
Le 9 mars, Anthropic a assigné en justice plusieurs entités du gouvernement américain devant un tribunal de Californie. La start-up qualifie ces mesures de sans précédent et illégales, affirmant que la Constitution américaine n'autorise pas le gouvernement à punir une entreprise pour avoir exercé sa liberté d'expression.
- Anthropic conteste son inscription sur la liste des fournisseurs à risque.
- La start-up dénonce les conditions abusives de rupture des contrats qui la lient au gouvernement.
- Elle qualifie les décisions d'arbitraires, relevant d'un caprice et d'un abus du pouvoir discrétionnaire.
Ce recours judiciaire demande à un juge d'annuler l'étiquette de risque et d'interdire aux agences fédérales de l'appliquer. Pete Hegseth a même envisagé d'utiliser une loi de 1950, issue de la Guerre froide, pour forcer la production de biens de défense. Un ultimatum digne d'un scénario de science-fiction dystopique.

Les lignes rouges d'Anthropic jugées légitimes par ses soutiens
Dès le 26 février, soit avant l'échéance fixée par Pete Hegseth, Dario Amodei a publié un communiqué ferme. Son message ? Ces menaces ne modifient pas la position d'Anthropic. Deux lignes rouges absolues demeurent non négociables.
- La surveillance de masse des citoyens américains, incompatible avec les valeurs démocratiques et le consentement libre des individus.
- Les armes autonomes létales sans supervision humaine, jugées trop risquées en l'état actuel des modèles d'IA.
Dario Amodei précise que ces usages n'ont jamais été inclus dans les contrats avec le département de la guerre. Il déclare : "Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger." La fiabilité d'un système d'intelligence artificielle pour piloter des armes létales sans supervision humaine reste, selon lui, insuffisante. C'est comme déployer en production un modèle jamais benchmarké sur des cas critiques.
Le 9 mars, 37 ingénieurs, chercheurs et scientifiques issus de Google DeepMind et d'OpenAI ont déposé un mémoire volontaire en soutien à Anthropic. Ils jugent ces restrictions légitimes et avertissent que sanctionner l'une des principales entreprises américaines d'IA nuirait inévitablement à la compétitivité industrielle et scientifique des démocraties occidentales, ainsi qu'à l'ensemble du secteur de l'IA.

Une dépendance déjà installée qui complique la rupture
Claude n'est pas un simple chatbot de démonstration. Le modèle sert de référence pour analyser des informations classifiées au sein des opérations les plus sensibles. Un partenariat conclu en 2024 avec Palantir Technologies intègre Claude aux logiciels de renseignement et de défense du gouvernement américain. Retirer cet outil des systèmes classifiés, c'est arracher un composant critique d'un pipeline en production, sans rollback prévu.
Des responsables du Pentagone admettent eux-mêmes qu'un retrait désorganiserait rapidement certaines opérations sensibles, dont des opérations liées à la guerre en Iran. La classification à risque empêche théoriquement tout fournisseur fédéral de contracter avec Anthropic. Dario Amodei nuance d'un autre côté, estimant que le champ d'application du courrier du ministère de la Défense reste étroit et limité aux contrats militaires directs.
Plusieurs grandes plateformes cloud ont confirmé que les modèles d'Anthropic resteraient accessibles pour tous usages hors ministère de la Défense. Certains clients ont demandé à l'entreprise sous quelles conditions ils pouvaient rompre leurs contrats, signe d'une confusion généralisée parmi les partenaires. Loin d'une destination apaisante, cette crise génère des turbulences dans tout l'écosystème.
Paradoxalement, ce bras de fer a dopé la popularité du modèle auprès du grand public. Claude a pris la tête du classement des applications gratuites les plus téléchargées sur l'Apple Store américain, devant ses principaux concurrents, gagnant plus de 20 places en une semaine. Cet engouement soudain a même provoqué des pannes de service le 2 mars. À l'image d'une nouvelle destination inattendue qui s'impose sur le radar, Claude s'est retrouvé propulsé sous les projecteurs par les utilisateurs eux-mêmes, bien au-delà de son terrain habituel.
Partager