Anthropic contre Washington. La start-up d’intelligence artificielle attaque le gouvernement américain après avoir été sanctionnée pour avoir refusé l’usage militaire de ses modèles. En cause : une décision du Pentagone qui classe l’entreprise comme « risque pour la chaîne d’approvisionnement », mesure habituellement réservée à des sociétés étrangères jugées menaçantes...
Le 11/03/2026 à 14:21 par Hocine Bouhadjera
252 Partages
Publié le :
11/03/2026 à 14:21
252
Partages
Cette plainte est l’aboutissement d’un conflit profond sur l’usage militaire de l’intelligence artificielle et sur le pouvoir de l’État face aux entreprises technologiques.
Pour comprendre l’origine du litige, il faut revenir à la création d’Anthropic. L’entreprise a été fondée en 2021 par d’anciens chercheurs d’OpenAI, notamment Dario et Daniela Amodei. Leur ambition était de développer des systèmes d’intelligence artificielle plus sûrs et plus contrôlables que les premières générations de modèles.
Anthropic est notamment connue pour la méthode dite de « constitutional AI », qui consiste à entraîner un modèle à suivre un ensemble de principes explicites — une sorte de constitution éthique destinée à encadrer le comportement du système. Dans cette logique, l’entreprise a adopté dès le départ des restrictions strictes sur l’usage de ses technologies, notamment dans les domaines liés à la violence ou à la surveillance.
Pour Dario Amodei, ces limites sont indispensables face à des technologies encore imparfaites. Il a ainsi expliqué que les systèmes d’IA les plus avancés « ne sont pas encore fiables au point de leur confier le pouvoir de contrôler des armes mortelles » et que les armes entièrement autonomes « doivent être déployées avec des garde-fous appropriés qui n’existent pas aujourd’hui ». Dans la même logique, le dirigeant a également affirmé que l’utilisation de ces technologies pour la surveillance généralisée des populations était incompatible avec les principes démocratiques.
L’entreprise à l’origine du modèle Claude 3.7 Sonnet a malgré tout été impliquée dans un important litige autour de l’entraînement de ses modèles sur des œuvres protégées par le droit d’auteur. En 2024, un groupe d’auteurs a lancé une action collective en Californie, accusant la société d’avoir utilisé des copies piratées de livres pour alimenter ses systèmes d’IA sans autorisation ni rémunération.
Si la justice a reconnu que certains usages pouvaient relever du « fair use », elle a aussi constaté qu’Anthropic avait téléchargé et conservé des millions d’ouvrages issus de bibliothèques pirates comme Books3, LibGen ou Pirate Library Mirror, une pratique qui ne pouvait être couverte par cette exception.
Des documents judiciaires évoquent ainsi plus de sept millions de livres piratés intégrés à une bibliothèque interne destinée à l’entraînement des modèles. Pour éviter un procès potentiellement très coûteux sur ce point, Anthropic a finalement conclu en septembre 2025 un accord d’environ 1,5 milliard $ avec les auteurs concernés, prévoyant notamment des compensations d’environ 3000 $ par ouvrage.
À LIRE - Harry Potter, 1984, Le Hobbit... Des oeuvres protégées accessibles via l'IA ?
Parmi les écrivains cités dans les procédures figurent Gaël Faye, Guillaume Musso, Amélie Nothomb, Albert Camus ou encore Joël Dicker. Depuis, la série Claude 3.7 Sonnet n’est plus accessible dans l’interface publique de Claude : elle a été remplacée par des modèles plus récents de la génération Claude 4, notamment Claude Sonnet 4, Claude Opus 4 et Claude Opus 4.5.
Malgré les précautions précédemment citées, Anthropic a tout de même collaboré avec le gouvernement américain. En 2025, l’entreprise a signé un contrat de deux ans avec le département de la Défense pour travailler sur certaines applications d’intelligence artificielle liées à la sécurité nationale.
Les modèles d’IA générative peuvent en effet servir à de nombreuses tâches militaires ou de renseignement : analyse de grandes quantités de données, traduction automatique de communications étrangères, synthèse d’informations pour les analystes, ou assistance dans la planification stratégique. Pour le Pentagone, ces technologies sont devenues un élément clé de la compétition stratégique avec la Chine.
Mais les tensions sont apparues lorsque le département de la Défense a exigé que les modèles d’Anthropic puissent être utilisés pour « tous les usages légaux », y compris dans certains contextes militaires sensibles. Anthropic a refusé cette condition.
Le laboratoire affirme depuis plusieurs années vouloir empêcher certains usages de ses modèles. Parmi les restrictions évoquées figurent notamment l’utilisation de l’IA pour des armes autonomes létales sans supervision humaine, l’usage des modèles pour la surveillance de masse, notamment sur le territoire américain.
Mais cette position entre directement en contradiction avec la vision du Pentagone à l’ère trumpiste. Cette divergence de principe a progressivement transformé la collaboration stratégique en confrontation. Le conflit a culminé lorsque le département de la Défense a classé Anthropic comme « supply-chain risk », c’est-à-dire un risque pour la chaîne d’approvisionnement technologique.
Cette classification permet au gouvernement américain de limiter ou d’interdire l’utilisation d’une technologie dans les systèmes fédéraux.
Dans la pratique, cela peut avoir plusieurs conséquences importantes : les agences fédérales peuvent être contraintes d’arrêter d’utiliser une technologie, les entreprises travaillant avec le gouvernement peuvent devoir rompre leurs relations avec le fournisseur concerné, et la société visée peut être exclue de nombreux marchés publics.
Ce type de mesure est généralement utilisé contre des entreprises soupçonnées de liens avec des puissances étrangères ou de présenter un risque de sécurité nationale. La liste comprenait jusqu’ici surtout des sociétés étrangères comme Huawei ou l’éditeur russe Kaspersky. L’application de cette classification à une entreprise américaine d’IA constitue donc un précédent particulièrement controversé.
Face à cette décision, Anthropic a lancé une série de poursuites judiciaires. Le 9 mars 2026, l’entreprise a assigné plusieurs entités du gouvernement américain devant un tribunal fédéral de Californie pour obtenir la levée de sanctions jugées excessives. Dans ces procédures, la société demande l’annulation de la désignation « supply-chain risk ».
Anthropic affirme que la décision du gouvernement constitue une représaille illégale visant à punir l’entreprise pour ses positions sur l’usage militaire de l’IA. Dans le document judiciaire, la start-up qualifie ces sanctions de « sans précédent et illégales ». Selon elle, « la Constitution n’autorise pas le gouvernement à exercer son énorme pouvoir pour punir une société d’avoir usé de sa liberté d’expression ».
L’entreprise dénonce également des décisions « arbitraires », relevant d’un « caprice » et d’un « abus de pouvoir discrétionnaire » de l’administration.
Anthropic affirme en outre que ces mesures pourraient menacer directement son activité. Après les annonces de l’administration Trump, la société dit avoir été contactée par de nombreux partenaires et clients — fournisseurs de cloud et investisseurs — qui ont exprimé leur confusion, certains allant jusqu’à demander sous quelles conditions ils pouvaient rompre leurs contrats.
Le président américain Donald Trump a lui aussi publiquement critiqué Anthropic, accusant l’entreprise de limiter l’accès du gouvernement à des technologies jugées stratégiques. Fin février, il a même enjoint tous les services du gouvernement fédéral de « cesser immédiatement toute utilisation de la technologie d’Anthropic », une décision présentée comme une sanction après le refus de la start-up de lever ses restrictions d’usage.
Certains responsables politiques américains accusent également Anthropic de promouvoir une vision trop « idéologique » de l’intelligence artificielle. Cette critique est notamment venue de David Sacks, investisseur de la Silicon Valley et conseiller de la Maison-Blanche pour l’IA et les cryptomonnaies. Il reproche notamment à l’entreprise de défendre une forme de « woke AI » susceptible de ralentir les capacités technologiques des États-Unis face à la Chine, selon Cryptopolitan.
À LIRE - IA et droit d’auteur : le Parlement européen durcit le ton face aux géants de la tech
Le conflit s’est également cristallisé avec Pete Hegseth, secrétaire à la Défense, dont le département a fait pression sur Anthropic pour qu’elle assouplisse les limitations inscrites dans les conditions d’utilisation de son modèle Claude.
Après la rupture avec Anthropic, le département de la Défense s’est tourné vers d’autres acteurs de l’intelligence artificielle, notamment OpenAI, afin de poursuivre ses collaborations technologiques. L’entreprise dirigée par Sam Altman serait en train de finaliser des contrats avec le Pentagone, après avoir accepté des conditions d’usage plus larges pour ses modèles d’IA, selon The Washington Post.
Cette évolution s’inscrit dans un mouvement plus large au sein de la Silicon Valley : plusieurs entreprises ont progressivement assoupli leurs règles concernant l’usage militaire de leurs technologies.
Pendant longtemps, OpenAI interdisait explicitement l’usage de ses outils dans des contextes militaires ou de guerre. Mais début 2024, l’entreprise a modifié ses conditions d’utilisation en supprimant cette interdiction explicite, rappelle Wired, ouvrant la voie à certains partenariats avec des acteurs de la sécurité nationale.
La société explique désormais que certains usages liés à la cybersécurité ou à la protection des infrastructures critiques peuvent être compatibles avec sa mission, tant qu’ils ne servent pas directement à développer des armes ou à causer des dommages.
Ce débat rappelle une précédente controverse : celle du Project Maven, un programme du Pentagone visant à utiliser l’IA pour analyser les images captées par des drones militaires. En 2018, plus de 3000 employés de Google ont protesté contre la participation de l’entreprise à ce projet, estimant que cette technologie pouvait contribuer à améliorer la précision des frappes militaires, comme le détaillait alors le New York Times.
Face à la contestation interne, Google a finalement décidé de ne pas renouveler son contrat avec le Pentagone et a publié des principes éthiques encadrant l’usage de l’intelligence artificielle. Cependant, malgré ces principes, l’entreprise n’a jamais exclu totalement de travailler avec les institutions de défense, notamment sur des technologies cloud ou d’analyse de données.
Plus largement, plusieurs grandes entreprises technologiques collaborent aujourd’hui avec le département de la Défense sur des projets d’infrastructure ou d’analyse de données. Des programmes comme Project Maven ou le contrat cloud militaire JEDI, estimé à environ 10 milliards $, ont impliqué des acteurs majeurs comme Amazon, Microsoft ou Oracle.
Dans ce contexte, le refus d’Anthropic d’assouplir certaines restrictions sur l’usage militaire de ses modèles apparaît comme une position relativement isolée dans l’écosystème de l’IA. C’est aussi l’un des éléments qui ont contribué à l’escalade du conflit avec le Pentagone.
Les tribunaux devront notamment répondre à deux questions essentielles : le gouvernement peut-il utiliser des outils de sécurité nationale pour sanctionner une entreprise américaine ? Les entreprises technologiques peuvent-elles fixer des limites à l’usage de leurs technologies par l’État ?
À LIRE - La droite américaine en passe de contrôler Harry Potter et Batman
Derrière l’affaire Anthropic se joue peut-être l’un des premiers grands arbitrages juridiques sur la place de l’intelligence artificielle dans les démocraties.
Crédits photo : Donald Trump (Gage Skidmore, CC BY-SA 2.0)
Par Hocine Bouhadjera
Contact : hb@actualitte.com
Commenter cet article