L’appel d’Anthropic échoue alors que le tribunal refuse de bloquer la mesure de liste noire du DoD

Technology09.Apr.2026 00:503 min read

La Cour d’appel fédérale des États-Unis a rejeté la demande d’Anthropic visant à suspendre la « liste noire des risques liés à la chaîne d’approvisionnement » du Département de la Défense. Le tribunal a statué que les intérêts de la sécurité nationale priment sur les pertes financières des entreprises. Pendant la procédure judiciaire, Anthropic sera interdit de participer aux marchés liés au Pentagone.

L’appel d’Anthropic échoue alors que le tribunal refuse de bloquer la mesure de liste noire du DoD

L’entreprise d’intelligence artificielle Anthropic a récemment subi un revers majeur devant les tribunaux. La Cour d’appel des États-Unis pour le circuit du district de Columbia a rejeté sa requête visant à bloquer temporairement la décision du Département de la Défense de l’inscrire sur une « liste noire des risques pour la chaîne d’approvisionnement ». En conséquence, l’entreprise sera empêchée de participer aux contrats d’approvisionnement du Pentagone concernés tant que la procédure judiciaire se poursuivra.

Recours d’Anthropic rejeté alors que le tribunal refuse de bloquer l’action de mise sur liste noire du Pentagone

Tribunal : la sécurité nationale prime sur les intérêts des entreprises

Dans sa décision, la cour d’appel a déclaré que l’affaire consiste essentiellement à mettre en balance les intérêts de la sécurité nationale et les intérêts économiques d’une entreprise privée. Dans un contexte de conflits militaires en cours, le Département de la Défense est habilité à superviser l’accès aux technologies critiques d’intelligence artificielle, et cet intérêt public l’emporte sur les pertes économiques potentielles auxquelles Anthropic pourrait être confrontée.

La cour a reconnu que l’inscription sur la liste noire pourrait causer un préjudice à Anthropic, mais a conclu que l’impact est principalement financier. Concernant l’argument de l’entreprise selon lequel sa liberté d’expression serait violée, la cour a estimé qu’Anthropic n’a pas démontré l’existence d’une restriction administrative substantielle de son expression pendant la période du litige, et que cet argument ne justifiait donc pas le blocage de la mesure d’inscription sur liste noire.

Impact de la désignation « risque pour la chaîne d’approvisionnement »

Le différend découle de la désignation d’Anthropic par le Département de la Défense des États-Unis comme présentant un risque pour la chaîne d’approvisionnement, au motif que sa technologie pourrait constituer une menace pour la sécurité nationale. En vertu de cette désignation, tous les contractants de la défense doivent certifier leur conformité et s’assurer que les modèles Claude d’Anthropic ne sont pas utilisés dans des projets militaires.

Cette exigence a porté un coup direct aux activités d’Anthropic liées au gouvernement et à la défense, et a suscité une attention généralisée dans l’ensemble du secteur.

Point central du litige : les limites d’utilisation des modèles

Au cœur du désaccord se trouve la question du champ d’utilisation des modèles d’IA. Le Département de la Défense cherche à obtenir des droits d’utilisation sans restriction des technologies concernées, tandis qu’Anthropic insiste pour fixer des limites claires, exigeant que ses modèles ne soient pas déployés dans des systèmes d’armes entièrement autonomes ni utilisés à des fins de surveillance à grande échelle.

La cour d’appel a désormais accepté d’accélérer la procédure, mais le bras de fer juridique concernant la frontière entre l’éthique technologique et la sécurité nationale devrait se poursuivre.