Apelul Anthropic eșuează, deoarece instanța refuză să blocheze măsura listei negre a DoD

Technology09.Apr.2026 00:503 min read

Curtea Federală de Apel din SUA a respins cererea Anthropic de suspendare a „listei negre privind riscul lanțului de aprovizionare” a Departamentului Apărării. Instanța a decis că interesele de securitate națională prevalează asupra pierderilor financiare ale companiilor. Pe durata litigiului, Anthropic va fi interzisă să participe la achizițiile legate de Pentagon.

Apelul Anthropic eșuează, deoarece instanța refuză să blocheze măsura listei negre a DoD

Compania de inteligență artificială Anthropic a suferit recent un eșec semnificativ în instanță. Curtea de Apel a Statelor Unite pentru Circuitul Districtului Columbia i-a respins cererea de a bloca temporar Departamentul Apărării să o includă pe o „listă neagră de risc pentru lanțul de aprovizionare”. Ca urmare, compania va fi exclusă de la participarea la contractele de achiziții ale Pentagonului aferente, pe durata continuării procesului.

Anthropic appeal denied as court refuses to block Pentagon blacklist action

Instanța: Securitatea națională are prioritate față de interesele corporative

În motivarea deciziei, curtea de apel a afirmat că speța implică, în esență, echilibrarea intereselor de securitate națională cu interesele economice ale unei companii private. În contextul conflictelor militare în desfășurare, Departamentul Apărării are autoritatea de a supraveghea accesul la tehnologii critice de inteligență artificială, iar acest interes public prevalează asupra potențialelor pierderi economice pe care le-ar putea suferi Anthropic.

Instanța a recunoscut că includerea pe lista neagră ar putea cauza prejudicii companiei Anthropic, însă a concluzionat că impactul este în principal de natură financiară. În ceea ce privește afirmația companiei că i-ar fi încălcate drepturile la liberă exprimare, curtea a constatat că Anthropic nu a demonstrat existența unei suprimări administrative substanțiale a exprimării sale pe durata litigiului, astfel încât acest argument nu justifică blocarea măsurii de includere pe lista neagră.

Impactul desemnării ca „risc pentru lanțul de aprovizionare”

Disputa își are originea în desemnarea Anthropic de către Departamentul Apărării al SUA drept risc pentru lanțul de aprovizionare, invocând îngrijorări că tehnologia sa ar putea reprezenta o amenințare la adresa securității naționale. În baza acestei desemnări, toți contractorii din domeniul apărării trebuie să certifice conformitatea și să se asigure că modelele Claude ale Anthropic nu sunt utilizate în proiecte militare.

Această cerință a afectat direct activitatea Anthropic în domeniul guvernamental și al apărării și a atras o atenție largă în industrie.

Disputa centrală: limitele utilizării modelelor

În centrul dezacordului se află domeniul de utilizare al modelelor de inteligență artificială. Departamentul Apărării solicită drepturi nerestricționate de utilizare a tehnologiilor relevante, în timp ce Anthropic insistă asupra stabilirii unor limite clare, cerând ca modelele sale să nu fie implementate în sisteme de arme complet autonome sau pentru scopuri de supraveghere la scară largă.

Curtea de apel a fost de acord să accelereze procedurile, însă confruntarea juridică privind delimitarea dintre etica tehnologică și securitatea națională este de așteptat să continue.