Il ricorso di Anthropic fallisce mentre il tribunale rifiuta di bloccare la misura della lista nera del DoD

Technology09.Apr.2026 00:502 min read

La Corte d’Appello Federale degli Stati Uniti ha respinto la richiesta di Anthropic di sospendere la “lista nera per il rischio della catena di approvvigionamento” del Dipartimento della Difesa. Il tribunale ha stabilito che gli interessi della sicurezza nazionale prevalgono sulle perdite finanziarie aziendali. Durante il contenzioso, Anthropic non potrà partecipare agli appalti legati al Pentagono.

Il ricorso di Anthropic fallisce mentre il tribunale rifiuta di bloccare la misura della lista nera del DoD

L’azienda di intelligenza artificiale Anthropic ha recentemente subito una significativa battuta d’arresto in tribunale. La Corte d’Appello degli Stati Uniti per il Distretto di Columbia ha respinto la sua richiesta di bloccare temporaneamente il Dipartimento della Difesa dall’inserirla in una “lista nera per rischio della catena di approvvigionamento”. Di conseguenza, l’azienda sarà esclusa dalla partecipazione ai relativi contratti di approvvigionamento del Pentagono mentre il contenzioso prosegue.

Appello di Anthropic respinto mentre il tribunale rifiuta di bloccare l’azione del Pentagono sulla lista nera

Tribunale: La sicurezza nazionale ha la priorità sugli interessi aziendali

Nella sua decisione, la corte d’appello ha affermato che il caso riguarda essenzialmente il bilanciamento tra gli interessi della sicurezza nazionale e quelli economici di un’azienda privata. Nel contesto dei conflitti militari in corso, il Dipartimento della Difesa ha l’autorità di supervisionare l’accesso alle tecnologie critiche di intelligenza artificiale, e tale interesse pubblico prevale sulle potenziali perdite economiche che Anthropic potrebbe subire.

Il tribunale ha riconosciuto che l’inserimento nella lista nera potrebbe arrecare danni ad Anthropic, ma ha concluso che l’impatto è principalmente di natura finanziaria. In merito alla rivendicazione dell’azienda secondo cui i suoi diritti alla libertà di espressione sarebbero stati violati, la corte ha rilevato che Anthropic non è riuscita a dimostrare alcuna sostanziale limitazione amministrativa della propria espressione durante il periodo del contenzioso e, pertanto, tale argomentazione non giustifica il blocco dell’azione di inserimento nella lista nera.

Impatto della designazione di “rischio per la catena di approvvigionamento”

La controversia nasce dalla decisione del Dipartimento della Difesa degli Stati Uniti di designare Anthropic come rischio per la catena di approvvigionamento, citando preoccupazioni secondo cui la sua tecnologia potrebbe rappresentare una minaccia per la sicurezza nazionale. In base a tale designazione, tutti i contraenti della difesa devono certificare la conformità e garantire che i modelli Claude di Anthropic non vengano utilizzati in progetti militari.

Questo requisito ha inflitto un duro colpo diretto alle attività governative e legate alla difesa di Anthropic e ha attirato ampia attenzione in tutto il settore.

Questione centrale: limiti all’uso dei modelli

Al centro del disaccordo vi è l’ambito di utilizzo dei modelli di IA. Il Dipartimento della Difesa chiede diritti illimitati di utilizzo delle tecnologie pertinenti, mentre Anthropic insiste nel definire confini chiari, richiedendo che i propri modelli non vengano impiegati in sistemi d’arma completamente autonomi o per scopi di sorveglianza su larga scala.

La corte d’appello ha ora accettato di accelerare il procedimento, ma è previsto che il confronto legale sul confine tra etica tecnologica e sicurezza nazionale continui.