La apelación de Anthropic fracasa mientras el tribunal se niega a bloquear la medida de lista negra del DoD
El Tribunal Federal de Apelaciones de EE. UU. rechazó la moción de Anthropic para suspender la “lista negra de riesgo en la cadena de suministro” del Departamento de Defensa. El tribunal dictaminó que los intereses de seguridad nacional tienen prioridad sobre las pérdidas financieras corporativas. Durante el litigio, Anthropic tendrá prohibido participar en adquisiciones relacionadas con el Pentágono.

La empresa de inteligencia artificial Anthropic ha sufrido recientemente un importante revés en los tribunales. El Tribunal de Apelaciones de Estados Unidos para el Circuito del Distrito de Columbia rechazó su moción para bloquear temporalmente al Departamento de Defensa de incluirla en una “lista negra de riesgo en la cadena de suministro”. Como resultado, la compañía quedará excluida de participar en contratos de adquisiciones del Pentágono relacionados mientras continúe el litigio.

Tribunal: La seguridad nacional tiene prioridad sobre los intereses corporativos
En su fallo, el tribunal de apelaciones señaló que el caso implica esencialmente equilibrar los intereses de seguridad nacional frente a los intereses económicos de una empresa privada. En medio de los conflictos militares en curso, el Departamento de Defensa tiene la autoridad para supervisar el acceso a tecnologías críticas de inteligencia artificial, y este interés público prevalece sobre las posibles pérdidas económicas que pueda enfrentar Anthropic.
El tribunal reconoció que ser incluida en la lista negra podría causar perjuicios a Anthropic, pero concluyó que el impacto es principalmente financiero. En cuanto a la afirmación de la empresa de que se estaban vulnerando sus derechos a la libertad de expresión, el tribunal determinó que Anthropic no demostró ninguna supresión administrativa sustancial de su expresión durante el período del litigio, por lo que este argumento no justificaba bloquear la inclusión en la lista negra.
Impacto de la designación de “Riesgo en la cadena de suministro”
La disputa se originó cuando el Departamento de Defensa de Estados Unidos designó a Anthropic como un riesgo en la cadena de suministro, citando preocupaciones de que su tecnología pudiera representar una amenaza para la seguridad nacional. Bajo esta designación, todos los contratistas de defensa deben certificar el cumplimiento y garantizar que los modelos Claude de Anthropic no se utilicen en proyectos militares.
Este requisito ha supuesto un golpe directo para el negocio gubernamental y relacionado con la defensa de Anthropic, y ha atraído una amplia atención en toda la industria.
Disputa central: Límites en el uso de los modelos
En el centro del desacuerdo se encuentra el alcance del uso de los modelos de IA. El Departamento de Defensa busca derechos irrestrictos para utilizar las tecnologías pertinentes, mientras que Anthropic insiste en establecer límites claros, exigiendo que sus modelos no se desplieguen en sistemas de armas totalmente autónomos ni para fines de vigilancia a gran escala.
El tribunal de apelaciones ha acordado ahora acelerar el proceso, pero se espera que el enfrentamiento legal sobre los límites entre la ética tecnológica y la seguridad nacional continúe.