Apelacja Anthropic oddalona – sąd odmawia zablokowania czarnej listy DoD
Amerykański Federalny Sąd Apelacyjny odrzucił wniosek Anthropic o zawieszenie „czarnej listy ryzyka w łańcuchu dostaw” Departamentu Obrony. Sąd orzekł, że interesy bezpieczeństwa narodowego mają pierwszeństwo przed stratami finansowymi przedsiębiorstwa. W trakcie postępowania Anthropic będzie wykluczone z udziału w zamówieniach związanych z Pentagonem.

Firma zajmująca się sztuczną inteligencją Anthropic niedawno poniosła znaczącą porażkę w sądzie. Amerykański Sąd Apelacyjny dla Okręgu Kolumbii odrzucił jej wniosek o tymczasowe zablokowanie decyzji Departamentu Obrony o umieszczeniu jej na „czarnej liście ryzyka łańcucha dostaw”. W rezultacie spółka nie będzie mogła uczestniczyć w powiązanych przetargach Pentagonu do czasu zakończenia postępowania sądowego.

Sąd: Bezpieczeństwo narodowe ma pierwszeństwo przed interesami korporacyjnymi
W swoim orzeczeniu sąd apelacyjny stwierdził, że sprawa zasadniczo dotyczy wyważenia interesów bezpieczeństwa narodowego wobec interesów ekonomicznych prywatnej spółki. W obliczu trwających konfliktów zbrojnych Departament Obrony ma prawo nadzorować dostęp do kluczowych technologii sztucznej inteligencji, a interes publiczny w tym zakresie przeważa nad potencjalnymi stratami finansowymi, jakie może ponieść Anthropic.
Sąd przyznał, że umieszczenie na czarnej liście może wyrządzić Anthropic szkody, lecz uznał, że mają one przede wszystkim charakter finansowy. W odniesieniu do twierdzenia spółki, że naruszono jej prawo do wolności słowa, sąd stwierdził, że Anthropic nie wykazała istotnego administracyjnego ograniczenia jej wypowiedzi w trakcie postępowania, dlatego argument ten nie uzasadniał zablokowania decyzji o wpisaniu na czarną listę.
Skutki oznaczenia jako „Ryzyko łańcucha dostaw”
Spór wynika z decyzji Departamentu Obrony USA o uznaniu Anthropic za podmiot stanowiący ryzyko dla łańcucha dostaw, ze względu na obawy, że jej technologia może stanowić zagrożenie dla bezpieczeństwa narodowego. Zgodnie z tym oznaczeniem wszyscy wykonawcy obronni muszą potwierdzić zgodność z wymogami i zapewnić, że modele Claude firmy Anthropic nie są wykorzystywane w projektach wojskowych.
Wymóg ten bezpośrednio uderzył w działalność Anthropic związaną z sektorem rządowym i obronnym oraz wywołał szerokie zainteresowanie w branży.
Główny punkt sporu: granice wykorzystania modeli
U podstaw konfliktu leży zakres wykorzystania modeli AI. Departament Obrony dąży do uzyskania nieograniczonych praw do korzystania z tych technologii, natomiast Anthropic nalega na wyraźne określenie granic, wymagając, aby jej modele nie były wykorzystywane w w pełni autonomicznych systemach broni ani do masowej inwigilacji.
Sąd apelacyjny zgodził się obecnie na przyspieszenie postępowania, jednak prawny spór dotyczący granicy między etyką technologiczną a bezpieczeństwem narodowym prawdopodobnie będzie trwał dalej.