Berufung von Anthropic scheitert, da Gericht die Blockierung der DoD-Schwarzenliste ablehnt
Das US-Bundesberufungsgericht wies den Antrag von Anthropic zurück, die „Blacklist für Lieferkettenrisiken“ des Verteidigungsministeriums auszusetzen. Das Gericht entschied, dass nationale Sicherheitsinteressen Vorrang vor finanziellen Verlusten von Unternehmen haben. Während des laufenden Verfahrens wird Anthropic von der Teilnahme an Beschaffungen im Zusammenhang mit dem Pentagon ausgeschlossen sein.

Das Unternehmen für künstliche Intelligenz Anthropic hat kürzlich vor Gericht einen erheblichen Rückschlag erlitten. Das U.S. Court of Appeals for the District of Columbia Circuit wies seinen Antrag zurück, das Verteidigungsministerium vorübergehend daran zu hindern, es auf eine „Supply-Chain-Risikoliste“ zu setzen. Infolgedessen darf das Unternehmen während des laufenden Verfahrens nicht an entsprechenden Beschaffungsverträgen des Pentagon teilnehmen.

Gericht: Nationale Sicherheit hat Vorrang vor Unternehmensinteressen
In seiner Entscheidung erklärte das Berufungsgericht, dass es in diesem Fall im Wesentlichen um die Abwägung zwischen nationalen Sicherheitsinteressen und den wirtschaftlichen Interessen eines privaten Unternehmens gehe. Angesichts anhaltender militärischer Konflikte habe das Verteidigungsministerium die Befugnis, den Zugang zu kritischen Technologien der künstlichen Intelligenz zu überwachen, und dieses öffentliche Interesse überwiege die potenziellen wirtschaftlichen Verluste, mit denen Anthropic konfrontiert sein könnte.
Das Gericht räumte ein, dass die Aufnahme in die Liste Anthropic schaden könnte, kam jedoch zu dem Schluss, dass sich die Auswirkungen in erster Linie finanziell bemerkbar machen. Hinsichtlich der Behauptung des Unternehmens, seine Meinungsfreiheit werde eingeschränkt, stellte das Gericht fest, dass Anthropic während des Verfahrens keine wesentliche administrative Unterdrückung seiner Meinungsäußerung nachweisen konnte; dieses Argument rechtfertige daher keine Aussetzung der Listung.
Auswirkungen der Einstufung als „Supply-Chain-Risiko“
Der Streit geht darauf zurück, dass das US-Verteidigungsministerium Anthropic als Supply-Chain-Risiko eingestuft hat und dabei Bedenken äußerte, dass dessen Technologie eine Bedrohung für die nationale Sicherheit darstellen könnte. Aufgrund dieser Einstufung müssen alle Verteidigungsauftragnehmer die Einhaltung bestätigen und sicherstellen, dass Anthropics Claude-Modelle nicht in militärischen Projekten eingesetzt werden.
Diese Anforderung hat das Regierungs- und Verteidigungsgeschäft von Anthropic direkt getroffen und in der gesamten Branche große Aufmerksamkeit erregt.
Kern des Streits: Grenzen der Modellsnutzung
Im Mittelpunkt der Auseinandersetzung steht der Nutzungsumfang von KI-Modellen. Das Verteidigungsministerium strebt uneingeschränkte Nutzungsrechte für die betreffenden Technologien an, während Anthropic auf klaren Grenzen besteht und verlangt, dass seine Modelle weder in vollständig autonomen Waffensystemen noch für Zwecke großflächiger Überwachung eingesetzt werden.
Das Berufungsgericht hat nun einer beschleunigten Behandlung des Verfahrens zugestimmt, doch die rechtliche Auseinandersetzung über die Grenze zwischen technologischer Ethik und nationaler Sicherheit dürfte weitergehen.