Der Konflikt zwischen Washington und einem der wichtigsten KI-Unternehmen der Welt ist offen eskaliert.
Das US-Verteidigungsministerium hat den KI-Entwickler Anthropic offiziell als Risiko für die nationale Lieferkette eingestuft. Eine Maßnahme, die normalerweise gegen Firmen aus geopolitischen Rivalenstaaten verhängt wird – nicht gegen ein Unternehmen aus dem Silicon Valley.
Auslöser ist ein Streit über die Nutzungsbedingungen der KI-Modelle des Start-ups. Während das Pentagon vollständige Einsatzfreiheit fordert, zieht Anthropic klare Grenzen. Das Unternehmen will nicht zulassen, dass seine Systeme für autonome Waffen oder flächendeckende Überwachung im Inland eingesetzt werden.
Die Entscheidung markiert einen neuen Höhepunkt im Machtkampf zwischen Staat und Tech-Industrie über die Kontrolle künstlicher Intelligenz.
Der Streit entzündet sich an militärischer Nutzung von KI
Im Zentrum des Konflikts steht das Sprachmodell Claude, die zentrale KI-Plattform von Anthropic.
Das Pentagon verlangt, diese Technologie für alle rechtlich zulässigen militärischen Anwendungen einsetzen zu können. Dazu gehören nach Lesart des Verteidigungsministeriums auch Szenarien, die über klassische Analyse- oder Assistenzsysteme hinausgehen.
Anthropic lehnt diese offene Nutzung ab. Das Unternehmen verlangt vertragliche Garantien, dass seine Modelle nicht für autonome Waffensysteme eingesetzt werden und nicht zur massenhaften Überwachung innerhalb der USA beitragen.

Für die Führung des Start-ups ist das keine PR-Position, sondern Teil der eigenen Unternehmensstrategie. Seit der Gründung positioniert sich Anthropic als Anbieter sogenannter „sicherer KI“, deren Einsatz bewusst begrenzt werden soll.
Für das Pentagon hingegen ist diese Einschränkung inakzeptabel. Aus Sicht des Militärs darf eine Technologie, die mit staatlichen Geldern entwickelt oder beschafft wird, nicht durch private Sicherheitsregeln eingeschränkt werden.
Pentagon greift zu einer ungewöhnlich harten Maßnahme
Mit der Einstufung als Lieferkettenrisiko wählt das Verteidigungsministerium ein Instrument, das normalerweise gegen Unternehmen aus Staaten wie China oder Russland eingesetzt wird.
Die Entscheidung hat weitreichende Folgen. Unternehmen, die mit dem US-Militär zusammenarbeiten, könnten gezwungen sein, ihre Geschäftsbeziehungen zu Anthropic zu beenden. Betroffen wären auch wichtige Partner des Start-ups.
Zu den Investoren und strategischen Partnern gehören unter anderem Amazon, Google und der Rüstungskonzern Lockheed Martin.
Die Einstufung trifft damit nicht nur ein einzelnes Start-up, sondern potenziell ein ganzes Netzwerk aus Technologie- und Rüstungsunternehmen.
Rechtsexperten bezweifeln allerdings, dass Verteidigungsminister Pete Hegseth tatsächlich die Befugnis hat, Partnerfirmen des Militärs zu einem vollständigen Abbruch der Zusammenarbeit zu zwingen. Mehrere Juristen gehen davon aus, dass eine solche Maßnahme vor Gericht scheitern könnte.
Anthropic bereitet den juristischen Gegenschlag vor
Anthropic reagiert mit einer offenen Konfrontation.
Firmenchef Dario Amodei kündigte an, die Entscheidung juristisch anzufechten. In einem Blogbeitrag erklärte er, die Einstufung sei rechtlich nicht haltbar und politisch motiviert.

Die zuletzt wieder aufgenommenen Gespräche zwischen Pentagon und Unternehmen gelten inzwischen als gescheitert.
Zusätzliche Brisanz erhielt der Konflikt durch interne Vorwürfe aus dem Unternehmen. Laut Berichten von US-Medien hatte Amodei in einem internen Memo behauptet, die Regierung greife Anthropic aus Vergeltung an. Der Vorwurf: Das Unternehmen habe sich geweigert, die KI-Agenda der Regierung vorbehaltlos zu unterstützen oder Präsident Donald Trump öffentlich zu loben.
Amodei entschuldigte sich später für den scharfen Ton des Memos. Inhaltlich blieb er jedoch bei seiner Kritik.
Politischer Widerstand wächst
Auch im US-Kongress stößt die Entscheidung auf Widerstand.
Die demokratische Senatorin Kirsten Gillibrand bezeichnete die Maßnahme als „kurzsichtig und selbstzerstörerisch“. Die Regierung greife ein amerikanisches Technologieunternehmen an, das lediglich eigene Sicherheitsstandards verteidige.
Der Streit offenbart ein grundlegendes Problem der KI-Politik: Während Regierungen möglichst breite Einsatzmöglichkeiten fordern, versuchen Entwickler zunehmend, den Gebrauch ihrer Systeme zu kontrollieren.
Mit wachsender Leistungsfähigkeit der Modelle wird diese Frage politisch brisanter.
Militär nutzt die Technologie offenbar weiterhin
Paradox ist die Situation dennoch.
Trotz der offiziellen Einstufung nutzt das US-Militär die KI-Modelle von Anthropic offenbar weiterhin. Insider berichten, dass die Systeme aktuell bei militärischen Operationen gegen den Iran eingesetzt werden.
Das Verteidigungsministerium hatte zuvor eine sechsmonatige Übergangsfrist eingeräumt, um die Technologie durch andere Anbieter zu ersetzen.
Zu den potenziellen Alternativen zählt vor allem der Konkurrent OpenAI, der enger mit der US-Regierung kooperiert.
Damit wird der Konflikt auch zu einem Wettbewerb um die Rolle der wichtigsten KI-Plattform für staatliche Anwendungen.
Der Ausgang dürfte weit über den aktuellen Streit hinausreichen. Zum ersten Mal entscheidet sich, ob Technologieunternehmen die Nutzung ihrer KI politisch begrenzen können – oder ob am Ende der Staat bestimmt, wofür die mächtigsten Systeme der Branche eingesetzt werden.



