Ein Werkzeug für den Krieg oder nur für PowerPoint?
Microsoft rüstet auf – nicht mit Waffen, sondern mit Code. Der Konzern aus Redmond entwickelt eine spezielle Version seiner KI-Software "Copilot" für die US-Regierung. Genauer gesagt: für das Pentagon.
Noch im Sommer 2025 soll die Anwendung verfügbar sein, wie das Unternehmen in einem Blogbeitrag für Regierungsbehörden mitteilt.
Der Konzern arbeite daran, die sicherheitsrelevanten Standards und Compliance-Vorgaben zu erfüllen. Das Ziel: die Einführung von Microsoft 365 Copilot in sogenannten "DoD environments", also der digitalen Infrastruktur des Verteidigungsministeriums.
Eine Million Lizenzen – für wen sonst?
Interne Aussagen sorgen für Spekulationen. Microsofts Chief Commercial Officer Judson Althoff soll laut Teilnehmern einer Mitarbeiterversammlung angedeutet haben, dass ein Kunde mit über einer Million Microsoft-365-Lizenzen kurz davor stehe, Copilot flächendeckend einzuführen.
Einen Namen nannte er nicht – doch so viele Organisationen mit über einer Million Nutzern gibt es nicht. Das US-Verteidigungsministerium beschäftigt laut Government Accountability Office rund 2,1 Millionen Soldatinnen und Soldaten sowie 770.000 zivile Angestellte.
Rechnet man IT-Zugänge, Schulungsbereiche und interne Kommunikation mit ein, passt das Profil.
KI für die Regierung – ein Sicherheitsrisiko?
Die Einführung einer generativen KI in einem sicherheitskritischen Umfeld wie dem Pentagon ist heikel. Microsoft selbst betont, dass Copilot für "GCC High" – die hochsichere Cloud-Plattform der US-Regierung – noch in der Entwicklung sei.

Erst Ende März kündigte der Konzern an, Copilot bis Jahresende auch dort bereitstellen zu wollen. Für normale Firmenkunden ist der Dienst längst live. Bei Regierungsbehörden hingegen liegt die Messlatte höher – und das zu Recht.
Denn Copilot greift auf große Sprachmodelle zurück, die mit enormen Datenmengen arbeiten. Zwar sollen keine vertraulichen Inhalte aus der DoD-Cloud in die generellen Trainingsdaten der KI einfließen. Aber allein die Möglichkeit, sensible Inhalte durch Automatisierung zu analysieren und zu manipulieren, bringt erhebliche Risiken mit sich.
Microsoft verspricht, alle Anforderungen in puncto Sicherheit und Datenschutz zu erfüllen. Doch ob das Pentagon am Ende tatsächlich zuschlägt, bleibt offiziell offen. Eine Stellungnahme lehnt das Verteidigungsministerium bislang ab.
KI als strategische Waffe – oder bloß Produktivitäts-Booster?
Auf dem Papier ist Copilot ein Tool für Büroarbeit: Es hilft beim Erstellen von Word-Dokumenten, beim Entwerfen von PowerPoint-Präsentationen oder beim Strukturieren von Excel-Daten.
Doch in Behörden mit enormem Kommunikationsaufwand – etwa beim Verfassen von Briefings, Reden, Entscheidungsgrundlagen oder Mission Reports – kann die Software zu einem Effizienzfaktor mit strategischer Tragweite werden.
Obendrein gewinnt Microsoft mit einem Pentagon-Deal einen PR-Coup: Ein solcher Kunde bedeutet Glaubwürdigkeit im sicherheitssensiblen Bereich – eine Eintrittskarte für weitere staatliche Großkunden weltweit. Besonders relevant: Microsoft kämpft derzeit mit gemischtem Feedback zur Monetarisierung seiner KI-Produkte.
Viele Unternehmen zögern, Copilot trotz des Potenzials produktiv einzusetzen – nicht zuletzt wegen hoher Kosten. Ein staatlicher Mammutkunde wie das US-Verteidigungsministerium könnte das Vertrauen in die KI-Offensive deutlich stärken.
Ein Fuß in der Tür der Hochsicherheitswelt
Mit Azure Government, der Pentagon-Cloud und dem JEDI-Projekt hat Microsoft in den letzten Jahren bereits mehrere Male versucht, sich als führender Partner für die IT-Infrastruktur der US-Regierung zu etablieren.
Der Einstieg von Copilot in diese Welt ist nur logisch – und doch ein riskanter Schritt. Denn bei allen Versprechen bleibt eine Frage offen: Was, wenn die KI doch Fehler macht – in einem Umfeld, in dem Informationen über Leben und Tod entscheiden können?
Das könnte Sie auch interessieren:
