
In einem entscheidenden Moment für die Zukunft der Politik der künstlichen Intelligenz (KI) in den Vereinigten Staaten hat Präsident Donald Trump eine weitreichende Exekutivverordnung (Executive Order) erlassen, die alle Bundesbehörden anweist, die Beziehungen zu Anthropic sofort abzubrechen. Die am späten Freitag unterzeichnete Richtlinie stuft das in San Francisco ansässige KI-Forschungslabor explizit als „nationales Sicherheitsrisiko“ ein. Der Schritt verbietet effektiv die Nutzung von Anthropics Flaggschiff-Modell Claude in der gesamten Bundesregierung, vom Energieministerium (Department of Energy) bis zum Verteidigungsministerium (Department of Defense).
Die Presseerklärung des Weißen Hauses im Anschluss an die Verordnung charakterisierte die Entscheidung als notwendigen Schritt, um die amerikanische militärische und strategische Vorherrschaft zu sichern. Regierungsvertreter nannten die „beharrliche Weigerung“ von Anthropic, seine Technologie an den Prioritäten der nationalen Verteidigung auszurichten, als Hauptauslöser für das Verbot. Diese Entwicklung stellt den bisher bedeutendsten Eingriff der Exekutive in den kommerziellen KI-Sektor dar und signalisiert einen Wandel von einer kooperativen Regulierung hin zu einer strikten Durchsetzung der Treue gegenüber Bundesrichtlinien.
Für die Leser von Creati.ai unterstreicht dieses Ereignis einen sich vertiefenden Bruch im KI-Ökosystem: die wachsende Kluft zwischen Laboratorien, bei denen Sicherheit an erster Stelle steht (Safety-first), und staatlich verordneten Leistungsanforderungen. Da Bundesverträge gekündigt werden, bereitet sich die Branche auf eine Neuausrichtung der Machtverhältnisse vor, wobei Wettbewerber wahrscheinlich versuchen werden, die Lücke zu füllen, die einer der marktführenden Anbieter von Großen Sprachmodellen (LLM – Large Language Models) hinterlassen hat.
Der Konflikt zwischen der Trump-Administration und Anthropic scheint aus einem Scheitern der Verhandlungen über die spezifischen Anwendungsfälle des Pentagons für generative KI (Generative AI) resultiert zu sein. Mit der Angelegenheit vertraute Quellen deuten darauf hin, dass das Verteidigungsministerium (DoD), unter der Leitung von Minister Pete Hegseth, eine spezialisierte Version von Claude mit modifizierten Sicherheitsprotokollen angefordert hatte.
Das Pentagon strebte Berichten zufolge die Entfernung spezifischer „Ablehnungs-Leitplanken“ (Refusal Guardrails) an – jener ethischen Beschränkungen, die im Modell eingebettet sind und verhindern, dass es bei kinetischen Operationen, Cyber-Offensivstrategien und biologischen Waffensimulationen unterstützt. Diese Einschränkungen sind zentral für Anthropics „Constitutional AI“-Framework, das Hilfsbereitschaft, Ehrlichkeit und Harmlosigkeit in Hochrisikoszenarien über die reine Leistungsfähigkeit stellt.
Laut Berichten lehnte Anthropic-CEO Dario Amodei die Anfrage ab und hielt daran fest, dass eine Aufweichung dieser Sicherheitsmaßnahmen gegen die Kernmission des Unternehmens verstoßen und potenziell unkontrollierbare Risiken freisetzen würde. Diese Weigerung wurde vom Weißen Haus nicht bloß als unternehmenspolitische Meinungsverschiedenheit interpretiert, sondern als ein Akt der Nicht-Einhaltung nationaler Sicherheitsinteressen.
Die Trump-Administration argumentiert, dass in einer Ära verschärften geopolitischen Wettbewerbs, insbesondere mit China, die US-Regierung sich nicht auf Software verlassen kann, die militärische Befehlshaber „hinterfragt“. Das vom Weißen Haus vorangetriebene Narrativ besagt, dass „Woke AI“ oder übermäßig eingeschränkte Modelle die strategischen Vorteile Amerikas behindern. Indem sie Anthropic als nationale Sicherheitsbedrohung (National Security Threat) bezeichnet, argumentiert die Regierung effektiv, dass KI-Pazifismus in Softwareform eine Belastung darstellt.
Um das Ausmaß dieses Wandels zu verstehen, ist es wichtig, die Standards, an die sich Anthropic hält, mit den neuen Anforderungen zu vergleichen, die aus dem Pentagon hervorgehen. Die folgende Tabelle skizziert die Divergenz, die zu der Exekutivverordnung geführt hat.
| Merkmal | Anthropics „Constitutional AI“-Standard | „Defense-Ready“-Anforderung des Pentagons |
|---|---|---|
| Ethisches Override | Modell verweigert Befehle, die gegen die Sicherheitsverfassung verstoßen | Befehlsgewalt steht über der Modellethik |
| Kinetische Operationen | Strikt untersagt (Null-Toleranz für tödliche Hilfe) | Erforderliche Fähigkeit zur taktischen Analyse |
| Datensouveränität | Strenge Privatsphäre mit Fokus auf Schadensminderung für Nutzer | Vollständige Transparenz für staatliche Prüfungen |
| Modifizierbarkeit der Leitplanken | Festgelegt durch den Entwickler (Anthropic) | Modifizierbar durch den Endnutzer (DoD/Bundesbehörde) |
| Einsatzbereich | Allgemeiner Zweck, sicherheitsbegrenzt | Missionsspezifisch, uneingeschränkte Grenzen |
Die unmittelbaren Auswirkungen der Verordnung waren turbulent. Anthropic, das sich eine wachsende Zahl von Regierungsverträgen für Datenanalyse und administrative Automatisierung gesichert hatte, sieht sich nun mit einem vollständigen Ausschluss vom öffentlichen Markt konfrontiert. Während der Umsatz des Unternehmens weitgehend von Unternehmens- und Verbrauchersektoren getrieben wird, könnte die rufschädigende Bezeichnung als „nationales Sicherheitsrisiko“ Fortune-500-Kunden verschrecken, die auf das Wohlwollen der Regierung angewiesen sind.
Umgekehrt schafft dies eine massive Chance für Wettbewerber. Technologieanalysten vermuten, dass Unternehmen, die bereit sind, „entfesselte“ oder „souveräne“ Modelle anzubieten – KI-Systeme, die dem Kunden die volle Kontrolle über die Sicherheitsparameter ermöglichen –, davon profitieren könnten, Milliarden an umgeleiteten Bundesmitteln zu erhalten. Dies steht im Einklang mit der breiteren „America First AI“-Initiative der Regierung, die rohe Leistungsfähigkeit und nationale Treue über abstrakte Sicherheitsphilosophien stellt.
Wir werden wahrscheinlich ein Rebranding im gesamten Sektor erleben. KI-Firmen könnten damit beginnen, „Patriotic AI“-Lösungen zu vermarkten, die explizit darauf ausgelegt sind, der Befehlskette und nicht universellen ethischen Richtlinien zu folgen. Diese Aufspaltung des Marktes könnte zu zwei unterschiedlichen Klassen von KI führen:
In einer kurz nach der Exekutivverordnung veröffentlichten Erklärung bekräftigte Anthropic sein Engagement für die Sicherheit. „Wir haben Claude entwickelt, um hilfreich und harmlos zu sein“, hieß es in der Erklärung. „Wir glauben, dass das Entfernen von Sicherheitsleitplanken aus leistungsstarken KI-Systemen, unabhängig vom Benutzer, ein inakzeptables Risiko für die Menschheit darstellt. Wir werden bei der Sicherheit unserer Systeme keine Kompromisse eingehen.“
Dieser prinzipientreue Standpunkt zieht eine klare Linie im Sand. Indem Anthropic sich dafür entscheidet, Bundesverträge zu verlieren, anstatt seine Sicherheitsarchitektur zu kompromittieren, testet das Unternehmen die wirtschaftliche Tragfähigkeit ethischer KI in einem feindseligen regulatorischen Umfeld. Es stellt die Annahme infrage, dass Tech-Unternehmen sich immer dem Willen des Staates beugen werden, um lukrative Verteidigungsgelder zu sichern.
Die Kennzeichnung als „National Security Risk“ hat jedoch rechtliches Gewicht, das über verlorene Verträge hinausgeht. Sie könnte theoretisch zu Investitionsbeschränkungen, Exportkontrollen für ihre Technologie oder sogar zur Überprüfung ihrer Mitarbeiter führen. Der Rechtsstreit darüber, ob ein Softwareunternehmen gezwungen werden kann, sein Produkt für das Militär zu ändern, wird wahrscheinlich vor den Bundesgerichten landen.
Diese Exekutivverordnung setzt einen Präzedenzfall, der im Silicon Valley nachhallen wird. Sie sendet die Botschaft aus, dass staatliche Förderung an die vollständige Ausrichtung auf die Ziele der Administration geknüpft ist, selbst wenn diese Ziele im Widerspruch zur Sicherheitsforschung eines Unternehmens stehen.
Für KI-Forscher und -Entwickler ist die einschüchternde Wirkung real. Die Frage lautet nun nicht mehr nur „Können wir es bauen?“, sondern „Wenn wir es sicher bauen, werden wir dann auf die schwarze Liste gesetzt?“. Während die Trump-Administration eine aggressive Beschleunigung der KI-Fähigkeiten vorantreibt, um globalen Widersachern entgegenzuwirken, schrumpft der Raum für Nuancen – und für „Ablehnungsmechanismen“ – rapide.
Creati.ai wird diese sich entwickelnde Geschichte weiter beobachten, insbesondere wie andere große Akteure wie OpenAI und Google auf ähnlichen Druck aus dem Pentagon reagieren. Die Ära des „neutralen“ Technologieanbieters könnte zu Ende gehen.