
In einem gewaltigen Umbruch innerhalb der Landschaft der Konsumenten-KI wurde die digitale Loyalität von Millionen von Nutzern auf die Probe gestellt – und scheint über Nacht gebrochen zu sein. Nach der Ankündigung einer richtungsweisenden Partnerschaft zwischen OpenAI und dem Verteidigungsministerium der Vereinigten Staaten (Department of Defense – DoD) hat sich die Stimmung der Nutzer massiv verschlechtert. Neue Daten zeigen einen erschütternden Anstieg der Deinstallationen von ChatGPT um 295 % innerhalb von 24 Stunden nach Bekanntwerden der Nachricht.
Im Gegenzug hat sich Claude von Anthropic als unmittelbarer Profiteur dieser Flucht erwiesen. Die Konkurrenzplattform ist auf den Platz 1 im US-App Store geschossen, was eine klare Botschaft des Konsumentenmarktes sendet: Ethik und Ausrichtung (Alignment) sind ebenso wichtig wie Leistungsfähigkeit. Bei Creati.ai analysieren wir diese beispiellose Marktbewegung, um zu verstehen, was sie für die Zukunft der KI-Branche bedeutet.
Die Daten, über die zuerst Marktbeobachtungsfirmen berichteten und die von TechCrunch bestätigt wurden, zeichnen das Bild einer Nutzerschaft, die sich entfremdet fühlt. Der Sprung der Deinstallationen um 295 % im Vergleich zum Vortag stellt das bedeutendste negative Ereignis in der Geschichte von OpenAI dar und übertrifft frühere Kontroversen um Führungswechsel oder Ausfälle.
Dies ist nicht nur ein passiver Rückgang der Nutzung; es ist eine aktive Ablehnung der Plattform. Das Löschen der App deutet eher auf einen dauerhaften oder halb-permanenten Abschied als auf eine vorübergehende Pause hin. Analysten vermuten, dass die Nutzerbasis für Generative KI (Generative AI), insbesondere die frühen Anwender (Early Adopters), stark aus Personen besteht, die sensibel auf die ethischen Auswirkungen von Technologie reagieren.
Die Partnerschaft zwischen OpenAI und dem Pentagon markiert eine endgültige Abkehr von den Gründungsprinzipien der Organisation. Ursprünglich als Non-Profit-Organisation gegründet, die sicherstellen sollte, dass künstliche allgemeine Intelligenz (Artificial General Intelligence – AGI) der gesamten Menschheit zugutekommt, hat die zunehmende Verstrickung von OpenAI in militärische Anwendungen einen Nerv getroffen.
Während OpenAI erklärt hat, dass sich die Zusammenarbeit auf Cybersicherheit, Logistik und Verteidigungsfähigkeiten konzentriert, wird sie in der Nutzerschaft als Militarisierung wahrgenommen. Der Begriff „OpenAI DoD deal“ trendete auf sozialen Plattformen, oft begleitet von Screenshots von Nutzern, die ihre ChatGPT Plus-Abonnements kündigen.
Während die Metriken von ChatGPT einbrachen, erlebte Anthropics Claude einen vertikalen Aufstieg. Das Erreichen der Spitzenposition im US-App Store – womit nicht nur andere KI-Tools, sondern auch dominante Social-Media- und Utility-Apps überholt wurden – ist ein Beweis für die Positionierung von Anthropic.
Anthropic vermarktet sich seit langem als das „Safety-first“-KI-Unternehmen. Ihr Ansatz der „konstitutionellen KI“ (Constitutional AI), der auf einer Reihe von Prinzipien basiert, um das Modellverhalten zu steuern, anstatt sich nur auf menschliches Feedback zu verlassen, findet Anklang bei den Flüchtlingen aus dem OpenAI-Ökosystem.
Ein entscheidender Faktor, der diese Migration beschleunigt, ist die Leichtigkeit des Übergangs. Wie Lifehacker berichtet, ermöglichen neue Drittanbieter-Tools und native Funktionen den Nutzern nun, ihre ChatGPT-Daten direkt in Claude zu importieren.
Zuvor verhinderte der „Lock-in-Effekt“ durch monate- oder jahrelange Chatverläufe in ChatGPT einen Wechsel. Da die Einstiegshürde gesenkt wurde, lieferten die ethischen Bedenken bezüglich des DoD-Deals den notwendigen Anstoß für die Nutzer, diese Migrations-Tools zu verwenden.
Wichtige Faktoren, die den Wechsel zu Claude vorantreiben, sind:
Die Rivalität zwischen OpenAI und Anthropic dreht sich nicht mehr nur um Benchmarks, Token-Geschwindigkeiten oder multimodale Fähigkeiten. Sie hat sich zu einem ideologischen Kampf entwickelt. Der Markt spaltet sich effektiv in zwei Lager: Pragmatiker, die Ubiquität und Integration priorisieren (OpenAI), und Puristen, die Ausrichtung und Sicherheit priorisieren (Anthropic).
Die folgende Tabelle skizziert die aktuelle Divergenz zwischen den beiden Marktführern:
| Feature/Metrik | OpenAI (ChatGPT) | Anthropic (Claude) |
|---|---|---|
| Aktuelle Marktbewegung | 295 % Anstieg der Deinstallationen (Tag-über-Tag) | Platz 1 im US-App Store |
| Hauptkontroverse | Strategische Partnerschaft mit dem US-DoD | Wahrgenommene „Über-Verweigerung“ in Sicherheitsprotokollen |
| Kernphilosophie | Bereitstellungsorientierte Skalierung | Constitutional AI & Safety-first |
| Nutzerstimmung | Skepsis gegenüber der ursprünglichen Mission | Angesehen als die „ethische Alternative“ |
| Ökosystem-Bindung | Hoch (Integration mit Apple/Microsoft) | Moderat (Wachsende API-Nutzung, einfachere Portabilität) |
Für OpenAI mag der unmittelbare finanzielle Einfluss verlorener Abonnements im Vergleich zum Wert eines Regierungsauftrags vernachnehlässigbar sein. Verteidigungsaufträge sind bekanntlich lukrativ und langfristig. Der Reputationsschaden ist jedoch schwerwiegend. OpenAI ist stark auf Nutzerdaten angewiesen, um seine Modelle zu verfeinern (Bestärkendes Lernen durch menschliches Feedback – Reinforcement Learning from Human Feedback – RLHF). Eine Massenflucht von Power-Usern – oft diejenigen, die die hochwertigsten und komplexesten Prompts liefern – könnte die Qualität zukünftiger Feedback-Schleifen verschlechtern.
Darüber hinaus schafft dieser Wandel ein prekäres Narrativ für OpenAI-Investoren. Wenn die Marke zum Synonym für den „militärisch-industriellen Komplex“ wird, könnte sie ihre Attraktivität für die kreative Klasse, Pädagogen und Programmierer verlieren, die ihre primären Evangelisten waren.
Dieses Ereignis beweist, dass „AI Ethics“ nicht nur eine theoretische Debatte für Akademiker ist; es ist ein tragfähiges Unterscheidungsmerkmal für Konsumgüter. Nutzer stimmen mit ihrem Speicherplatz und ihrem Geldbeutel ab.
Creati.ai beobachtet, dass Unternehmen Regierungsaufträge nicht länger als Backend-Geschäftsentscheidungen behandeln können, die von ihren Konsumgütern isoliert sind. In der Ära der transparenten KI definiert die Wahl Ihrer Geschäftspartner die Identität Ihres Produkts.
Das Phänomen der „ChatGPT uninstalls“ dient als Warnschuss für die gesamte Branche, einschließlich Google (Gemini) und Meta (Llama). Es zeigt, dass die KI-Nutzerbasis flüchtig und prinzipientreu ist.
Wir bewegen uns wahrscheinlich weg von einem „Winner-takes-all“-Markt hin zu einem fragmentierten Markt.
Die Beliebtheit der Datenimport-Tools deutet darauf hin, dass Datenportabilität zu einem regulierten Recht werden wird. Nutzer wollen Eigentümer ihrer Interaktionen sein. Wenn sich eine Plattform ethisch verändert, fordern die Nutzer das Recht ein, ihr digitales „Gehirn“ woandershin mitzunehmen.
Den ersten Platz zu halten ist schwierig. Anthropic steht nun vor der Herausforderung, seine Infrastruktur zu skalieren, um diesen plötzlichen Nachfrageschub zu bewältigen, ohne die Leistung zu beeinträchtigen. Zusätzlich werden sie einer verstärkten Prüfung ausgesetzt sein. Werden sie im Zuge ihres Wachstums in der Lage sein, denselben lukrativen Verteidigungsaufträgen zu widerstehen, die OpenAI gelockt haben?
Der Anstieg der Deinstallationen um 295 % nach dem DoD-Deal von OpenAI ist ein historischer Moment in der Zeitlinie der künstlichen Intelligenz. Er markiert das Ende der Flitterwochen-Phase, in der die Leistungsfähigkeit die einzige Metrik war, die zählte.
Während Claude an der Spitze des App Stores steht, muss die Branche erkennen, dass Vertrauen die neue Währung ist. OpenAI mag sich einen mächtigen Verbündeten im Pentagon gesichert haben, aber sie haben einen bedeutenden Teil der Menschen verloren. Im Rennen um die AGI könnte der Verlust der Masse mehr kosten, als jeder Regierungsauftrag abdecken kann.