
In einem wegweisenden Moment für den Markt der generativen KI (Generative AI) für Endverbraucher hat Anthropics Claude OpenAI’s ChatGPT bei den täglichen US-Downloads offiziell überholt. Dies signalisiert eine massive Verschiebung der Nutzerstimmung, die durch Datenschutzbedenken getrieben wird. In dieser Woche veröffentlichte Daten bestätigen, dass Anthropic von seiner Weigerung profitiert, bei ethischen Leitplanken Kompromisse einzugehen, während OpenAI mit einer Abwanderung von Nutzern nach seiner neuen Partnerschaft mit dem Verteidigungsministerium (Department of Defense, DoD) zu kämpfen hat.
Stand 2. März 2026 stiegen die täglich aktiven Nutzer (Daily Active Users, DAUs) von Claude auf 11,3 Millionen, was einem beeindruckenden Anstieg von 183 % seit Jahresbeginn entspricht. Diese Wachstumskurve fällt direkt mit der öffentlichen Gegenreaktion auf die Entscheidung von OpenAI zusammen, ChatGPT in militärische Überwachungsnetzwerke zu integrieren – ein Deal, den Anthropic ausdrücklich ablehnte.
Die Störung der KI-Rangliste ist nicht nur das Ergebnis von Produktaktualisierungen, sondern eine direkte Reaktion der Verbraucher auf die Unternehmensethik. Ende letzten Monats stellte das Pentagon den großen KI-Anbietern ein Ultimatum und forderte die Aufhebung von Beschränkungen für „Massenüberwachung im Inland“ und „vollautonome Waffen“, um sich lukrative Verteidigungsaufträge zu sichern.
Anthropic-CEO Dario Amodei lehnte die Forderung öffentlich ab und erklärte: „Wir können nicht reinen Gewissens Technologie bereitstellen, die eine Massenüberwachung amerikanischer Bürger ermöglicht, was eine Verletzung von Grundrechten darstellt.“ Infolgedessen stufte die Trump-Regierung Anthropic als „Lieferkettenrisiko“ (Supply Chain Risk) ein und schloss das Unternehmen faktisch von Bundesverträgen aus.
Im krassen Gegensatz dazu akzeptierte OpenAI die Bedingungen und integrierte seine Modelle in die geheimen Netzwerke des DoD. Dieser Schritt, der darauf abzielte, die Position von OpenAI im öffentlichen Sektor zu festigen, ist auf dem Verbrauchermarkt spektakulär nach hinten losgegangen. Die von Datenschutzaktivisten organisierte „QuitGPT“-Bewegung hat in weniger als einer Woche über 1,5 Millionen Unterstützer gewonnen, die Nutzer dazu aufrufen, ihre OpenAI-Konten zu löschen.
Die Marktforschungsunternehmen Sensor Tower und Appfigures haben Daten vorgelegt, die die Geschwindigkeit dieser Verschiebung verdeutlichen. Zum ersten Mal seit seinem Start hat ChatGPT seine Krone als am häufigsten heruntergeladene KI-App in den Vereinigten Staaten verloren, da die Nutzer zu Claude als datenschutzorientierte Alternative strömen.
Die folgende Tabelle skizziert die dramatische Divergenz der wichtigsten Leistungskennzahlen zwischen den beiden Plattformen in der vergangenen Woche:
Marktperformance: Claude vs. ChatGPT (27. Feb. - 5. Mär. 2026)
| Metrik | Claude (Anthropic) | ChatGPT (OpenAI) |
|---|---|---|
| Tägliche Downloads (U.S.) | 149.000 (Rang #1) | 124.000 (Rang #2) |
| Daily Active Users (DAU) | 11,3 Millionen (Anstieg 183% YTD) | Rückläufig (Genaue Zahl zurückgehalten) |
| Deinstallationsrate (DoD-Deal) | Normales Ausgangsniveau | +295% Anstieg |
| App Store Bewertungstrend | Positiv (Datenschutz-Fokus) | Negativ (775% Anstieg bei 1-Sterne-Bewertungen) |
| Regierungsstatus | Als „Lieferkettenrisiko“ eingestuft | Offizieller DoD-Auftragnehmer |
Der Anstieg der ChatGPT uninstalls um 295 % stellt mehr als nur einen vorübergehenden Rückgang dar; er deutet auf eine grundlegende Neuausrichtung dessen hin, was Verbraucher bei generativer KI wertschätzen. Jahrelang waren Leistungsfähigkeit und Geschwindigkeit die Haupttreiber für die Akzeptanz. Doch da KI immer stärker in das Privatleben integriert wird – beim Bearbeiten von E-Mails, Gesundheitsdaten und kreativer Arbeit – hat sich Vertrauen als die ultimative Währung herausgestellt.
„Die Nutzer stimmen mit ihren Handys ab“, bemerkt Sarah Kreps, Direktorin des Tech Policy Institute an der Cornell University. „Man ging davon aus, dass sich die Verbraucher nicht um Regierungsgeschäfte im Hintergrund kümmern würden. Diese Annahme war falsch. Als die Nutzer erfuhren, dass dasselbe Modell, das ihre Gedichte schreibt, für die Inlandsüberwachung verwendet werden könnte, brach das Wertversprechen zusammen.“
Soziale Medien wurden mit Screenshots von Nutzern überflutet, die ihre ChatGPT Plus-Abonnements kündigten und oft Anthropics „Konstitution“ und Amodeis Weigerung, sich dem Druck des Pentagons zu beugen, als Hauptgrund für den Wechsel nannten.
Anthropic bewirbt seit langem seinen Ansatz der „konstitutionellen KI“ (Constitutional AI) – eine Methode, bei der das Modell darauf trainiert wird, sich an einer Reihe ethischer Prinzipien statt nur an menschlichem Feedback auszurichten. Kritiker argumentierten zuvor, dass dies die Leistung oder die kommerzielle Rentabilität des Modells beeinträchtigen würde. Im aktuellen Klima ist dieses „Safety-First“-Branding jedoch zu einem massiven Wettbewerbsvorteil geworden.
Obwohl die Einstufung als „Lieferkettenrisiko“ potenziell den B2B-Umsatz von Anthropic mit Regierungsauftragnehmern beeinträchtigt, hat die Reaktion der Verbraucher diese Verluste wahrscheinlich ausgeglichen. Die täglichen Neuanmeldungen für Claude haben sich von 250.000 im Januar auf über 1 Million Anfang März vervierfacht.
Darüber hinaus beschränkt sich der Anstieg nicht auf die Vereinigten Staaten. Claude hat in über 20 Ländern, darunter Großbritannien und Kanada, den ersten Platz in den Kategorien „Produktivität“ und „Kostenlose Apps“ erreicht, was darauf hindeutet, dass die Besorgnis über KI-gestützte Überwachung ein globales Phänomen ist.
Die Divergenz zwischen der Verbraucherstimmung und den Anforderungen der Regierung bringt IT-Verantwortliche (CIOs) in Unternehmen in eine schwierige Lage. Während der DoD-Deal die Sicherheitsprotokolle von OpenAI für den geheimen Einsatz validiert, führt die Revolte der Verbraucher zu einem Reputationsrisiko für Unternehmen, die ChatGPT in ihre kundenorientierten Produkte integrieren.
Umgekehrt positioniert Anthropic Claude nun nicht mehr nur als sichereren Chatbot, sondern als die „ethische Wahl“ für Unternehmen, die um Datensouveränität und unternehmerische Verantwortung besorgt sind.
Während sich der Staub über dem Pentagon-Streit legt, hat sich die Landschaft der KI-Kriege grundlegend verändert. OpenAI mag das Pentagon gewonnen haben, aber Anthropic gewinnt die Menschen. Mit 11,3 Millionen täglich aktiven Nutzern und steigender Tendenz hat Claude bewiesen, dass im Jahr 2026 die Ablehnung eines staatlichen Überwachungsvertrags die profitabelste Geschäftsentscheidung sein kann, die ein KI-Unternehmen treffen kann. Es bleibt die Frage, ob OpenAI das Vertrauen der Öffentlichkeit zurückgewinnen kann oder ob dies den Beginn eines dauerhaften Bruchs im KI-Markt markiert.