
Von Creati.ai Redaktionsteam
2. März 2026
In einem Schritt, der einen sich vertiefenden Bruch in der globalen Lieferkette für Künstliche Intelligenz (Artificial Intelligence) signalisiert, steht das chinesische KI-Labor DeepSeek kurz vor der Veröffentlichung seines Flaggschiffmodells der vierten Generation, DeepSeek V4. Berichten zufolge wird das Modell Anfang März auf den Markt kommen, zeitgleich mit Chinas jährlichen parlamentarischen „Zwei Sitzungen“ (Two Sessions). Im Gegensatz zu seinen Vorgängern ist V4 ein nativ multimodales System, das in der Lage ist, Text, Bilder und Videos zu generieren, was es als direkten Konkurrenten zu Googles Gemini 3.0 und den neuesten Angeboten von OpenAI positioniert.
Der technologische Sprung wird jedoch von einer bedeutenden strategischen Kehrtwende überschattet: DeepSeek hat Berichten zufolge den US-Halbleitergiganten Nvidia und AMD den Vorabzugang zur Optimierung verweigert. Stattdessen hat das Labor inländischen chinesischen Chipherstellern, insbesondere Huawei und Cambricon, exklusiven frühen Zugang gewährt, um das Modell für deren Hardware zu optimieren. Diese Entscheidung bricht mit einem langjährigen Branchenprotokoll, bei dem große Modellentwickler mit Nvidia zusammenarbeiten, um die Leistung vom ersten Tag an sicherzustellen, und markiert einen deutlichen Wandel hin zu Ökosystemen für „souveräne KI (sovereign AI)“.
Seit Jahren besteht das Standardvorgehen für erstklassige KI-Labore – einschließlich OpenAI, Anthropic und früher auch DeepSeek – darin, Nvidia und AMD Wochen vor einem öffentlichen Start Modellgewichte und Architekturdetails zur Verfügung zu stellen. Dieses „Optimierungsfenster“ ermöglicht es den Chipherstellern, ihre Software-Stacks (wie CUDA und ROCm) zu aktualisieren, um sicherzustellen, dass das neue Modell sofort nach der Veröffentlichung effizient auf ihren GPUs läuft.
Indem DeepSeek diesen Zugang für US-Firmen verweigert, erzwingt es effektiv eine Leistungsverzögerung für Benutzer, die V4 zum Start auf Nvidia-Hardware ausführen, während sichergestellt wird, dass das Modell nahtlos auf Huaweis Ascend 910C und den Chips der MLU-Serie von Cambricon läuft.
Auswirkungen der Ausschlussstrategie:
| Strategisches Ziel | Auswirkungen auf den Inlandsmarkt | Auswirkungen auf den globalen Markt |
|---|---|---|
| Hardware-Souveränität | Demonstriert, dass erstklassige KI-Modelle effizient auf nicht-westlichem Silizium (z. B. Huawei Ascend) trainiert und ausgeführt werden können. | Stellt das Narrativ in Frage, dass Nvidia-Hardware eine Voraussetzung für modernste KI-Inferenz ist. |
| Ökosystem-Kopplung | Zwingt chinesische Unternehmensentwickler, einheimische Hardware zu adoptieren, um die beste Leistung für V4 zu erhalten. | Erzeugt ein „gegabeltes“ Software-Ökosystem, in dem Optimierungen nicht mehr universell übertragbar sind. |
| Geopolitische Signalisierung | Aliniert sich mit Pekings Mandaten zur „Selbstgenügsamkeit“ im Vorfeld der politischen „Zwei Sitzungen“. | Signalisiert den US-Regulierungsbehörden, dass Exportkontrollen die interne Technologieentwicklung Chinas eher beschleunigen als stoppen könnten. |
| Marktschutz | Gibt Huawei und Cambricon einen „First-Mover“-Vorteil beim Benchmarking und Marketing ihrer Chips gegenüber dem H100/H200. | Könnte die Benchmark-Ergebnisse für Nvidia-GPUs auf DeepSeek V4 vorübergehend senken und die Käuferstimmung beeinflussen. |
Jenseits der geopolitischen Manöver führt DeepSeek V4 substanzielle architektonische Innovationen ein, die darauf ausgelegt sind, den Ruf des Labors für extreme Kosteneffizienz zu wahren. Das Modell basiert auf einer massiven Mixture-of-Experts (MoE)-Architektur mit geschätzten 1 Billion Gesamtparametern, aktiviert jedoch nur etwa 32 Milliarden Parameter pro Token. Diese Sparsamkeit (Sparsity) ermöglicht es, eine Leistung zu erbringen, die mit dichten Modellen der GPT-5-Klasse vergleichbar ist, während nur ein Bruchteil der Rechenleistung für die Inferenz benötigt wird.
Ein wesentliches Unterscheidungsmerkmal für V4 ist die Einführung der „Engram“-bedingten Speicherarchitektur (Engram conditional memory architecture). Dieser neuartige Mechanismus trennt den statischen Wissensabruf von der dynamischen Argumentation, wodurch das Modell auf ein Kontextfenster (Context Window) von mehr als 1 Million Token zugreifen kann, ohne die quadratische Rechenstrafe, die mit herkömmlichen Transformer-Attention-Mechanismen verbunden ist.
Wichtige technische Spezifikationen von DeepSeek V4:
DeepSeek V4 stellt den ersten Vorstoß des Labors in eine echte „Omni“-Modellstruktur dar. Frühere Iterationen, wie die Janus-Serie, trennten das visuelle Verständnis von der Textgenerierung. V4 vereinheitlicht diese Modalitäten und ermöglicht komplexe Argumentationsaufgaben, die Text, Code und visuelle Eingaben verschränken.
Es wird beispielsweise berichtet, dass das Modell Video-to-Code-Generierung beherrscht, bei der ein Benutzer eine Bildschirmaufnahme einer UI-Interaktion hochladen kann und das Modell den entsprechenden Frontend-Code generiert. Ebenso wird erwartet, dass seine Videogenerierungsfähigkeiten mit spezialisierten Modellen konkurrieren können, wobei das riesige Kontextfenster genutzt wird, um die zeitliche Konsistenz über längere Clips hinweg aufrechtzuerhalten.
Diese Fähigkeit bringt DeepSeek V4 in direkte Konkurrenz zu Googles Gemini 1.5 Pro und Gemini 3.0, die den aktuellen Standard für multimodales Denken mit langem Kontext definiert haben. DeepSeeks Open-Weights-Ansatz (der voraussichtlich dem V3-Lizenzmodell folgen wird) könnte jedoch den Markt stören, indem er diese Fähigkeiten Entwicklern kostenlos zur Verfügung stellt und die API-basierten Geschäftsmodelle westlicher Wettbewerber untergräbt.
Die Veröffentlichung von V4 erfolgt inmitten verschärfter Kontrollen der Trainingsinfrastruktur von DeepSeek. Jüngste Berichte von Reuters und der Financial Times zitieren anonyme US-Beamte, die behaupten, DeepSeek habe seine Modelle möglicherweise auf eingeschränkten Nvidia Blackwell-Chips trainiert, die potenziell über Graumarktkanäle unter Verstoß gegen US-Exportkontrollen erworben wurden.
DeepSeeks Schwenk zu Huawei für den Start von V4 dient in diesem Zusammenhang einem doppelten Zweck:
Die Veröffentlichung von DeepSeek V4 stellt eine subtile, aber gefährliche Bedrohung für das aktuelle KI-Wirtschaftsmodell dar, das oft als „Investitionsblase (Capex Bubble)“ bezeichnet wird. Westliche Tech-Giganten geben derzeit hunderte Milliarden Dollar für KI-Infrastruktur aus, basierend auf der Annahme, dass Skalierungsgesetze exponentielle Steigerungen bei Rechenleistung und Energie erfordern.
DeepSeek stellte diese Annahme mit seinen V3- und R1-Modellen in Frage, die für weniger als 6 Millionen US-Dollar trainiert wurden – ein Bruchteil der Kosten von OpenAIs GPT-4. Wenn V4 eine „State-of-the-Art“ multimodale Leistung mit einem ähnlich geringen Budget liefert, bestätigt dies weiter die These, dass algorithmische Effizienz (über MoE- und Engram-Architekturen) wichtiger ist als rohe Rechengewalt.
Potenzielle Marktwellen:
Die bevorstehende Veröffentlichung von DeepSeek V4 ist mehr als nur ein Produktstart; es ist ein geopolitisches Statement. Durch die Entkopplung seiner Optimierungs-Roadmap von Nvidia und AMD zieht DeepSeek effektiv eine Linie im Silizium. Die Botschaft ist klar: China beabsichtigt, einen autarken KI-Stack aufzubauen, von der Chipschicht bis zur Anwendungsschicht.
Für die globale KI-Gemeinschaft stellt die V4-Veröffentlichung ein Dilemma dar. Die wahrscheinliche offene Verfügbarkeit und die hohe Leistung des Modells machen es für Forscher und Entwickler unwiderstehlich. Dennoch könnte sein Optimierungs-Bias gegenüber nicht-westlicher Hardware die Community spalten und „Walled Gardens“ der Optimierung schaffen, in denen Modelle am besten auf der Hardware des geopolitischen Blocks laufen, aus dem sie stammen.
Während nächste Woche in Peking die „Zwei Sitzungen“ zusammenkommen, wird die Welt nicht nur auf die politischen Reden blicken, sondern auch auf die Benchmarks eines Modells, das verspricht, das Mögliche mit begrenzter Rechenleistung und souveränem Silizium neu zu definieren.