DeepSeek-V4 könnte das globale KI-Modellrennen verändern

AI Models27.Apr.2026 14:245 min read

Die neuen Open-Source-V4-Modelle von DeepSeek kombinieren Langkontext-Fähigkeiten mit deutlich niedrigeren Preisen und positionieren das chinesische Startup als stärkeren Wettbewerber im globalen KI-Rennen. Die Veröffentlichung signalisiert zudem eine Verlagerung hin zu Huawei-Hardware, da China versucht, die Abhängigkeit von Nvidia zu verringern.

DeepSeek-V4 könnte das globale KI-Modellrennen verändern

Das neu eingeführte KI-Modell von DeepSeek zeigt, wie der Fokus des chinesischen Start-ups auf Open Source und niedrigere Kosten China im geopolitischen KI-Wettlauf voranbringen könnte – insbesondere da der Anbieter beginnt, seine Abhängigkeit vom US-KI-Chipriese Nvidia zu verringern.

DeepSeek veröffentlichte DeepSeek-V4 am 24. April in einer Vorschauversion. Das Open-Source-Modell kann längere Prompts verarbeiten als frühere DeepSeek-Modelle. Es ist zudem die bedeutendste Veröffentlichung des Start-ups seit dem Launch von R1 im Januar 2025, das den KI-Markt mit seiner Schlussfolgerungsfähigkeit und seinem niedrigen Preis schockierte.

DeepSeek-V4 ist in zwei Versionen erhältlich: V4-Pro und V4-Flash. V4-Pro ist größer und verfügt über insgesamt 1,6 Billionen Parameter, während V4-Flash eine Hochgeschwindigkeitsversion mit 284 Milliarden Parametern ist. Beide Versionen unterstützen Kontextlängen von bis zu 1 Million Tokens und sind damit in Long-Context-Szenarien mit Google Gemini und Anthropic’s Claude vergleichbar. Die Modelle sind für langfristiges Schlussfolgern, Programmierung und agentenbasierte Workflows konzipiert.

Der Kostenfaktor

DeepSeek positioniert V4 als kostengünstigere Alternative zu führenden Frontier-Modellen.

  • V4-Pro: 1,74 $ pro Million Input-Tokens und 3,48 $ pro Million Output-Tokens
  • V4-Flash: 0,14 $ pro Million Input-Tokens und 0,28 $ pro Million Output-Tokens

Zum Vergleich:

  • Gemini 3.1 Pro: 2 $ pro Million Input-Tokens und 12 $ pro Million Output-Tokens
  • GPT 5.5: 5 $ pro Million Input-Tokens und 30 $ pro Million Output-Tokens
  • Claude Opus 4.7: 5 $ pro Million Input-Tokens und 25 $ pro Million Output-Tokens

„Die Token-Preise liegen bei einem Drittel der Preise der Frontier-Labore“, sagte Kashyap Kompella, CEO von RPA2AI Research. „Eine solche Preisgestaltung kann das Kaufverhalten verändern.“

Kompella fügte hinzu, dass DeepSeeks Modelle den Frontier-Angeboten von OpenAI, Google oder Anthropic zwar um drei bis sechs Monate hinterherhinken könnten, die Leistungsdifferenz jedoch weniger wichtig sein könnte, wenn die Kostendifferenz erheblich ist.

„Unternehmen benötigen nicht für alle Anwendungsfälle immer das absolut beste Modell“, sagte Kompella. „Sie brauchen ausreichend gute Leistung, vorhersehbare Kosten und Kontrolle. DeepSeek zwingt westliche Frontier-Labore dazu, bei den Kosten zu innovieren – nicht nur bei den Modellfähigkeiten.“

Abkehr von Nvidia

Die V4-Serie markiert zudem einen bedeutenden Wandel in DeepSeeks Hardware-Strategie. Die Modelle sind für die Inferenz auf dem Ascend-Supernode des chinesischen Chip-Herstellers Huawei optimiert. Frühere Modelle wie V3 wurden auf Nvidia-H800-Chips trainiert. Berichten zufolge wurde V4-Flash teilweise auf Huawei-Hardware trainiert, während V4-Pro aufgrund seines umfangreichen Rechenbedarfs weiterhin auf Nvidia angewiesen war.

Die Partnerschaft kommt laut Lian Jye Su, Analyst bei Omdia, einer Division von Informa TechTarget, beiden Unternehmen zugute. Huawei hatte Schwierigkeiten, mit seiner eigenen Pangu-Modellreihe Fuß zu fassen.

„DeepSeek nun nativ unterstützen zu können und dabei eine durchaus respektable Leistung zu demonstrieren, ist eine sehr fortschrittliche Errungenschaft“, sagte Su. „Es ermöglicht China, bei anderen Anbietern etwas mehr Anerkennung zu gewinnen.“

Su fügte hinzu, dass chinafreundliche Länder offener für die Einführung anderer chinesischer Produkte werden könnten, da China im Vergleich zu vor 12 Monaten offenbar Einschränkungen und Begrenzungen überwindet. Er merkte jedoch an, dass Huawei bei der Chipfertigung und der Softwareentwicklung weiterhin hinter Nvidia und dem breiteren globalen KI-Ökosystem zurückliegt.

Das Bekenntnis zu Open Source

DeepSeeks Festhalten an Open Source ist auch geopolitisch bedeutsam. Während US-Anbieter wie Meta und OpenAI zuvor Open Source befürworteten, haben sie sich inzwischen weitgehend davon abgewandt. Open Source könnte DeepSeeks wichtigstes Unterscheidungsmerkmal sein.

„Open Source hilft ihnen, Entwickler anzuziehen, Vertrauen aufzubauen und ein Ökosystem zu schaffen“, sagte Kompella und ergänzte, dass dies auch auf dem chinesischen Markt vorteilhaft sei.

Auch andere chinesische Anbieter, darunter Alibaba, Kimi, Qwen und Minimax, bieten Open-Weight-Modelle an. Su beschrieb Open Source als grundsätzlich kommerzielle Strategie, sagte jedoch, dass sie in DeepSeeks Ansatz verankert sei und nicht nur eine vorübergehende Taktik darstelle, bevor man zu geschlossenen Modellen übergehe.

Open Source verschafft China zudem eine Chance in preissensiblen Märkten außerhalb der USA.

„Es ermöglicht China außerdem, globale KI-Märkte zu beeinflussen, ohne jede Anwendungsschicht besitzen zu müssen“, sagte Kompella.

DeepSeeks schrittweise Abkehr von Nvidia steht im Einklang mit dem übergeordneten Ziel der chinesischen Regierung, die Abhängigkeit von westlichen Anbietern zu verringern. Westliche Unternehmen bleiben jedoch vorsichtig.

„Im westlichen Lager gibt es inzwischen erhebliche Vorbehalte gegenüber der Einführung jeglicher Open-Source-Lösungen aus China“, sagte Su. „Es gibt starken Widerstand seitens großer Unternehmen, insbesondere in kritischen Branchen, chinesische Modelle zu wählen oder sie vollständig zu vermeiden – hauptsächlich aufgrund staatlicher Prüfungen.“

Dennoch könnten die V4-Modelle für Unternehmen, die bereits Huawei-Produkte nutzen, eine Überlegung wert sein. Für andere könnte DeepSeeks Kombination aus niedrigen Kosten und Open-Source-Strategie maßgeblich die nächste Phase des globalen KI-Wettbewerbs prägen.

„Beim globalen KI-Wettlauf geht es darum, wer Intelligenz in großem Maßstab, zu niedrigen Kosten und auf einem souveränen Technologie-Stack bereitstellen kann“, sagte Kompella.