DeepSeek V4: Chinas KI-Modell fordert US-Rivalen heraus

DeepSeek V4: Chinas KI-Modell fordert US-Rivalen heraus

Aktualisiert:
4 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Das chinesische KI-Startup DeepSeek hat kürzlich eine Vorschauversion seines mit Spannung erwarteten Large Language Models (LLM) V4 veröffentlicht. Dieses Open-Source-Modell, das über ein Jahr nach dem erfolgreichen R1 Reasoning Model erscheint, ermöglicht Nutzern und Entwicklern, seine neuen Funktionen zu testen und den Code lokal zu modifizieren. Die Veröffentlichung intensiviert den globalen Wettbewerb im KI-Sektor, insbesondere im Kontext der technologischen Rivalität zwischen den USA und China.

DeepSeek V4: Ein neuer Meilenstein im Open-Source-KI-Sektor

DeepSeek, ein 2023 gegründetes Unternehmen aus Hangzhou, erlangte Ende 2024 mit seinem kostenlosen Open-Source-Modell V3 Aufmerksamkeit, das angeblich mit weniger leistungsstarken Chips und zu einem Bruchteil der Kosten von Modellen wie OpenAI und Google trainiert wurde. Im Januar 2025 folgte das R1 Reasoning Model, das ähnliche Benchmarks erreichte oder sogar übertraf. Die aktuelle V4-Version ist das bisher größte Modell des Unternehmens und wird in einer "Pro"- und einer "Flash"-Variante angeboten.

Die V4-Pro-Version verfügt über beeindruckende 1,6 Billionen Parameter, während die kleinere V4-Flash-Version 284 Milliarden Parameter aufweist. DeepSeek behauptet, dass V4 eine starke Leistung gegenüber nationalen Wettbewerbern erzielt, insbesondere bei agentenbasierten Aufgaben, Wissensverarbeitung und Inferenz. Das Modell wurde zudem für die Nutzung mit gängigen Agenten-Tools wie Anthropic's Claude Code und OpenClaw optimiert.

Architektonische Innovationen und Kosteneffizienz

Beide V4-Modelle unterstützen ein Kontextfenster von einer Million Tokens, eine entscheidende Funktion, die die Informationsverarbeitungskapazität eines KI-Systems bestimmt. DeepSeek gibt an, dies mit "weltweit führender" Kosteneffizienz erreicht zu haben. Das Unternehmen betont, dass die V4-Serie durch architektonische Innovationen einen dramatischen Sprung in der Recheneffizienz für die Verarbeitung ultra-langer Sequenzen erzielt.

Diese Effizienz ermöglicht eine effiziente Unterstützung einer Kontextlänge von einer Million Tokens und läutet damit eine neue Ära für LLMs ein. DeepSeek-V4-Pro-Max soll bei der Verarbeitung langer Eingaben fast zehnmal weniger Speicher als sein Vorgängermodell V3.2 verbrauchen. Das Unternehmen sieht darin einen Weg für tiefere Forschung in Langzeitaufgaben und eine Grundlage für zukünftige Paradigmen wie Online-Lernen.

Leistungsvergleich: Herausforderung für US-Giganten

DeepSeek positioniert seine V4-Modelle als wettbewerbsfähig mit führenden geschlossenen US-Modellen von OpenAI und Google DeepMind. Auf einer Hugging Face-Seite für das Modell erklärt DeepSeek, dass V4 Pro Max und V4 Pro die Wissensfähigkeiten von Open-Source-Modellen erheblich vorantreiben und sich als das derzeit beste verfügbare Open-Source-Modell etablieren. Es erreicht Spitzenleistungen in Coding-Benchmarks und schließt die Lücke zu führenden Closed-Source-Modellen bei Reasoning- und Agentenaufgaben.

In Benchmarks führt DeepSeek-V4-Pro-Max bei der Codierungs- und mathematischen Leistung. Es erreichte 90,2 % auf der Apex Shortlist, einem Benchmark für hochschwierige Reasoning- und Problemlösungsaufgaben, und eine Codeforces-Bewertung von 3206, was eine starke Wettbewerbsfähigkeit im realen Programmieren zeigt. Zudem liegt es mit 80,6 % gleichauf mit Claude Opus 4.6 Max und Gemini 3.1 Pro High auf SWE Verified, einem Benchmark für praktische Software-Engineering-Aufgaben.

Allerdings hinkt das Modell in allgemeinem Wissen und breiterem Reasoning seinen amerikanischen Pendants hinterher. Gemini 3.1 Pro führt auf SimpleQA-Verified, einem Benchmark für faktische Genauigkeit, während GPT-5.4 auf Terminal Bench 2.0, das die Effektivität von Modellen bei der Nutzung von Tools misst, am höchsten rangiert. Im MMLU-Pro (Knowledge) erreicht DeepSeek-V4-Pro Max 87,5 %, während Gemini 3.1 Pro High 91,0 % erzielt.

Die V4-Modelle bieten zudem drei Reasoning-Modi: "Non-think" für tägliche Aufgaben, "Think High" für komplexe Problemlösungen und "Think Max" für anspruchsvollste Coding- und Mathematikprobleme.

Hardware-Strategie im Schatten geopolitischer Spannungen

Die Veröffentlichung von DeepSeek V4 erfolgt inmitten einer Intensivierung des technologischen Wettstreits zwischen den USA und China. Berichten zufolge hat DeepSeek sein kommendes KI-Modell amerikanischen Ingenieuren nicht zugänglich gemacht, sondern chinesischen Unternehmen frühzeitigen Zugang gewährt (Stand: 26. Februar 2026). Zuvor hatten US-Beamte DeepSeek vorgeworfen, verbotene Nvidia Blackwell-Chips zum Training seiner Modelle zu verwenden.

DeepSeek hat die genaue Hardware-Architektur für das Training von V4 nicht offengelegt. Das Unternehmen erwähnte jedoch in einem erweiterten technischen Bericht die Entwicklung von "Kernels" – Codes, die die Funktionen von Grafikprozessoren (GPUs) steuern – die sowohl an Nvidia- als auch an Huawei-Chips angepasst sind. Das amerikanische Tech-Outlet The Information berichtete, dass das Modell für Huaweis Ascend 950PR-Chips optimiert wurde.

Das Unternehmen gab an, dass der Durchsatz von V4-Pro derzeit durch einen Mangel an Rechenkapazität begrenzt ist. Es wird erwartet, dass die Preise in der zweiten Jahreshälfte "erheblich sinken werden", sobald Huaweis Ascend 950PR Super Nodes in großem Umfang ausgeliefert werden. Diese Entwicklung findet vor dem Hintergrund anhaltender Beschränkungen für den Export fortschrittlicher Halbleiter, insbesondere High-End-GPUs von Nvidia, nach China statt, die die Entwicklung von KI-Modellen im Land beeinflussen.

Wachsender Wettbewerb im globalen KI-Markt

DeepSeek steht im chinesischen KI-Sektor vor wachsender Konkurrenz. Unternehmen wie Alibaba und ByteDance haben in diesem Jahr ebenfalls neue Modelle veröffentlicht. Der globale KI-Markt konzentriert sich zunehmend auf Skalierbarkeit, Leistung und Kosteneffizienz. Die Fähigkeit von DeepSeek, ein wettbewerbsfähiges Open-Source-Modell mit hoher Kosteneffizienz zu entwickeln, wirft Fragen über die zukünftigen Investitionen in die KI-Infrastruktur auf und unterstreicht die Dynamik des globalen KI-Rennens.