Ende April ist es passiert: DeepSeek hat sein neues Flaggschiff-Modell V4 als Preview veröffentlicht. Und mal ehrlich – die Zahlen sind absurd. Ein Kontextfenster von einer Million Tokens, Open-Source unter MIT-Lizenz, und Preise, bei denen man sich fragt, ob da jemand eine Null vergessen hat. Zeit, das Ganze mal genauer anzuschauen.
Was DeepSeek V4 mitbringt
DeepSeek V4 kommt in zwei Varianten: V4-Pro mit 1,6 Billionen Parametern (davon 49 Milliarden aktiv) und V4-Flash mit 284 Milliarden Parametern (13 Milliarden aktiv). Beide unterstützen ein Kontextfenster von einer Million Tokens – das ist genug Platz, um ganze Codebasen oder umfangreiche Dokumente in einem Rutsch zu verarbeiten.
Die Architektur dahinter ist clever: DeepSeek setzt auf ein Mixture-of-Experts-System mit einer neuen Hybrid-Attention-Technik. Das Ergebnis? Bei einem 1-Million-Token-Kontext braucht V4-Pro nur noch 27% der Rechenleistung und 10% des KV-Cache im Vergleich zum Vorgänger V3.2. Das ist nicht nur technisch beeindruckend, sondern erklärt auch die günstigen Preise.
Die Preise: Hier wird’s interessant
Jetzt kommen wir zum Teil, der mich am meisten überrascht hat. V4-Flash kostet 0,14 Dollar pro Million Input-Tokens und 0,28 Dollar für Output. V4-Pro liegt bei 1,74 Dollar Input und 3,48 Dollar Output – und aktuell gibt’s sogar noch einen 75%-Rabatt bis Ende Mai.
Zum Vergleich: GPT-5.5 kostet 5 Dollar für Input, Claude Opus 4.7 sogar 15 Dollar. Das macht V4-Flash etwa 36-mal günstiger als GPT-5.5 bei den Input-Tokens. Bei Cache-Hits – also wenn ihr wiederkehrende Prompts nutzt – sinkt der Input-Preis auf absurde 0,028 Dollar pro Million Tokens.
Für Entwickler, die Agenten-Workflows oder Code-Generierung betreiben, kann das den Unterschied zwischen einem teuren Hobby und einem wirtschaftlich sinnvollen Projekt machen.
Performance: Hält V4, was es verspricht?
DeepSeek behauptet, V4 habe die beste Agenten-Coding-Fähigkeit unter allen Open-Source-Modellen und erreiche „weltklasse“ Reasoning-Capabilities. Laut eigenen Angaben übertrifft V4 andere offene Modelle bei Weltwissen, muss sich aber noch hinter Googles Gemini einreihen.
Was wirklich spannend ist: V4 wurde für Huawei’s Ascend-Chips optimiert. Das ist ein großes Thema, denn damit kann China seine KI-Entwicklung unabhängiger von Nvidia vorantreiben. Die US-Exportkontrollen werden damit teilweise umgangen – zumindest was die Inferenz angeht.
Erste Tests zeigen, dass V4 besonders bei Code-Generierung und komplexen Reasoning-Aufgaben überzeugt. Für einfachere Agent-Tasks reicht oft schon V4-Flash völlig aus.
Was das für uns bedeutet
Der Release von V4 zeigt einmal mehr: Der KI-Markt wird nicht von einem Anbieter dominiert werden. DeepSeek drängt mit aggressiven Preisen und offener Lizenzierung in einen Markt, der bisher von OpenAI, Anthropic und Google bestimmt wurde.
Für Entwickler und kleine Teams ist das eine gute Nachricht. Wer mit LLM-APIs arbeitet, hat jetzt eine ernstzunehmende Alternative, die bei vielen Aufgaben mithalten kann – ohne das Budget zu sprengen. Die MIT-Lizenz bedeutet auch: Wer die Hardware hat, kann V4 selbst hosten.
Die Preview-Phase läuft noch, und DeepSeek hat keinen Zeitplan für die finale Version genannt. Wer aktuell noch die alten API-Endpunkte deepseek-chat oder deepseek-reasoner nutzt, sollte bis Juli auf die neuen V4-Modelle migrieren – danach werden die alten Aliase abgeschaltet.
Mein Fazit
DeepSeek V4 ist kein R1-Moment, der die Märkte erschüttert. Aber genau das macht es interessant: Es zeigt, dass günstige, leistungsfähige KI-Modelle aus China keine Eintagsfliege waren. Die Preisgestaltung ist aggressiv, die Performance solide, und die Open-Source-Lizenz macht das Ganze für viele Anwendungsfälle attraktiv.
Ich persönlich finde es erfrischend, dass nicht jedes Frontier-Modell ein Vermögen kosten muss. Ob V4 langfristig mit GPT-5.5 oder Claude Opus mithalten kann? Das wird sich zeigen. Aber für viele Projekte könnte es schon jetzt die bessere Wahl sein – zumindest für den Geldbeutel.


Kommentar verfassen