DeepSeek onthult bizarre cijfers: Breekt het toch Nvidia’s AI-monopolie?
In het kort:
Kosten en winstgevendheid: DeepSeek-V3/R1 heeft een theoretische dagelijkse winstmarge van 545%, met een geschatte dagomzet van $562.027 en operationele kosten van $87.072.
Efficiëntie door parallelisme: Het gebruik van Expert Parallelism (EP) en Data Parallelism (DP) verlaagt de latentie en verhoogt de doorvoer door taken over meerdere GPU’s te verdelen.
Impact op AI-markt: DeepSeek's kostenstructuur roept vragen op over de enorme investeringen van Amerikaanse AI-bedrijven in high-end chips zoals de H100.
De Chinese AI-startup DeepSeek heeft voor het eerst details vrijgegeven over de kosten en potentiële winstgevendheid van zijn inferentie-infrastructuur voor de populaire V3- en R1-modellen. Uit de gegevens die DeepSeek deelde op Github blijkt dat de theoretische kosten-winstverhouding 545% per dag bedraagt.
Dat betekent dat het bedrijf voor iedere $1 aan operationele kosten theoretisch $5,45 omzet genereert. Toch waarschuwt DeepSeek dat de werkelijke inkomsten lager uitvallen door lagere tarieven voor bepaalde diensten en gratis toegang voor web- en appgebruikers.
Kostenstructuur: $87.072 per dag aan GPU-huur
DeepSeek’s inferentiesysteem draait op Nvidia H800 GPU’s, een relatief goedkope optie vergeleken met de krachtigere H100-modellen die door concurrenten zoals OpenAI en Google DeepMind worden gebruikt en vele malen minder sterk dan de Blackwell chips die eraan zitten te komen. Uit de cijfers blijkt:
Gemiddelde GPU-bezetting per dag: 226,75 nodes, met een piek van 278 nodes (1 node = 8 GPU’s).
Huurprijs per GPU: $2 per uur, resulterend in een totale dagelijkse kostenpost van $87.072.
De kosten/winstmarge van DeepSeek:

Jaarlijkse kosten: $31,8 miljoen, uitgaande van een constant gebruik.
Theoretische omzet: $562.027 per dag
De inkomsten zijn berekend op basis van DeepSeek-R1’s prijzen:
Token type | Prijs per miljoen tokens | Aandeel in totaal | Tokens per dag | Omzet per dag |
Input (cache hit) | $0,14 | 56,3% | 342 miljard | $47.880 |
Input (cache miss) | $0,55 | 43,7% | 266 miljard | $146.300 |
Output tokens | $2,19 | 100% | 168 miljard | $367.847 |
Totaal | - | - | - | $562.027 |
Met deze berekening zou DeepSeek ruim $205 miljoen per jaar aan inferentie-inkomsten kunnen genereren, zonder rekening te houden met eventuele kortingen of gratis services.
Werkelijke winst lager door lagere prijzen en gratis diensten
Hoewel de theoretische marge indrukwekkend is, geeft DeepSeek zelf aan dat de werkelijke inkomsten fors lager liggen. Drie redenen:
Lager tarief voor V3-gebruikers: DeepSeek-V3 is goedkoper dan R1, wat de omzet drukt.
Gratis web- en app-toegang: Alleen API-gebruikers betalen, wat de inkomsten beperkt.
Nachttarieven: Tijdens daluren worden GPU’s ingezet voor onderzoek en training, wat de commerciële capaciteit verlaagt.
Schaalbaarheid en efficiëntie: DeepSeek’s technische aanpak
DeepSeek optimaliseert zijn inferentiesysteem door gebruik te maken van Expert Parallelism (EP) en Data Parallelism (DP). Hierdoor wordt de GPU-belasting gelijk verdeeld, wat zorgt voor een hogere doorvoer en lagere latentie.
Prefill-fase: EP32 en DP32 om batchgroottes te maximaliseren en rekenefficiëntie te verhogen.
Decode-fase: EP144 en DP144 om zware geheugenbewerkingen beter te spreiden over meerdere GPU’s.
Load balancing: Een Prefill Load Balancer, Decode Load Balancer en Expert-Parallel Load Balancer zorgen ervoor dat geen enkele GPU overbelast raakt. Samen zorgen deze ervoor dat geen enkele GPU overbelast raakt, waardoor de rekencapaciteit optimaal benut wordt en piekprestaties gegarandeerd zijn. Dit betekent dat DeepSeek met minder dure hardware toch gigantische hoeveelheden AI-berekeningen kan uitvoeren – iets wat Nvidia’s traditionele model van dure high-end chips onder druk zet.
Daarnaast wordt communicatie-overlapping toegepast, waarbij GPU’s parallel rekenen en communiceren, zodat geen rekencyclus verloren gaat aan wachttijden.
Wat betekent dit voor Nvidia en AI-concurrenten?
De onthulde kostenstructuur zet vraagtekens bij de miljardeninvesteringen van Amerikaanse AI-bedrijven in de nieuwste Nvidia H100 en toekomstige B100 GPU’s.
DeepSeek gebruikt ‘goedkopere’ H800-GPU’s, maar behaalt alsnog indrukwekkende efficiëntie en winstmarges.
Amerikaanse AI-bedrijven zoals OpenAI en Google DeepMind hebben enorme hardwarekosten, waardoor hun winstmarges mogelijk veel lager liggen.
Investeerders hebben twijfels over de noodzaak van extreem dure AI-infrastructuur. De daling van AI-aandelen in januari 2025 toont aan dat beleggers toch wat bang zijn dat DeepSeek's opkomst een bedreiging kan vormen voor bedrijven die zwaar leunen op high-end hardware.
Hoewel DeepSeek's efficiëntie indrukwekkend lijkt, benadrukte Nvidia-CEO Jensen Huang na de sterke kwartaalcijfers van Nvidia dat de vraag naar AI-compute alleen maar zal toenemen. Huang stelde:
"We’re going to have a good quarter next quarter. And we’ve got a fairly good pipeline of demand for Blackwell."
Jensen Huang over de toekomstige vraag naar Nvidia´s chips en DeepSeek:
Hiermee doelde hij op de aanhoudende kapitaalinvesteringen in datacenters en de verwachte adoptie van Nvidia’s Blackwell-architectuur. Hij weerlegde bovendien de indruk dat DeepSeek minder rekencapaciteit nodig zou hebben. Integendeel, hij stelde dat geavanceerde "reasoning AI", zoals DeepSeek en GPT-4, juist veel meer rekenkracht vereist.
Volgens Huang kan de rekencapaciteit voor inferentieprocessen nu 100 keer hoger liggen dan voorheen, omdat AI-modellen niet alleen antwoorden genereren, maar ook nadenken, reflecteren en optimaliseren voordat ze een antwoord presenteren.
Dit suggereert dat DeepSeek’s huidige efficiëntie niet per se een bedreiging vormt voor Nvidia, maar eerder de vraag naar gespecialiseerde AI-hardware op lange termijn kan versterken.
DeepSeek bewijst met deze cijfers dat efficiënte AI-inferentie niet afhankelijk hoeft te zijn van de duurste hardware. Met een potentieel jaarlijks winstpercentage van ruim 500% en lagere operationele kosten dan westerse concurrenten, lijkt het bedrijf een serieuze uitdager in de wereldwijde AI-markt. Toch blijft de grote vraag: kunnen ze deze marge vasthouden als ze verder opschalen en meer diensten gaan monetizen, en wat gaat het effect zijn op hardware giganten zoals Nvidia op de langere termijn?
Comments