top of page

Kan AMD 130% stijgen dankzij DeepSeek?

Rens Boukema
  • Chinese AI-lab DeepSeek heeft met zijn R1-model Amerikaanse AI-giganten zoals OpenAI, Meta en Anthropic overtroffen, ondanks lagere ontwikkelingsbudgetten en Amerikaanse sancties tegen China.

  • DeepSeek's model presteert beter dan concurrenten op benchmarks en werkt bovendien open-source, het draait naar verwachting op AMD-chips.

  • De groeiende adoptie van AMD’s MI300X-GPU’s, zoals bij Meta’s datacenters, onderstreept AMD’s concurrentievoordeel in inferentie-gedreven workloads met lagere latency en hogere efficiëntie.


De lancering van DeepSeek V3, een doorbraak in AI-modeltraining, heeft het speelveld veranderd voor de halfgeleidersector, en AMD (NASDAQ:AMD) staat in een sterke positie om hiervan te profiteren. Het model laat zien hoe de training van krachtige AI-systemen drastisch goedkoper kan worden, waardoor ontwikkelaars niet langer afhankelijk zijn van Nvidia's extreem dure Blackwell-GPU’s.


DeepSeek is gevestigd in Hangzhou, en gefinancierd door hedgefonds High-Flyer. Het nieuwe R1-model, een large language model (LLM), overtrof benchmarks van Amerikaanse giganten als OpenAI, Meta en Anthropic. Dat DeepSeek dit wist te bereiken ondanks beperkte middelen en Amerikaanse sancties, maakt de prestatie opmerkelijk.


DeepSeek plaatst zich, met vele malen goedkopere chips direct in de top-3:

Bron: Marktechpost

AMD, dat zich al positioneert als een kostenefficiënt alternatief, ziet zijn kansen in de AI-markt groeien. In de onderstaande analyse laat ik je zien waarom DeepSeek een directe katalysator is voor AMD's groeipotentieel.


Hoe DeepSeek R1 de benchmarks domineerde

Het R1-model van DeepSeek wordt gekenmerkt door drie eigenschappen die direct opvallen:


  1. Kosten-efficiëntie: In tegenstelling tot concurrenten, die miljarden investeren, beweert DeepSeek dat R1 ontwikkeld is met een “bootstrapped” budget.

  2. Volledig autonome ontwikkeling: DeepSeek stelt dat het model zichzelf heeft verbeterd zonder menselijke supervisie.

  3. Open-source benadering: R1, vergelijkbaar met Meta's Llama, is vrij beschikbaar voor ontwikkelaars, een opvallend contrast met de gesloten benadering van OpenAI.


Volgens gepubliceerde benchmarks scoort R1 hoger op taalbegrip, logische redenering en contextherkenning dan concurrerende modellen. Dit is indrukwekkend omdat de grootste beperkingen voor Chinese bedrijven, zoals beperkte toegang tot Nvidia’s H100-chips door Amerikaanse sancties, niet lijken te hebben vertraagd.


DeepSeek op verschillende benchmarks:

Bron: Github

De VS heeft de export van geavanceerde halfgeleiders, waaronder Nvidia's H100 en A100 GPU's, naar China beperkt om de technologische voorsprong van Silicon Valley te beschermen. De vraag rijst echter of deze sancties effectief zijn, aangezien DeepSeek desondanks topprestaties levert, zoals je eerder al zag.



Twee mogelijke verklaringen:

  1. Alternatieve chipbronnen: DeepSeek zou toegang kunnen hebben tot andere krachtige chips, wellicht via partners in andere landen of door grijze marktkanalen.

  2. Efficiënter gebruik van minder geavanceerde hardware: DeepSeek beweert dat R1 uitzonderlijk compute-efficiënt is, wat betekent dat het model minder rekenkracht nodig heeft dan concurrenten, dit lijkt de meest waarschijnlijke van deze twee opties.


Microsoft CEO Satya Nadella benadrukte op het World Economic Forum afgelopen 22 januari in Davos dat de ontwikkelingen in China serieus genomen moeten worden. "DeepSeek toont aan hoe snel de sector evolueert. Hun focus op open-source is bovendien slim, omdat het innovatie versnelt," zei Nadella. En ook: “De prestaties van DeepSeek R1 zijn enorm indrukwekkend. Hun aanpak van compute-efficiëntie is een waarschuwing dat we de ontwikkelingen in China serieus moeten nemen,”.


Historisch gezien zijn de kosten voor het trainen van AI-modellen explosief gestegen, met een verdubbeling tot verdrievoudiging per jaar. Volgens een onderzoek van Stanford University en Epoch AI zouden de grootste AI-modellen tegen 2027 meer dan $1 miljard kosten om te trainen.


Doordat iedereen afknapte op de prestaties van AMD versus Nvidia is de koers behoorlijk gedaald:

Bron: Macrotrends

DeepSeek V3 verandert deze dynamiek volledig. Het model presteert vergelijkbaar met toonaangevende modellen zoals OpenAI's GPT-4o, maar tegen een fractie van de kosten. Terwijl het trainen van GPT-4o meer dan $100 miljoen kostte, trainde DeepSeek V3 voor slechts $5,6 miljoen. Dit verschil maakt goedkopere hardware, zoals AMD's MI 325X-GPU, veel aantrekkelijker.


AMD GPU's: Kostenefficiënt alternatief

AMD’s MI 325X-GPU kost ongeveer $15.000, terwijl Nvidia's Blackwell-chips zoals de H100 tot wel $70.000 kosten. Hoewel Nvidia’s GPU’s dus wat krachtiger zijn, toont DeepSeek’s aanpak aan dat cutting-edge prestaties niet altijd afhankelijk zijn van de duurste hardware.

DeepSeek V3 werd zelfs getraind op Nvidia H800 GPU’s, die minder krachtig zijn dan de H100.


AMD’s MI 300X en aankomende MI 350-serie presteren beter dan de H800 en zijn dus ideaal voor het trainen van vergelijkbare modellen. Dit versterkt AMD's positie als kostenleider, met deze cijfers wordt het steeds duidelijker wat voor kans AMD hierdoor aangereikt krijgt..


De laatste kwartaalcijfers van AMD per segment:

Bron: AMD IR

AMD zag zijn inkomsten uit datacenters in Q3 2024 stijgen naar $3,5 miljard, een groei van 122% jaar-op-jaar. Deze groei werd gedreven door de vraag naar hun Instinct GPU's, die concurreren met Nvidia's aanbod.


Meta heeft eerder al een grote stap gezet in de richting van efficiëntere AI-infrastructuur door meer dan 173.000 AMD MI300X GPU’s aan te schaffen voor zijn datacenters. Deze aankoop benadrukt Meta’s focus op schaalbare en kosteneffectieve oplossingen om de enorme groei in AI-inferentie te ondersteunen.


Waarom AMD en niet Nvidia?

De keuze voor AMD is strategisch. Meta’s Llama-modellen, die gebruikt worden voor contentaanbevelingen en AI-onderzoek, vereisen enorme hoeveelheden inferentie-rekenkracht. De MI300X onderscheidt zich door embedded geheugen, wat het mogelijk maakt om grotere delen van AI-modellen lokaal op de chip te houden.


Dit vermindert de overhead van geheugenuitwisseling, verlaagt de latency en verhoogt de energie-efficiëntie. In vergelijking met Nvidia’s chips biedt de MI300X bij inferentie-workloads vergelijkbare prestaties tegen lagere kosten. Dit maakt AMD aantrekkelijker voor hyperscalers zoals Meta, die hun operationele kosten willen optimaliseren terwijl ze voldoen aan de stijgende vraag naar complexe AI-toepassingen.


Impact op Meta’s AI-strategie

Met een gebruikersbasis van meer dan 3 miljard maandelijkse actieve gebruikers heeft Meta enorme inferentievolumes in zijn datacenters. Naarmate de Llama-modellen meer reasoning-capaciteiten krijgen, groeit de behoefte aan hardware die multi-step logica efficiënt kan verwerken. AMD’s MI300X heeft bewezen dit te kunnen leveren met real-time prestaties, zelfs bij complexe taken.


Deze strategische samenwerking tussen Meta en AMD versterkt niet alleen AMD’s positie in de AI-markt, maar benadrukt ook hoe hyperscalers zoals Meta hun infrastructuur heroverwegen om kosten te besparen en prestaties te optimaliseren. Dit is een duidelijk teken dat AMD een belangrijke speler wordt in het nieuwe tijdperk van inferentie-gedreven AI.


Door DeepSeek’s doorbraak kunnen bedrijven zoals Google, AWS en Microsoft—die gezamenlijk tot $500 miljard aan AI-servers uitgeven tegen 2028—kosten besparen door AMD’s GPU's in te zetten. Gartner voorspelt dat hyper-scalers steeds meer zullen kijken naar kosten per query, een categorie waarin AMD’s hardware excelleert.


Onderwaardering op basis van PEG en P/E-ratio

Met al deze informatie over de voordelen die er lijken te liggen voor AMD is het tijd om naar de waardering te kijken. AMD’s forward P/E-ratio staat momenteel op 24,35, wat laag is in vergelijking met historische niveaus. Belangrijker is echter de PEG-ratio, die AMD’s groei in relatie tot de sector weerspiegelt.


  • AMD’s forward PEG-ratio: 0,82

  • Sectorgemiddelde forward PEG-ratio: 1,89


Ook de FWD P/E biedt kansen (10,5 voor 2028):

Bron: Finbox

Als AMD’s PEG-ratio stijgt naar het sectorgemiddelde, zou de aandelenkoers met 130,49% kunnen stijgen, wat uiteraard slechts een voorbeeld is van de mogelijke groei. Dit scenario is zeker haalbaar gezien de verwachte groei in AI-hardwareverkopen en het momentum dat DeepSeek V3 AMD geeft in kostenbewuste markten. DeepSeek is hierin een symptoom die ons de kansen laat zien die er liggen in de AI-markt. De tijd van enkel kijken naar prestaties, door de vergelijking met Blackwell te blijven maken, lijkt hiermee voorbij te zijn.


AMD heeft zijn AI-GPU-omzetprognose in 2024 verhoogd van $2 miljard naar $5 miljard. Ondanks tegenwind uit consumentenmarkten, biedt de AI-markt een robuuste pijplijn voor groei. Dit is een kritieke factor in AMD's lange-termijnstrategie, vooral omdat DeepSeek nieuwe gebruiksscenario’s creëert voor minder dure hardware.


Tot nu toe was het grootste risico dus AMD’s vermogen om Nvidia technologisch bij te benen. Nvidia’s Blackwell-chips zijn krachtig en hebben een voorsprong in geavanceerde benchmarks. CEO Lisa Su gaf toe dat het voor AMD een uitdaging blijft om Nvidia’s jaarlijkse productlanceringen te evenaren. Echter, DeepSeek V3 laat zien dat dit minder belangrijk wordt. De nieuwe architectuur bewijst dat high-performance AI-modellen kunnen worden getraind op minder geavanceerde GPU’s, zoals AMD's MI 300X. Dit verlaagt de drempel voor AMD om marktaandeel te winnen.


DeepSeek V3 heeft de AI-industrie getransformeerd door de focus te verschuiven van pure rekenkracht naar kostenefficiëntie. AMD staat in een unieke positie om hiervan te profiteren dankzij zijn goedkopere GPU's en groeiende datacenter-activiteiten.

Met een significante onderwaardering op basis van forward PEG-ratio’s en een verwachte verdubbeling van de AI-GPU-markt in de komende jaren, is AMD klaar om zijn aandeelhouders te belonen. Hoewel risico’s blijven bestaan, maakt DeepSeek’s doorbraak het aannemelijk dat AMD marktaandeel wint van Nvidia in een sector die steeds meer gericht is op kostenoptimalisatie.

Comments


Net binnen..

Meld je aan voor onze dagelijkse nieuwsbrief!

Bedankt voor het abonneren!

Copyright © 2023 •

Alle rechten voorbehouden - Amsterdam - 0619930051

Disclaimer
Let op: Beleggen brengt risico's met zich mee. Je kan (een deel van) je inleg verliezen. Niets hier mag worden beschouwd als financieel advies.. Voor advies over je persoonlijke situatie kun je het beste een adviseur inschakelen.

  • Instagram
  • Twitter
  • LinkedIn
  • YouTube
bottom of page