Investování v detailech – Je nVidia analogií k Ciscu?

NVDA je hlavním tahounem AI boomu na kapitálových trzích, což není zas až tak překvapivý fakt. Spojuje se v ní několik zásadních vlivů. Předně podle rčení – ve zlaté horečce nejvíc vydělaví prodejci lopat, je tím, kdo v AI prodává čipy. Za druhé, podobně jako ASML ve výrobě EUV litografických strojů, je NVDA monopolním hráčem na trhu, ani AMD ani Intel totiž nejsou schopni konkurovat nVidii co se týče základního ukazatele – počet výpočetních operací za jednotku času a příkonu el. energie. A do třetice, nVidia si drží velmi efektivní obranný štít proti konkurenci – vlastní API a programovací platformu CUDA.

Je ovšem možné hledat k současné situaci paralely a jedna se nabízí zcela očividně. Situace totiž připomíná rozmach internetu a tehdejšího „výrobce lopat“ – Cisco. Je tedy možné čekat, že nVidii potká stejný osud jako tehdejší Cisco? Spojitostí je hodně, zmíním je postupně, a začnu od finančních ukazatelů.

Cisco bylo neomylně růstovou společností podle finančních výkazů až do konce fiskálního roku 2001 (fiskální rok končil k 31.7. ), série ročních tržeb od roku 1996 rostla následovně:

4,1 -> 6,5 -> 8,5 -> 12,2 -> 18,9 -> 22,3 mld. USD

Jen pro připomenutí, jedná se o přelom milénia, takže čísla očištěná o inflaci nejsou řádově odlišná od toho, jak roste NVDA poslední roky (tržby za minulý fiskální rok byly 61mld. USD).

Pokud se podíváme na čisté tržby, najdeme mezi Ciscem a nVidií první rozdíl. S rostoucími tržbami rostly Ciscu i čisté zisky, ale i v roce 2000 (kdy dosáhly lokálního maxima) se dostaly jen na 2,7 mld. USD. Ze závěrky roku 1999 je dále možné vyčíst následující – hrubá marže 65%, provozní marže 24,5% a čistá marže 17,2%.

I když hrubá marže nVidie se zas až tolik leliší (73%), především na čisté marži okolo 50% je vidět, že nVidie dokážě fungovat mnohem efektivněji než Cisco, co se týče plošných nákladů na administrativu a sales/makreting. A i když obě společnosti operují bez dluhu, rozdíl je také v tom, že nVidia narozdíl od Cisca neředí akcionáře.

Podle finančních ukazatelů ale žádný zásadní rozdíl mezi oběma společnostmi neexistuje a i když se Cisco sesypalo z mnohem vyššího násobku ceny vůči budoucímu zisku, jen z pohledu na výkazy není možné další bublinu u nVidie vyloučit.

Pro hlubší pochopení prasknutí dot.com bubliny u poskytovatelů síťového hardware je potřeba jít do bližšího detailu a zaměřit se na příčinu pádu Cisca.

Cisco, naprosto stejným způsobem jako nVidia, v 90. letech outsourcovalo výrobu. I když mělo Cisco vlastní fabriky, velkým trendem při výrobě hardware byl na přelomu milenia outsourcng nízko maržové výroby zařízení. Dělala to Nokia při výrobě mobilních telefonů, Dell a Apple při výrobě počítačů a platilo to i pro výrobu síťových prvků v Ciscu. Klasickým problémem při prudké expanzi internetu byl nedostatek klíčových součástek způsobený nedostatečnou kontrolou logistického řetězce, ten pak zapříčinil obrovský přetlak nabídky nad poptávkou po konečných produktech. Následoval průdký růst kapacity výroby u subdodavatelů a ve finální fázi, kdy poklesla poptávka, opravdu masivní skok ve skladových zásbách. Jak u subdodavatelů, tak u výrobců konečných zařízení. Poptávka se uklidnila a protože životní cyklus technologického hardware je několik generací, firmy jako Cisco musely odepisovat obrovské zásoby hardware, pro který nebyl na trhu odbyt.

Výsledek byl vidět i na účetních závěrkách., I když mezi fiskálními roky 2000 a 2001 vzrostly Ciscu tržby z 18,9 na 22,3 mld. USD, čistý zisk se právě kvůli odpisu majetku snížil z 2,7 mld. USD na ztrátu -1,0 mld. USD. Ziskovost se v roce 2002 vrátila, ale tržby spadly zpět na 18,9 mld. USD (čistý zisk 1,9 mld. USD) a růstová trajektorie se vypařila a s ní i vysoké valuace. Výsledek známe. Kolaps ceny akcie byl způsobený nepochopením, že internetová infrastruktura je cyklické odvětví s dlouhým životním cyklem.

Nyní k nVidii a AI cyklu. nVidia rovněž outsourcuje výrobu, důvodem ovšem tentokrát není jen to, že si vedení společnosti nechce držet vertikálu výrobu, ale fakt, že toho u pokročilých polovodičů už ani není schopné. Na světě je jen nekolik jednotek společností schopných vyrábět polovodiče EUV litografií.

Samotná nVidia měla problém s kontrakcí poptávky a vysokým objemem rezervované výrobní kapacity v roce 2022, kdy si prošla boom-bust cyklem v jiném odvětví, a to v těžbě kryptoměn. Zatímco na začátku roku 2022 se akcie obchodovala za více než 330 USD, v lokálním dně v druhé polovině roku spadla až na hodnoty těsně nad 100 USD. Došlo i na účetní oprávky, které se ale ve skutečnosti nestihly materializovat v plném rozsahu. Z krize nVidii vytáhl rostoucí objem dodávek GPU pro AI datacentra, především OpenAI. A na vlně poptávky po akcelerátorech pro trénování a inferenci AI jede nVidia dodnes. Otázkou samozřejmě je, kdy se vlna zastaví a rozbije o břeh. Při hledání odpovědi na tuto otázku se otevírá Pandořina skřínka s mnoha zajímavými úvahami.

Tou první je, jestli je schopen někdo narušit monopol nVidie? V tomto ohledu, minimálně v současném sřednědobém cyklu, žádnou reálnou hrozbu od konkurence nevidím. Je potřeba nejprve vyřadit CUDA software ze hry, o což se snaží One API stavěném u Intelu s pomocí skoro všech velkých technologických firem, stále ale není hotovo. Když bude software, musí existovat i konkurenceschopný hardware. Problémem nejsou jen samotné čipy H100, H200 a B200 – Intel i AMD se sice snaží náskok nVidie dohnat, i když nepříliš úspěšně, ale zásadním kamenem úrazu pro konkurenci se začíná stávat NVLink – tedy vysokorychlostní propojení mezi jednotlivými čipy navzájem tak, aby nebyly bržděny paralelní výpočty mezi jednotlivými čipovými clustery. NVLink získala nVidia velmi chytrou akvizicí před několika lety. Dnes již 5. generace NVLinku má propustnost 1,8 TB/s a umožňuje propojit téměř 600 Blackwell GPU rychlostí, při které jednotlivá jádra nepoznají, že nejsou na stejném čipu. Není mi známo že by kdokoliv u konkurence byl schopen nabídnout podobnou propustnost na libovolném jiném alternativním řešení.

Druhou úvahou je, jestli nVidii hrozí opakování cyklického boom-bust scénáře? Narozdíl od AI firem na opačném konci vertikály – např. Alphabetu, totiž byznys model nVidie nestojí na opakovaných pravidelných tržbách plynoucích často ze SaaS (software as a service), ale na CAPEX výdajích korporátních klientů. A tržby stojící na CAPEX výdajích technologického sektoru jsou ukázkovým cyklickým odvětvím. Toho si je nepochybně vědoma i nVidie a sama se snaží zmigrovat alespoň část tržeb do SaaS modelu – cloud computing, software licensing a platformizace jejich produktů je viditelný trend v jejich produktovém mixu, přesto tržby spadající do kategorie Profesionální vizualizace zatím tvoří jen velmi malou část celkových tržeb a většinu táhne hardware pro datacentra, ale nVidia se snaží protlačit do ekosystému co nejvíce poplatků, jako například za NIM v rámci Nvidia AI Enterprise (link).

A nakonec třetí úvaha, která souvisí s bodem výše. Jaká je reálná velikost trhu kolem AI? Pokud nVidia nemá příliš velkou konkurenci (jakože nemá ani v případě in-house čipů velkých technologických firem, které se poměrně neúspěšně snaží zavést vlastní čipy, ale přesto zůstávají velkými odběrateli nVidie minimálně proto, aby mohli nabídnout CUDA platformu v rámci svého cloudu), tak bude nVidia i nadále držet dominantní postavení na trhu. Limitem tedy je, kdy dojde k nasycení trhu a jak velký objem tržeb do té doby nVidii poskytne. To je pomyslná otázka za všechny peníze.

Pokud budeme předpokládat, že AI modely s vyššími počty parametrů blížícími se k počtu synapsí neuronů v lidském mozku (např. vysněný 100T parameter model Sama Altmana) budou schopny skutečně alesoň ve specifickém rozsahu nahrazovat lidskou práci, tak objem průmyslového využití dalece přesahuje naši představivost. To samé platí o humanoidních robotech, které jsou také poháněny AI modely, a na které se nVidie momentálně agresivně zaměřuje včetně jejich AI modelu Groot. Cílový trh v tomto případě není možné hledat pomocí reálné poptávky po využití, byla by skoro neomezená, ale jiným limitujícím faktorem. A to spotřebou elektrické energie.

Právě elektřina a spotřeba vody pro chlazení jsou dva zásadní limitující faktory, které budou omezovat růst celého odvětví a jsou také důvodem, proč se postupně navyšují investice firem jako Microsoft a Google, ale i samotného Sama Altmana do firem vyvýjejících termojadernou fúzi. Vysokého objemu spotřeby stabilní energie si všiml i trh a proto poslední rok výrazně rostou akcie utility firem s jadernými elektrárnami. Obdobný komentář k umělé inteligenci dal i Elon Musk, který pravděpodobně správně odhaduje, že budoucí limit pro AI nebude hardware, ale právě spotřeba el. energie. A náraz do zdi v podobě nedostupnosti elektřiny pro datacentra bude pravděpodobně znamenat vrchol tohoto AI hardware cyklu. Odhad jak daleko od tohoto bodu jsme neexistuje, jsme ale pravděpodobně již blízko a jedinou možností záchrany je opět pouze technologický pokrok.

Při výrobě x86 CPU architektury platil dlouhou dobu a pravděpodobně i platí dodnes Moorův zákon – tedy že počet tranzistorů a tedy i výpočetní výkon mikroprocesoru se zdvojnásobí každé dva roky. To umožňuje při konstantním odběru elektřiny zvyšovat výpočetní výkon. Něco obdobného platí i pro výpočetní výkon GPU pro AI, ale zdá se, že v případě paralelních výpočtů se výkon zvyšuje ještě dramaticky rychleji. Za posledních 8 let z tisícinásobil z 19 na 20.000 TFLOPS a je otázka jakým stylem se bude tento trend vyvíjet, může totiž citelně pomoci s bariérou, kterou rostoucí spotřeba elektřiny je.

Pokud se mám vrátit k původní otázce a dát odpověď na to, jestli je nVidia novodobá paralela k Ciscu, tak odpověď z mojí strany zní, že není. Alespoň ne v tom smyslu, že nVidia je společnost, která vykazuje vyšší efektivitu, a má mnohem lepší moat v odvětví, kde primárním rozhodujícícm faktorem není kvalita jako v případě síťvých prvků pro internet, ale hlavně výkon vůči spotřebě elektřiny.

Co ale jednoznačně Cisco připomíná, je fakt, že nVidia je stále majoritně řízená cyklem CAPEXu u velkých technologických firem a až dojde k utlumení poptávky z jejich strany, dojde i u nVidie k cyklickému poklesu Ten může přijít už letos, ale taky klidně až za několik let, v závislosti na tom, jak moc exponenciálně porostou schopnosti AI modelů s počtem jejich parametrů. Budeme nejdříve muset narazit na limity buď v tom, že schopnosti AI modelů neporostou adekvátně k velikosti modelu a nebo na limity, kdy nové čipy nebudou dramaticky skokově vylepšovat výpočetní výkon v datacentrech již připojených na infrastrukturu. U obojího se jedná o čistou spekulaci a limity jsou neznámé. Zatím nová generace Blackwell umožňuje natrénovat 1,8T parameter GPT-4 model za stejnou dobu (90 dní) na čtvrtinovém objemu karet (8tis vs 2 tis GPU) a se čtvrtinovou spotřebou elektřiny (4MW vs 15 MW) než Hopper architektura, což nenasvědčuje ničemu uvedenému výše, a tedy ani nárazu do limitu poptávky.

Více se k této problematice vrátím na Patreonu tento měsíc v rámci přpravované analýzy na nVidii a Alphabet.

Napsat komentář