Jsem zpět a i když mám v rukávu několik různorodých témat, která chci rozepsat, začnu s tímto. Dnes žádné obrázky, žádné vtipy, jen čistý zahuštěný text. Pokud mě sleduješ pravidelně, víš, že silně věřím v AI revoluci která nás čeká a její extrémní podobu jsem objevil nedávno na internetu shrnutou v eseji Situational Awarness od Leopolda Aschenbrennera, který pracoval v Superalignment týmu v Open AI (měli za úkol vymyslet způsob, jak omezit AI model, aby se nechoval nepřátelsky vůči lidstvu) po boku Iliy Sutskevera. Stejně jako Iliya z Open AI odešel i Aschenbrenner, respektive byl z OpenAIvyhozen. Superalignment tým v OpenAI je momentálně disfunkční, protože z něj zmizelo více než 10 lidí včetně vedení. Celá esej je k dispozici zde:
Shrnutí eseje
Esej od Aschenbrennera zkoumá rychlý vývoj umělé inteligence (AI) a její potenciální důsledky v nadcházejícím desetiletí. Aschenbrenner předkládá argument, že současné trendy ve výpočetním výkonu, efektivitě algoritmů a rozšiřování schopností modelů naznačují, že bychom mohli dosáhnout obecné umělé inteligence (AGI) již v roce 2027. AGI označuje AI, která dokáže porozumět, učit se a vykonávat jakýkoli intelektuální úkol, který zvládne člověk. K datu 2027 dospěl prostou extrapolací rychlosti vývoje za posledních deset let (cca od naprogramování Alexnet software na rozpoznávání fotek koček).
Aschenbrenner tvrdí, že současné modely umělé inteligence, jako je GPT-4, již prokázaly pozoruhodné schopnosti v různých oblastech, jako je psaní kódu, skládání esejí, řešení matematických úloh a úspěšné absolvování univerzitních zkoušek.Tyto úspěchy jsou připisovány konzistentnímu trendu zvětšování Deep Learning modelů a zvyšování jejich výpočetní kapacity. Autor extrapoluje tyto trendy do budoucnosti a předpovídá, že do roku 2027 budou modely schopny provádět práci výzkumníka/inženýra v oblasti umělé inteligence, což by mohlo vést ke zpětné vazbě a urychlit vývoj umělé inteligence (doslova předpokládá, že nastane zlomový moment, kdy všechny následné AI modely budou vyvíjeny AGI agenty).
Tento vývoj je však spojen s obrovskými náklady a nároky na infrastrukturu. Autor předpokládá, že do konce desetiletí půjdou tisíce miliard dolarů do produkce GPU čipů, datových center a energetických zdrojů. Tato masivní mobilizace průmyslu by mohla vést k nárůstu výroby elektřiny v USA o desítky procent. Například, aby se dosáhlo finálního výkonu modelu pro AGI, bude pravděpodobně nutné vybudovat cluster v hodnotě 1T USD. Pro představu, takový cluster by mohl mít velikost zhruba 100 milionů GPU a spotřebovávat přibližně 50 GW elektřiny, což odpovídá spotřebě energie celého státu New York.
Aschenbrenner však také upozorňuje na potenciální překážky tohoto vývoje. Jednou z nich je datový limit, což je bod, kdy dostupnost vysoce kvalitních dat pro trénování modelů přestane stačit. Další výzvou je možnost, že algoritmický pokrok dosáhne plateau, kde bude další zlepšování obtížné. Navíc autor zdůrazňuje význam řešení bezpečnostních a etických aspektů vývoje umělé inteligence, včetně zajištění toho, aby systémy umělé inteligence byly sladěny s lidskými hodnotami a aby byly přijata opatření k řízení rizik spojených se superinteligencí.
Aschenbrenner dále nastiňuje možný scénář, ve kterém by se národní bezpečnostní aparát USA zapojil do závodu o AGI, což by vedlo ke vzniku vládního projektu AGI do roku 2027/2028. Tento projekt by byl motivován potřebou řešit výzvy spojené se superinteligencí, což je stav, kdy by systémy umělé inteligence daleko předčily lidskou inteligenci. Autor tvrdí, že žádný startup nedokáže zvládnout superinteligenci sám, a proto by vládní projekt byl nezbytný pro zajištění bezpečného a zodpovědného vývoje a nasazení této technologie.
Závěrem autor zdůrazňuje, že i když budoucnost umělé inteligence je nejistá, tak současné trendy naznačují, že bychom se měli připravit na rychlý pokrok v této oblasti. Několikrát je v eseji vývoj AGI přirovnán k projektu Manhattan, který stál za vývojem jaderné bomby během druhé světové války. To asi nejvíce vypovídá o důležitosti, jaké Aschenbrenner přikládá riziku spojeném s vývojem.
Důsledky závěrů eseje na investice
Protože blog je primárně o investicích, zbytek textu zaměřím ne na článek samotný, ale na to, jaký by byl dopad na akciová investiční portfolia pokud by se scénář z článku víceméně naplnil (tj. dojde k vývoji AGI do konce dekády). Vzhledem k tomu, že souhrn výše je dost rychlý průlet, doporučuju si esej přečíst celou. Důvěryhodnost zdroje si pozornost rozhodně zasluhuje vzhledem k tomu, že AI je momentálně zdaleka největším hybatelem akciového trhu.
Předně, pasáž která popisuje exponenciální růst kompetencí modelů a potřebné škálování modelů pro udržení růstu vede k jednomu naprosto zásadnímu závěrů. Pokud je AGI dosažitelná a vyžaduje pokračování exponenciální křivky v objemu investic, tak bude znamenat, že komerčně NIKDO vyjma firem, které už nyní investují desítky miliard dolarů ročně do vývoje a infrastruktury, nebude schopen konkurovat a dojít k AGI. Tento fakt pravděpodobně stojí za tím, proč nevidíme explozi IPO firem z oblasti AI. Smysluplné využití a pokrok v AI je nad možnosti startupů a společnosti co zaspali (zdravíme Apple) nemají čas ztrátu dohnat.
V kontextu předchozího odstavce nezbývá než konstatovat, že s velmi vysokou pravděpodobností, pokud chceš investovat do závodu o AGI, tak se musíš koncentrovat pouze na americké megacapy. Existují přitom dva různé přístupy – buď těžit ze stavby infrastruktury a nebo investovat do společnosti schopné vyvinout AGI.
První varianta je jednodušší, protože ve skutečnosti existuje v celém řetězci na základní vertikále velmi jednoduchý monopol. ASML – TSMC – nVidia. Největší exponenciální růst se dá čekat u nVidie, protože výrobní kapacita továren není, alespoň podle článku, alokována ani zdaleka maximálně ve prospěch AI GPU a nepředstavuje tak zásadní úzké hrdlo. Ať se může současný růst tržeb a zisků nVidie zdát jakkoliv neuvěřitelný, exponenciální růst v požadovaném výkonu by pro Vidii znamenal, že současné tržby ve výši 100 mld. USD ročně jsou pouze začátek. Dle článku je na čipy alokována polovina ceny AI datacenter, AGI scale datacentrum v objemu stovek mld. až 1T USD by znamenala tržby pro nVidii na úrovni 100-500 mld. USD. Exponenciála tím pádem naznačuje, že pro Vidii by naplnění scénáře pravděpodobně znamenalo tržní valuaci na úrovni 10T USD. Logickým úskalím je limitovaný příkon elektřiny. To na jednu stranu omezuje objem prodejů čipů pokud u elektrárenských firem nedojde k výrazné výstavbě (esej nastiňuje řešení v podobě staveb paroplynových elektráren v oblasti těžby americké ropy a plynu), na druhou stranu poskytuje logický spirálový efekt, kdy každý nový čip umožňující násobné zvýšení efektivity výpočetního výkonu (Blackwell nabízí až 30 násobný růst výkonu na W energie) povede k novému cyklu investic. NVidie počítá s ročním cyklem produkce nové řady čipů. V roce 2027 by měla být dostupná vylepšená verze čipu Rubin. Pokud v současnosti někdo předpokládá cyklický vrchol u nVidie v roce 2025, pak esej nastiňuje kontinuální růst tržeb minimálně až do roku 2027.
Druhá varianta, ačkoliv mnohem složitější na predikci, nemá také příliš mnoho alternativ řešení. Alphabet momentálně disponuje vyšším výpočetním výkonem než Microsoft, který je logicky druhým možným adeptem, protože kontroluje fakticky OpenAI. Nevýhodou Deepmind vůči OpenAI je exekuce. I když má Deepmind více zdrojů (lidí i výpočetního výkonu), funguje OpenAI efektivněji. Meta i když je v současnosti na vrcholu pyramidy, pravděpodobně přijde o své postavení, protože vědecký vývoj v předchozích dvou AI laboratořích je stále více přesouván do proprietárního prostředí a Deepmind i OpenAI přestávají sdílet vědecká data. Opensource bude s vysokou pravděpodobností hrát stále více druhé housle, jak z bezpečnostních tak finančních důvodů. Zbylé dvě velké AI laboratoře (Anthropic a x.AI) nejsou dostupné na burze. Výsledkem je, že logickým krokem je nakoupit do portfolia oba hlavní konkurenty – Google a Microsoft, a pravděpodobně sázka vyjde, pokud bude AGI dosaženo do konce dekády.
Samotný komerční dopad AGI je nemožné pro současného investora pochopit. Ať se všechny AI firmy snaží vysvětlovat, že AI nemá sloužit k nahrazení lidí v kancelářích, tak žádný člověk pracující na počítači nemůže finančně konkurovat AGI prodávané jako SaaS. Zisky z AGI budou, pokud nedojde k vysoké úrovni politické regulace, pro jejího tvůrce znamenat nepředstavitelný tok tržeb vysoce převyšující jakoukoliv valuaci zmíněnou výše ve vztahu k nVidii. Lidský kapitál v podobě inteligence se stane komoditou.
Oslím můstkem se dostávám k tomu, co by AGI znamenalo pro společnosti na trhu mimo segment AI. Kdokoliv podnikající v segmentu zahrnující administrativní práci na počítači, kdo nebude schopen se na AI adaptovat a zahrnout ji do svého pracovního procesu, se bude pravděpodobně potýkat s problémem s konkurenceschopností. U luxusního zboží a služeb je to jedno, u zbytku, kde funguje cenová elasticita, to povede k postupnému úpadku.
Posledním aspektem, nad kterým má smysl se zastavit, je geopolitický dopad. Velmi správně je v eseji vyzdvihnut dopad na geopolitický vliv. AGI a následná superinteligence naprosto logicky vede k vojenské dominanci státu, který ASI kontroluje. Vojenské využití AGI/ASI je v podstatě nekonečné, počínaje v kybernetickém boji a konče u robotizované pěchoty. AGI a následně ASI tím pádem povede s velmi vysokou pravděpodobností k eskalaci geopolitického boje o kontrolu nad světovým řádem. Toto riziko se přesouvá do investic v tom smyslu, že jakékoliv společnosti klíčové pro vertikálu vývoje AGI hrozí státní kontrola a zásahy do řízení. Pro nás Čechy budiž útěchou aspoň to, že momentálně nejsilnější země v AI vývoji je na stejné straně barikády jako my a je postavená na kapitalismu, takže riziko ztráty kapitálu je nižší, než kdybychom stáli na opačné straně.
Závěr
K článku se dá postavit různě a to na škále od totální skepse a ignorace AI jako nového hypermarketům, který narazí do zdi podobně jako VR a metaverse až po neochvějné přesvědčení, že vše proběhne po exponenciále a investice jinam než do AI nedávají smysl.
Jako skoro u všeho je asi rozumné držet se někde uprostřed. Pravděpodobně nepovede ke krachu portfolia, když budeš držet něco, co profituje z vývoje AGI a na druhou stranu má smysl být diverzifikován i jinam, pokud k AGI nikdo nedojde. V každém případě ale doporučuji, stejně jako doposud, uvažovat pravidelně nad svými investicemi v kontextu současného stavu vývoje AI a flexibilně jednat při každém dalším kritickém momentu, který nastane. Neignoruj AI a sleduj její vývoj aktivně, může se to velmi draze vymstít.

Napsat komentář