Ono už nějakou dobu je jasný, že vzhledem k tomu co vývoj a příprava výroby stojí a jak jsou riskantní, bude muset spíš dřív než později dojít k organizačnímu propojení dosavadních konkurentů a vzniku oligopolu. Klíčový bude, aby se zachovala vnitřní konkurence tlačící vývoj dopředu, a aby vznikly regulační mechanismy bránící nepřiměřenýmu dojení zákoše, ale přitom zachovávající dostatečný zisk k financování dalšího a stále dražšího vývoje.
Apple/ARM neni procesor pro otevreny trh. Je to pouze ucelovka - appliance - podobne jako kdyz si koupite treba mycku nadobi. Muzete v ni myt nadobi.. muzete v ni treba i vyprat.. ale kure vam neupece :)
A proc? Mimiskovi se to bude libit a manza si bude cvachtat! Az jednou vykopou mimozemstani zalohy mimibazaru, bude to stejne ohodnoceno jako historicky dekadentni literarni samici spolek laktacni psychozy s dadaistickymi rysy a prvky primitivni komedie. A budou to studovat znalci umeni. Proc jim trochu nezpestrit praci i na nudnych technologickych serverech?
Myslím, že nVidii ide o prístup do tovární Intelu, aj do tých nedostavaných. Intel má stroje od ASML a nemá na nich čo vyrábať. Spoločný vývoj nVidie a Intelu môže zlepšiť výťažnosť Intel procesorov a zvýšiť výrobnú kapacitu pre nVidiu.
Také to do budoucna může NVidii snížit svou závislost na TSMC. Vzhledem k https://www.washingtonpost.com/national-security/2025/09/18/trump-taiwan-arms-sales-military-aid/ mi to pro ně přijde dost klíčové.
19. 9. 2025, 08:38 editováno autorem komentáře
AMD mělo také své továrny a ve finále to bylo hodně těžký oříšek to udržet a mít to vytížené...
Nvidia má problém dnes s velikostí a s architekturou to vůbec do nějakých smysluplných nákladů vyrobit. Ač si tam hodí brutální prirážku.. Výroba Nvidia čipu vyjde dráž než u konkurence AMD a Intelu. Jak do počtu, tak výtěžnosti.
Intel jako takovej výrobní továrnu na GPU čipu má celkum dobře udělanou, ač teď nevydělává, tak výtěžnost mají dobrou atd. mají dobrý směr.
Takže je ve hvězdách co to bude pro Nvidii znamenat. Ač budou mít továrnu, tak musí stále dál platit vývoj... a neni levnej..
x86(/64) určitě není zas tak velký problémy, stačí kouknout na AMD. Hlavní problém není instrukční sada ale Intel.
Ta ISA je velký problém.
Apple Silicon nepotřebuje ani uop cache, kdežto x86 architektura by si bez toho ani neškrtla. Někde jsem četl, že ISA overhead může sežrat až 15-20% energie (jen decode) a x86 nedokáže dekódovat víc než 4 instrukce za cyklus (a i tak tam budou asi nějaké penále za nějaké instrukce).
X86 je prostě architektura s historickým balastem, který začíná stát v cestě.
Heh, x86 / IA-32 / AMD64 přežila hned několik vlastních funusů, minimálně dva ze strany mateřského Intelu. Ať už ji měla zakopat i860, RISC procesory (MIPS, Alpha, SPARC...), Itanium, ARM..., pořád i po letech naprosto dominuje jak v PC, tak v server segmentu, tak v HPC. Naopak - AMD64 pak na přelomu milénia vyřadila téměř celou RISC konkurenci z prostředí výkonných výpočtů.
U AMD64 se pokaždé podařilo nalézt cestu, jak s tím balastem pracovat tak, aby konečné produkty držely krok s konkurencí, ale zároveň přidávaly navíc zpětnou kompatibilitu + desítky let budovaný ekosystém. A to teď píšu z ARMového MacBooku Pro. Jenže stejně jakmile dojde na velký železo, máme všechno na AMD64.
A viděls někdy ten ARM64 Mac? Co se týče výdrže, tak se to s čímkoliv x86 prostě nedá srovnat.
Tak jak x86 ISA požrala některé segmenty, tak je čas pro ARM. Není absolutně problém postavit výkonný ARM64 server a všichni cloud provideři to už dělají, a vyplatí se jim to, i když si navrhnou vlastní microarchitekturu.
X86 vždycky zachránila binární kompatibilita, jenže v některých segmentech je tato kompatibilita úplně nepodstatná - třeba mobilní segment a servery, ale Apple nám ukázal, že i v desktop/laptop segmentu se dá přejít někam jinam a není to bolestné - sposta věci se přesunula na web a to co na webu není (různé speciální aplikace) tak ty už jsou nativně pro ARM64.
Co se týče X86 ISA, tak tam jde dnes už jen o AVX-512 - to je bezesporu konkurenceschopné, takže SIMD workload na x86 je ještě pořád dobrý, ale když jde o takový ten obecný workload, kde toho SIMD kódu moc není, tam taky už začíná kralovat ARM64 - ta základní ISA je prostě dost dobře navržená (kód je paradoxně většinou i trochu menší).
Tak zrovna servery na ARMu jsou příklad, co úplně neoslňuje, že?
A kteří že ti cloud provideři so dělají vlastní mikroarchitekturu a není to aplikace Cortexu nebo Neoverse?
Oslňuje to právě spotřebou za stejnou práci.
Abych se přiznal tak nevím kolik toho musí Google udělat, aby měli třeba svůj "Axion", ale to není ani pointa nebo pro mě nějak důležité.
Takze takovy amazon zacal pred lety nabizet arm kvuli cemu? Protoze vykon/spotreba/cena pro poskytovatele jsou dulezite. Klidne si o tom precti, zajimave cteni. Spousta uzivatelu jiz dnes neni zavisla na x86 instrukcich tudiz si porizuji arm.
Levna nabidka ARMu pro koncove uzivatele byl dusledek, ne pricina.
Cloud provideri zjistili, ze nabizet ARM za stejnou cenu jako puvodni x86 nejde.. nema to ten vykon, nema to tu kompatibilitu.. museli jit s cenou dolu.
Kdy jste totiz slysel, ze by se nejaky obchodnik snizil cenu pro koncove uzivatele, jako reakci na sve snizene naklady? Ja nikdy nikde.
Opravy:
- Kompabilitu s čím přesně? Drtivá většina SW na serverech je dnes plně open source nebo postavená nad open source. Nebo vlastní kód, který jde překompilovat. 90% bude pravděpodobně JVM nebo podobné.
- Výkon: Migrovali jsme projekt běžící na cca 300 serverech, v té době z Intel na ARM Graviton 2. Výsledkem byl nižší počet serverů na stejný úkol. Apple měl při emulaci x86 na ARM vyšší výkon než nativní x86.
- Cena: Ve skutečnosti jsou výrobní a provozní náklady ještě dramaticky nižší než s Intel nebo AMD. Nižší cena motivuje více zákazníků k přesunu, snižuje náklady u cloud providera a ve výsledku mu zvýší zisk ve srovnání s původním x86 řešením. O konkurenci mezi cloud providery ani nemluvě.
U ARMového Macu mám osobně nejradši ne ISA, ale unifikovanou paměť. Na lokální QM výpočty / inferenci LLM je to strašně příjemný a je to primární důvod, proč se ho držím. Jinak AVX-512 je argumentem až zase v poslední době => do Zenu 4 chyběla rozumná implementace (u Intelu to vede k podtaktování, takže si člověk musí rozmyslet, jestli při kompilaci povolí AVX-512), fakt efektivní implementaci má až Zen 5.
Dál pak na velkým železe fakt nechci hnát SW přes překladovou vrstvu, neb nechám na zemi víc efektivity, než získám jinou ISA. A vzhledem k tomu, že tady se tahají legacy věci i z dob vyloženě dřevních, fakt hraje zpětná kompatibilita sakra roli. Vyšší efektivita, nižší spotřeba v idle a menší kód (+ subjektivně příjemnější assembler) jsou sice hezký věci, ale bohužel to nekompenzuje ty desítky let budovanej ekosystém okolo AMD64. A ne, není to snadný ani u appek, ke kterým mám zdrojáky. Tuhle se mi stalo, že jeden výpočetní nástroj jsem musel na Macu překládat a běžet pod Rosettou 2, neb měl některé subrutiny psané v assembleru (kvůli efektivitě, paradoxně) a nevyplatilo se mi to přepisovat pro ARM64, případně do jazyka vyšší úrovně.
Každopádně uvidím, jak se to teď pohne s novým clusterem Jupiter v Německu. Ten by měl bejt postavenej na ARM64, takže i SW podpora a ekosystém by se mohl zlepšit. Jako to bylo okolo ROCm se spuštěním clusteru LUMI.
I Zen4 měl dobrou implementaci, i když to byl double pumping - 2x256-bit, ale třeba i Zen4 měl jednu 512-bit shuffle jednotku, kterou dělal třeba VPERMB a další instrukce, které nedělí registr na menší části.
Zen4 totiž dokázal, že lze snížit spotřebu už jen tím, že se uleví dekodéru, a že nemá cenu hned dělat plnou implementaci tak, jak to udělal Intel (a co mu přineslo hrozné problémy a pak i opuštění AVX-512 v consumer segmentu kvůli těm nepoužitelným E jádrům).
Ale jinak souhlas. ARM64 je prostě zatraceně dobrá konkurence a podle mě už ten 15% overhead u decode, nutnost mít uop cache, atd... je to včechno zbytečná režie navíc, která pomalu ale jistě likviduje x86 architekturu.
19. 9. 2025, 20:37 editováno autorem komentáře
E jádra byla slabá dřív. V okamžiku, kdy má dnes jedno to E jádro vyšší výkon než jádro deset let starého notebookového i7 čili by na každém páru z nich mohl běžet jeden dnešní běžný kancelářský počítač ta nepoužitelnost dost mizí. Intel zrovna s tímhle dost pohnul. A to máte CPU, kde je těch jader takhle dvanáct. Coz jsou třeba pro mě tři počítače, na kterých jsem doteď normálně vyvíjel plus dvakrát výkonnější P jádra.
Problémem AVX-512 je hlavně jak ji uchladit. Ono je to dost poznat i s AVX2, že ji něco zrovna používá. Nemluvě tedy o tom, že zabírají velkou část křemíku přičemž většinu času se vůbec nepoužívají protože v běžném provozu moc není kde. AMD to svou vyšší energetickou efektivností v zátěži dává lépe ale hitparáda to taky není.
19. 9. 2025, 23:50 editováno autorem komentáře
Macovský ARM má zásadní výhodu v tom, že s sebou nemusí vláčet kouli na noze v podobě křemíku pro podporu starých instrukčních sad. Kdyby ty CPU měly mít nativní křemík až zpátky k 68030, taky by to nebyla žádná sláva.
AArch64 má i 64-bit SIMD (tak nějak na úrovni MMX), který užírá hodně instruction space, takže staré instrukce má i ten AArch64. Ale je fakt, že toho historického balastu má x86 architektura mnohem víc (celé FPU, MMX, 16-bit režim, segmentace, a dnes už i SSE instrukce (AVX je lepší)).
to 64bit SIMD je (jestli myslime oba NEON v 64bitove variante) spis tak na urovni SSE2. I HELIUM je vys nez MMX.
Je nevyhnutelne, by US designeri meli US vyrobu.
Je mozna jen otazkou casu, kdy na TW bude valka.
A jediny na zapade, kdo je neco takoveho schopen zajistit je Intel. I kdyz treba ted neni v nejlepsi kondici, je jediny, kdo ma takovou infrastrukturu.
Pokud by se ted vyroba na TW zastanila, Apple, nVidia, AMD i Qualcomm jsou uplne v haji. A na dlouho.
Nejde o schopnosti, nýbrž rizika. Jižní Korea se silnou přítomností USA sousedí s vycvičeným prasátkem, kterého si Čína vykrmila jako užitečné a poslušné jateční zvířátko s jediným cílem, aby odlehčila tlaku, který by zákonitě vyvolala svým útokem na Taiwan, nebo jinými mocensko bojovými operacemi v oblasti. Vycvičené prasátko v případě konfliktu a střetnutí s Čínou bude muset zaútočit na Jižní Koreu, kde jsou vázané velice silné bojové prostředky, čímž se Číně uvolní ruce a nebude muset rozdělovat své zdroje.
Takhle to budou v USA, tedy relativním bezpečí i přístupy ke zdrojům, protože jakmile by nastal konflikt, budou námořní cesty a zásobování velice omezené.
Přemýšlím, jestli tento tanec dvou neutronových hvězd okolo sebe musí nutňe vyústit ve zhroucení do monopolní černé díry?
Intel se chytá stébla a pro nVidii je to experiment, který může znamenat víc prachů a nebo debakl, ale vzhledem k tomu kolik mají peněz, tak jim to je asi úplně fuk.
Intel a nVidia jsou naprosto nekompatibilní firmy co se týče R&D, nevim jestli jim to bude fungovat, ale možné je všechno.
intel i nvidia jedou stejny system - X let vyvoje nove architektury, a mezitim 5x to same v blede modrem. Takze zas tak nekompatibilni to neni.
Pokud se podivate na produkty obou firem, tak spolecnym znakem jsou: nedodelanost, EOL na nedodelany predesly produkt a oznameni budouciho produktu, zakaznik je porad neuspokojen, vsechno priserne topi, nebo dokonce hori. Falesne info o vykonu, atd..
Podle me si ti dva hodne sednou do noty - a kdyz AMD koupilo ATI.. ted holt NV koupi INTEL.
A posledni o co ma NV zajem.. je podporovat primou konkurenci (tj. AMD). A ucasti na podniku, muze zas skvele sabotovat HPC produktovou radu intelu.. at se treti konkurent zabije uz v zarodku...
Já jsem myslel nekompatibilitu úplně jinou - to jak tam lidi fungujou.
Je to prostě sňatek z rozumu, ale jestli to bude vnitřně fungovat nevím.
nVidia má i dobré ARM64 procesory, takže jít zpět do x86 segmentu se jim určitě nebude chcít, proto jsem naznačil, že by se měl Intel vrhnout na ARM segment - je tam rozhodně větší potenciál než v x86 segmentu.
MEZI ŘÁDKY:
Intel zabalí ten svůj trapný pokus s velkýma grafikama a Nvidia do Intelu nalije prachy, protože Nvidia nechce, aby AMD mělo vic než 50% trhu s CPU.
Nejvýhodnější to je pro Nvidia.
Pojistí se proti AMD a zároveň se zbaví potenciální konkurence "co kdyby" od Intelu ve sféře výpočetních grafik. Mimo to se jedná o zajištění, že další superpočítače, které Intel bude stavět, budou logicky s Nvidia.
AMD má do 50 % trhu s CPU ještě dost daleko. Stávajícím tempem tak deset let. Fakt si nemyslím, že to je to, co by NVIDII trápilo. Jak už tu bylo mnohokrát řečeno, má to pro obě strany celu řadu jiných výhod.