"Hrubým odhadem bychom tedy nejspíš mohli říci, že při stejné průměrné spotřebě je dnes nejvyšší model řady Arrow Lake zhruba o pětinu rychlejší než před rokem."
O pětinu to fakt není, to ani ve snu a určitě ne v tomhle vesmíru. Je potřeba si uvědomit, že ta dílčí zlepšení nelze prostě sečíst, protože se projeví v úplně jiných zátěžích, které se zrychlí v nejlepším případě právě o ta dílčí procenta. A neplatí, že když mi telekonference pojede s o 9% vyšší efektivitou, tak že se mi excel o bambiliónu buněk díky 10% zrychlení v plovoucí řádové čárce přepočítá o 20% rychleji. Takto to fakt nefunguje.
Hlavním přínosem bude, troufnu si tvrdit, zlepšení latencí systému, a dost možná bude pozorovatelné. Ale ve většině zátěží bude jejich dokončení rychlejší spíš v malých (tzn <=5, můj odhad je do 3) jednotkách procent, a bude to o něco málo míň topit (tedy větráky se roztočí později, bude to míň throtttlit, a větráky se z režimu vzletu zklidní o trochu dřív. Milé, ale nikoli dechberoucí. A v kontextu ceny a toho, že to znamená že procesor byl vydán fakticky nedokončený, spíš ke vzteku.
28. 11. 2025, 07:52 editováno autorem komentáře
Vtip je v tom, že identická výpočetní úloha může být provedena rychleji na starším, nebo řekněme pomalejším CPU, který dosahuje vyššího výkonu. Teoreticky, protože praxe je úplně jiná např.: přepočet struktury roznese R7 7700X na kopytech R9 7850X. Přetaktuj a už to nebude 40 % rozdíl, nýbrž 50 % a oba dostanou na zadek od Xeon W1390P. Protože tohle červená maštal bude těžko kousat, rozdíl tkví v tom, že těch slepených 8+8 jader je kontraproduktivní. Ta úloha proste pojede na jednom jediném vlákně (z principu to zkrátka nejde udělat jinak) a jakýkoliv ping pong mezi jádry/vlákny jen prodlužuje čas. Jistě, rozdělení segmentů … to všechno se dá použít a u drobné sestavy to bude třeba rozdíl půl sekundy, jenže u velkých sestav, kde se to zkrátka přepočítává, už je ten rozdíl podstatně vyšší a pointa tkví v tom, že než se změna přepočítá, můžeš akorát lelkovat.
Je jedno, kolik to udělá v nějakém nesmyslném testu, záleží jedině na tom, jak bude zvládat zpracovat úlohy, které jsou na něj kladené.
P.S.: Obvyklou výmluvou rudých je paralelní … jen nikdy nedokážou vysvětlit, jak chtějí provádět návazné výpočty bez znalosti předchozího výsledku.
Pokud ta úloha pojede na jednom jediném vlákně, tak není důvod, aby ten Xeon porazil byť jen jednoho z těch zmíněných Ryzenů, protože jeho frekvence (5,3 GHz) a architektura to nemohou dokázat. Nevýhoda slepení 8+8 jader se v tomto scénáři neprojeví. Kromě toho je R7 7700X nativní 8jádro, takže u něj je jediná nevýhoda oproti Xeonu, že je tam nějaký čiplet navíc, ale neznám SW, který by kvůli tomu tak hodně vyzdvihl monolitického Xeona. To by se o to programátor musel snažit úmyslně.
Myslet neznamená vědět, s „já myslím“ na mě nechoď, místo toho mi se bavme o konkrétní sestavě, na které to zkusíme. Na ničem jiném totiž nezáleží, bez ohledu kolik rudých, modrých, zelených, fialových s puntíky si myslí, nebo hlasovalo. Jasně, sestava s návrhem jedné PLC (např.: 200 součástí) zabere nula nic, udělej to u rozsáhlé sestavy (např.: 200000 součástí a podsestavami) a můžeš jít domů, protože ten přepočet zabere neskutečného času (např.: struktura stromu, větvení, routing, zatížení, …) a tam už je rozdíl propastný W1390P jsem měl v Z2 a protože mi přišla možnost vyzkoušet si R7 7700X i R9 7850X, tak mi to nedalo a na jedné větší sestavě jsem to zkusil. Nebudu psát o něčem, co jsem sám nezkusil, nebo „já myslím“… či jiný typ dojmologie.
Proto "teoreticky" neznamená nic a je vlastně úplně jedno, jestli se na to někdo vykašlal, udělat to úmyslně, realita je zkrátka taková, jaká je. Můžeme nesouhlasit, můžeme se dohadovat, ale nezměníme nic.
Já věděl, že to bude nějaký těžký svéráz a PLC je mezi svérázy premiant. Moje krátká zkušenost před asi 3 lety s nějakým německým (Siemens?) byla tak traumatická, že jsem ji vytěsnil. Jsem si jistý, že ani samotní tvůrci toho programu by nedokázali vysvětlit, proč tomu tak je (pokud to nebylo chybou nastavení Windowsů atd.) a vůbec bych se nedivil, kdyby v tom programu měl nepochopitelně lepší výkon jiný slabší CPU proti jinému silnějšímu CPU. Moje dojmologie z lability a celkové příšernosti toho programu říká, že možná stačilo jen změnit pozadí plochy a výsledky by byly buď více uvěřitelné nebo naopak ještě hůře uvěřitelné. Co si matně pamatuji, tak jsem tehdy výkon řešil i přes fóra a rady těch zkušenějších mě utvrdily v mém negativním názoru na tenhle SW. Děkoval jsem bohu každý den několik měsíců po tom, co jsem se téhle povinnosti zbavil.
@Oscar_Romero
Dal bych +99 kdyby to šlo.
Naprostý souhlas.
Mám podobné zkušenosti.
Jen to byl obyčejný běžný AutoCAD.
Řekl bych až vymazlený.
Smutné je že když už najdete stabilní verzi (2018) tak při řešení problémů vám podpora řekne: přejděte na něco aktuálního.
Nejhorší co můžete udělat je vzít čerstvě vydanou.
A ještě smutnější je že 2018ka nemá oficiální podporu Win11, takže šach-mat.
Přitom na Win11 běží v pohodě.
Jo, klasický případ, kdy na volbě procesoru záleží, je terminálový vs aplikační vs databázový server (a u něj navíc záleží, jak se s daty v DB bude pracovat).
Pro terminálový server typicky chceš hodně klidně slabých jader a podporovanou grafiku pro akceleraci.
Pro aplikační záleží opět na tom, co na něm poběží a jaký charakter ta zátěž bude mít. Někdy bude lepší spousta slabších jader, někdy střední počet středně výkonných, a skoro nikdy malý počet vysoce výkonných.
Pro databázový naopak budeš chtít typicky menší počet co nejvýkonnějších jader už kvůli ceně licencí.
Solidworks kašle na Linux.
Z toho se dá usoudit kolik času strávili programátoři optimalizacemi pro alternativní platformy.
A když už jsme ve Windows, tak tam se dá ve správci úloh nastavit afinita. (Český spražení)
A máte vystaráno.
Musím uznat že Xeon Rocket Lake byla silná zbraň intelu.
Ale dnes i ten nejlevnější ZEN 5 (Ryzen 5 9600X) zvládne 5,3GHz.
Xeon v době uvedení na trh stál $600.
Ale to přece není nic překvapivého, pouhý důsledek roztříštěnosti a nemožnosti se domluvit. Musíte si uvědomit, že Solidworks, Catia, NX … patří mezi specifické pro velice úzký okruh zákazníků, kde samotná licence stojí klidně 150 tisíc ročně a to nepočítám PLM/PDM, nebo simulace. Svět, kdy jakýkoliv problém řeší podpora = 2. otázka týká certifikace (systém, ovladače, …) a např.: certifikace pro Windows 11 zabrali více než rok. Neumím si představit, jak byste chtěl řešit certifikaci a návazné problémy vyplývající z roztříštěnosti. Dále je potřeba si uvědomit, že nové zákazníky získáte jen těžko a přechod např.: z Catia, Solid na něco jiného představuje problém pro celý dodavatelský řetězec. Jistě, třeba 3DX a další SW pro řízení a životní cyklus projektu se snaží o to, aby budova (Autocad) neměla problém se strojním vybavením (Invertor) a silové, řídící … rozvody (Solidworks) jakž takž fungovali společně a v harmonii, ale k dokonalosti zbývá ještě pořádný kus cesty. Není divu, že vznikají problémy na místě, protože tam kde měli stát protipožární skříně, nebo 40kV motor nějak záhadně vyrostl sloup.
U Linuxu je zázrak, že se vývojáři jednotlivých distribucí nepomlátili mezi sebou (konec nadsázky).
Měl jsem certifikovanou stanici (Dell T3500) s Xeonem (Ale pořádný WS 3chanell. Ne ořezávátko vycházející z desktopu jako Vy) s nV Quadro cert. ovladači.
A houby platný. Výkon záhadně mizel a nebo mizeli čáry v AutoCADu.
Ano. Řešil jsem to s podporou. A první otázka byla jaké ovladače mám.
Na mizení čar pomohlo zaktualizovat .NET.
Na výkon pomohlo zmenšit jeden panel ve kterém se vybíral styl čáry.
Jenže jsem na to musel přijít sám.
Dnes mám Threadripper (Lenovo P8 s cert.) a spokojenost. Je to sice pomalejší než 7600X3D ale ten nemá certifikáty.
Doufám že osadí V-cache na Threadripper podobně jako bude 9950X3D2.
Jinak budu muset zahodit WRX90 a jít do AM5.
Naprostý souhlas že všechny testy jsou na nic. Protože při testování máte spuštěnou jen jednu aplikaci. Ale v reálu jich je klidně 10. A právě velká cache zajistí aby jedna appka nebrzdila druhou.
Však sám mluvíte o koordinacích.
Většina inženýrů má svůj program pro jejich obor a jedou na limitu HW. Nějaké optimalizace přijdou ke slovu až když to nestíhá.
Nechcete být ten kdo má vzít všechny obory a spojit je do jednoho souboru (aby sloup nebyl tam kde rozvaděč). Jeden takový projekt tu mám.
Zabalený v ZIPu na disku zabírá 6GB.
60GB po rozbalení do RAM.
Jen otevření je na 10 minut.
Zkusím vypnout SMT a afinitu. Ale nevěřím že to pomůže.
Mně to „ořezávátko“ Z2 vyhovuje a nevidím smysl pořizovat si čistě pro pocit vyšší řadu, protože simulace a analýzu mohou běžet „přes noc“, prakticky je ovšem pouštím na mimo pracovní stanici. Netvrdím, že ostatní jádra se nevyužívají (naopak, využívají se a těží se z nich), jenže nakonec se vždy čeká na to jedno jediné, na kterém běží ten výpočet a další už mu z principu nepomohou, čili výsledek je takový, že ostatních XY jader dávno skončilo a čeká se na to jedno jediné, než se může pokračovat.
Mně nic nemizí, jen nevím, kdy se to celé rozpáře a děje se tak zpravidla po každé větší aktualizaci Windows, kdy indiáni rozbijí OpenGL a Nvidia to lepí ovladačem (Autocad, jestli se nepletu, vykresluje přes DirectX). U modelu velké sestavy s množstvím dílů se stejně snižují detaily a rozlišení, protože jinak z toho má člověk slideshow (RTX 4500 ADA + HP Z40C) a ono to není ani tak potřeba. Ostatně ani tady se těch pár CPU jader neztratí (Assembly) protože na dalších se přepočítává např.: vedení (auto-routing + zatížení) – oněch 7 jader svou úlohu ukončilo, čeká se na to 8., než to dochroustá a právě o tom celou dobu mluvím. Čím více jader, tím lépe, ale nakonec se vždycky čeká na to, které provádí ten výpočet.
Shodneme se na faktu, že od „protektorátu“ se moc nenadřeli a jedou si zkrátka po svém. Smutné, leč naprosto krutě reálné. Affinitu nastavuješ tak či onak (nativně je to fixované na 8 nejsilnějších jader, aby se nepoužívali úsporná jádra na výpočty) a resheduleruje (ping pong) se právě mezi nastavenými jádry (co jsem pochopil, jde o interní logiku a tepelné namáhání jader CPPC2) a to i v případě, že přiřadím konkrétní jádro – systém s z principu nemůže, stejně to po delším týrání bude lítat mezi fixovanými jádry, což je přesně problém té R9 7850X a je to i možná důvod, proč jsem neměl tyhle problémy s TR1920x. Popravdě řečeno, nebaví mě to zkoumat, znovu pročítat všechna fóra, řešit to s podporou … ztráta času a vyberu si zkrátka takové, aby mi vyhovovalo.
Koukám, že tohle je všude stejné. Prvně se zeptají na licenci, ve druhé na certifikované ovladače a pak to hodí na někoho dalšího – bohužel, většinou oprávněně, protože když se to začne párat (vysoké rozlišení a OpenGL), děje se tak po aktualizaci Windows, protože ten jejich „boj za krásnou“ je na přestlamu. Ve Win7 stačilo zaříznou Aero a byl klid.
29. 11. 2025, 10:44 editováno autorem komentáře
Ano, AutoCAD běží na DirectX.
A vůbec Autodesk koketuje s herním světem.
Proto se mi zdá X3D jako dobrá volba.
Docela se těším na 9850X3D.
5,6GHz strčí do kapsy všechny Xeony i můj TR.
Jeden CCD nebude mít problém s latencí.
A ve chvíli když se použije V-cache to bude zas o level jinde.
Aero uměl dobře využít SolidEdge od Siemens. Průhledné menu zvětšilo pracovní plochu. Takže jsem ho nechával zapnuté.
Aby GUI dělalo problémy na pracovní stanici? Tomu nevěřím.
I když Wokna11 jsou zoufale nepřehledné.
Nejsou jasné hranice mezi okny.
Ve světlem i tmavém režimu.