Tak to zhrnieme. AMD ide v pohode už pár rokov a pekne zatiaľ čo Intel ide klasický a generuje predražené neefektívne riešenia a dosť funguje na zotrvačnosti. Predpoveď na tento rok? AMD dodá co sľubuje a možno niečo navyše. Intel vydá x papier lunch produktov , pár krát zmení roadmapu, pár fake testov, pár super promo v štýle u nás máte 6gh procesor (co nepovedia je ze ho chladia dusíkom a pod stolom je 1kw elektráreň. A tak dookola.
Taky to lze říci takto: Intel se s 10nm procesem snaží konkurovat 5nm TSMC a docela se mu to daří (13. řada je lepší než 12. a ta byla lepší než ještě 14nm 11.). Není to vlastně malý zázrak, že Raptory jsou celkem dobré, byť ne lepší? Podle mě je.
A mimochodem, modely jako 10400(F), 12400(F) byly ve své době v kombinaci s deskou s čipsetem třídy H či B hodně levné, že AMD neměla absolutně nic, co by se výhodnosti toho řešení blížilo.
Jiná věc je průšvih Intelu v serverech, o kterém víme, že ani Sapphire Rapids ho nevyřeší. Tam kritiku beru, tam se není o čem bavit. Ale v desktopech to až taková výhra pro AMD už není. Kdyby neměla TSMC, tak by dnes vyráběla leda tak prd. A kdyby Intel ze dne na den přestal vyrábět, tak se rozlučte s procesory AMD na trhu, protože primárně by tahle firma s omezenými výrobními kapacitami, navíc pár desítek kilometrů od pravidelných přeletů čínského letectva, musela saturovat různé mission-critical segmenty a na všechny ty herní sestavy, notebooky či plejstejšny by toho moc nezbývalo.
Otázka je, jaký z toho chceme dělat závěr:
a. Mám si dnes do svého počítače pořídit radši Intel, nebo AMD?
b. Kdyby se Intelu podařilo vyrábět modernějším výrobním procesem, kam by se tím posunul?
c. Jaká je šance, že Intel dožene a předežene AMD díky modernizaci výrobního procesu?
d. Mohl by Intel dodat na specifický segment trhu super procesory, kdyby výrobu outsourcoval?
Já koupil INTC, protože to je teď podhodnocená firma a portfólio jejich produktů je celkem široké. Otevření továren pro ostatní výrobce taky přinese nějaký zisk (např. výroba GPU pro NVDA). Nemají špatné CPU, jen ta absence AVX-512 v consumer segmentu je trochu klín do vlastní rakve... X86 bez AVX-512 nepřežije, protože jakýkoliv ARM bude mít lepší IPC kvůli komplikovanému frontendu u X86.
Akcie AMD už jsem měl, kupoval jsem ale v rozmezí 10-20 USD. To byla tehdy akceptovatelná cenu. Postupně jsem rozprodal v rozmezí 50-100 USD. Nechtěl bych kupovat teď... jaký má AMD potenciál? Nevidím to zpět na maximum v dohledné době a spíš nastane korekce kvůli přehnanému očekávání - prodej CPU a GPU vázne, je krize...
Já myslím, že ARM je teď slušná konkurence pro X86. Takže těžko říct jestli řešit Intel vs AMD, spíš ARM vs X86 vs RISC-V. Bude to ještě zajímavá bitva...
Byl jsem až do tohoto týdne velkým příznivcem AMD. AMD jsem měl od Ryzenu 1 všude.
Po koupi Ryzen 5800X3D jsem zjistil, že není tak úsporný jak se zdálo.
Už Ryzen 1600 topil tak, že se mi prohýbal hliníkový Case až v něm praskalo.
On je sice vyráběn lepším procesem než Intel..
Nyní po koupi Raptor Lake jsem přehodnotil co je úsporný CPU.
Ono u AMD je super, že je TDP skoro 2x nižší, ale zjišťoval někdo, jak je to s realným odběrem při skutečné zátěži?
V naprosté většině případů CPU není vytížen na 100%, vlastně ani na 50%.
Většinu času bývá zatížen na 0 - 10%.
Většina AMD, včetně nejnovější 7000 řady sežere při idle alespoň 30W.
Kolik Intel? 4-8W.
Jinými slovy, v praxi v opravdové zátěží a skutečném světě vám Intel sežere průměrně o 35% elektřiny méně než AMD. Srovnávám poslední řady.
No a výkonově, pokud budeme kompilovat je na tom taky znatelně lépe.
A navíc ještě mají nižší ceny. Spolu s mnohem nižšími cenami MB je úspora znatelná. Takže dávám AMD sbohem.
6. 1. 2023, 14:06 editováno autorem komentáře
Nojo, ale tohle se nesmí na AMD-fans webech říkat nahlas v diskusích, protože za to člověk schytá takových mínusů, až se z toho vopupínkuje. Viz můj kdysi domovský cdr/diit. Ono tohle prostě lidem, kteří posuzují CPU, která ani nedrželi v ruce, na základě nějakých unikátních čísel z benchmarků těžko vysvětlit. Nebo je třeba pro ně opravdu důleežitá jiná skladba aspektů.
Anyway, kdo chce úsporné slušné x86 PC bez nároků na moderní hry, nechť bere třeba AMD 5600G. Je to doslova za pár šupů i se slušným GPU a deska je za hubičku, stejně jako DDR4 moduly.
Ok, tak si to zrekapitulujme:
Intel se poslední zhruba 3 roky drží se spotřebou svých CPU na stále stejných mezích. Papírově píše třeba 65W a jde o nárazově 135W procesor - jeden takový mám, celá sestava pod 100% zátěží CPU nepapá víc než 130W, včetně HDD+SSD+GPU+desky+bižu. Anebo jinak: ty nejvyšší procesory se obvykle maximální spotřebou motají někde kolem 220 až 253W, ale buď to uživatel chce a umí si to takhle v provozu trvale udržet (vodní chlazení apod), nebo jde o velmi krátkodobou nárazovou spotřebu (svého času známou "časem tau" kolem 28-56 sekund). Nic, co by 99,9999% uživatelů CPU Intel potkávalo. Navíc je v tom Intel konzistentní, nijak se to od 10. generace po současnou 13. nehýbe. AMD mimochodem do tohohle vlaku taky naskočila, její Ryzeny mohou mít špičkovou spotřebu 231W. Že jí obvykle nemají? No to ty Intelu také ne!
Jinými slovy: Intel se nechová nijak hůř než se v posledních 3-4 letech chová. Nechová se jinak než AMD, jen se tak začal chovat o 3 roky dřív. Mě osobně se to třeba nijak nelíbí, ale je to prostě současný trend, který je potřeba (hi-NA EUV či post-EUV éra prostě není a hned tak nebude). Toto vše píšu na 65W či 135W dvanáctivláknu Intel, které momentálně na měřáku ukazuje spotřebu celé sestavy 21W včetně Radeon RX 6500 XT a běžícího 1080p YT videa v prohlížeči.
Nyní si vezměme Nvidii: uvedla na trh absolutní čtyřslotové+ monstrum, které typicky v plné zátěži žere kolik? 450W? Nebo 600W? I kdyby to byla ta nižší hodnota, tak je to prostě za hranicí soudnosti a dovoluji si tvrdit, že RTX 4090(Ti) je neskutečný šmejd. Zejména oproti RDNA3 Radeonům, kterým sice také vzrostla spotřeba, ale výrazněji výkon a z toho lepeného GPU je vidět, jak je AMD revoluční tahoun vývoje.
Považujete to za dvojí metr? Nevím, ale podle mě je 200-250W Core i9-13900K hodně slušný procesor. Ano, umí žrát klidně 350W, pokud se vypnou všechny ochranné limity, ale sakra, to pak bude žrát 350W lidně i čtyřivosumšestka. Co takhle se na to podívat titulkem článku na shw: "Intel Core i9-13900K dosáhl na 80W PL2 výkonu jako i9-12900K na 241W" ... Co tohle vypovídá o schopnostech Intelu vylaďovat svůj 10nm/Intel7 proces? Co tohle vypovídá o skutečné kvalitě a spotřebě těch CPU? Vypnutí limitů nevypovídá nic, je to zcela krajní scénář provozu, který používají honiči tekutě-dusíkových OC rekordů, nikdo jiný.
Plusmínus 200W Intel oproti 450-600W Nvidii: opravdu je to dvojí metr? Ano, z prvního nejsem nadšený, ale umožňuje mi provozovat CPU v ceně 15 tisíc Kč na velmi nízké spotřebě při výkonu solidně vyšším než předchozí generace. Druhý mi umožňuje buď smířit se se spotřebou na úrovni třetiny rychlovarné konvice, nebo si koupit kartu za 55 tisíc Kč a pak jí podtaktovat/podvoltovat na úroveň čeho? Radeonu za 10 tisíc Kč? Není to postavené na hlavu? Já tvrdí, že je. Řada RTX 4090 je šmejd a plivanec do xichtu efektivity ze strany Nvidie. Navíc předraženej. Ale chápu, dokud to ovce kupují, tak není důvod zlevňovat.
Myslí to tak, že jsi takovej "LINUSTECHTIPS", jeho hodnocení CPU a GPU je takové, že AMD vychválí, řekne vše i zápory (nebo to udělá 50/50), ale i tak ukáže na Intel a Nvidii, ikdyž je dražší a horší. Nebo když jsou stejné výsledky, vychválí konkurenta jako lepší možnost.
Ty jdeš dělat recenzi na NVidii nebo Intel, tak zápor napíšeš jen jeden, ale 10 kladných věcí.
Svým způsobem máš sevřenej zadek vůči těmto firmám. Nedokážeš ukázat a kritizovat, protože od nich opět dlouho nic neuvidíš (opět zda si matně vzpomínám jak si se rozepsal tlak od Nvidie a Intelu, tomu je tak 2 roky? nebo to byl jiný redaktor). Ale dokud takhle budou okolo skákat všichni, nic se nezmění a zákazník či tvůj čtenář je klamán. (
Další věcí je, kdybys rozebral u Intelu x64 instrukce, jak je rozkládá na x32 instrukce, tak bys zjistil, že velká část benchmarků nelze splnit, která prezentuje ani s dusíkem...
Jenom má poznámka k diit a socka... Napsat na vše low-end není patřičné. A co se týče eurocasu, tak tenhle šrot prezentovat by mělo být trestné... není rok 2000 kdy si vemeš si fixy a počmáráš, nějaké nálepkdy z ABC, kopnout do boku na promáčknutí, aby vypadalo, že jsi fakt cool hráč, který to drtí od rána do večera....
Eurocase patří na smetiště dějin.. a to nejenom v case, ale i zdroji....
Nic nepatří na žádné smětiště dějin. Na smětiště dějin patří to, co nikdo nekupuje. To leda. Představte si, že většině lidí je jedno, jestli mají počítač ve skříních od Eurocase nebo v něčem jiném. Srdečně jedno. A mimochodem, třeba já od Eurocase koupil velmi pěknou a velmi solidní serverovou skříň. Sloužit bude ještě dlouho.
Jakube buď lžeš nebo nemáš informace a přesto vyvozuješ závěry. Nemám sevřenej zadek vůči žádným firmám. Když mi Igor řekl, že buď no-Xe vyhodím z diit, nebo přijdu o vzorky Nvidie na testy, přestal jsem testovat Nvidii. Když jsme testovali Ivy Bridge, prosazoval jsem ostřejší hodnocení CPU, i když nás to stálo spolupráci s CZ Intelem na dlouhá léta (to jsme se samozřejmě dozvěděli až post mortem). Stejně ostrý jsem byl vůči AMD s Bulldozerem (ale tam byli fajn chlapíci a spolupráci kvůli tomu nezařízli). Když jsem testoval WUXGA LCD Samsung, strávil jsem 1 týden ostrým hádáním se markeťáčkem, že ten produkt je fakt nepovedenej a nakonec jsme radši tu recenzi skrečovali, než ji přiohnout mimo objektivní zjištění. Zhruba týden mé práce se spláchnul do kanálu.
Na mě to zkoušelo za ty roky spousta lidí a firem a neuspěli.
Eurocase má lepší i horší produkty. Ostatně není pod tou značkou nejen Fortron, ale i Seasonic (to teď vařím matné vzpomínky, třeba kecám)? Anyway, nikdy, opakuji NIKDY jsem neměl produkt Eurocase, který by byl problémový, od 300W ATX pre-80plus zdroje až po poslední mATX skříň kupovanou loni. Jasně, Lian-Li za 10násobek či Fractal za tehdy trojnásobek byly a jsou lepší. Noa? BMW je taky typicky lepší než Ford či Škodovka.
Btw musel jsem se podívat, kdy naposledy jsem dělal test nějaké GeForce. Byla to GTX 650 Ti v květnu 2013, tedy před 10 lety. Někdy poté musela skončit ta podivná spolupráce s Igorem a spol. Pak jsem ještě napsal o své GTX 750 Ti, kterou jsem si koupil za své dukáty. Pak už nic. A to je asi tak vše, co si teď zhlavy vybavuju. Ke zbytku tvého komentáře nevím co říct, nějak se mnou nesouvisí.
Mel jsem 3950x a diky tomu procesoru jsem se ve vypoctech dostal (s AIO vodnikem ovsem) nad Intel servery. V jednu dobu jsem byl v 1. desitce nejlepsi na svete v pocitani yoyo boinc projektu. A ten cpu predcil intelacke 28 cores reseni easily.
Jsou ovsem tady lide kteri ignoruji doporuceni AMD dat si tam vodni chlazeni. A pak si stezuji na teploty. AMD nastoupila stejnou strategii jak Intel a tezi z toho kremiku maximum az do teploty 95C. Muj vodnik Coolemaster zvladal drzet 80-85C, ale pak to litalo. Jakmile ten CPU vidi ze je v chlazeni rezerva, tak drzi frekvence nad 4GHz ikdyz bezi nonstop.
Nicmene pak jsem dostal chut na integrovane GPU a polovicni spotrebu. Tak jsem sel do 5700G.
Intel bych kupoval jedine kdybych neprovozoval desktop 24/7. Kdo ma platit elektriku za ten nepomer vykon/spotreba? Jedine ... troll nebo narcis.
Dělal jsem upgrade z Ryzen 2600, Nvidia GPU HP NVIDIA Quadro P400 2GB
na Ryzen 5700X, MSI Radeon RX 6600 MECH 2X 8G
Spotřeba celého desktopu bez monitoru před upgrade byla kolem 70 - 90 w
Po upgrade kolem 50 - 60 w
Měřeno v modu sem tam něco přečtu, sem tam něco napíšu a přeložím.
Opravdu bych se s Intel cpu dostal níž? O kolik?
Poprvé v životě jsem při upgrade nemusel měnit desku a ramku, chladič ....
Mám teď i notebook s Ryzenem poprvé bez problému s chlazením, předtím vždy Intel i7 a vždy byl problém s chlazením. Kupuju většinou Thinkpady, jeden s i7 byl Dell, takže žádné levné notebooky, u kterých by se dal problém s chlazením předpokládat.
Nehledě na to, že 4 jádra stačí všem by platilo asi ještě i dnes ...
Já osobně kvůli plechům měnil jejich chladič za BeQuit a svatej klid na R7 2700x... A to mám NZXT H510 a sice nepraskalo, ale ten chladič slušně rezonoval... Ono to přes den nebylo slyšet, ale v noci, kdy se člověk dá do klidu tak ano...
Jinak co se týče spotřeby tak AMD to udává při prohlížení internetu, Intel v klidovém režimu... Ale to vme čert... když zapneš hru tak stejně je ti to jedno...
CPU AMD ovládlo... v článku je řečeno, že na straně GPU nikoliv.
Ovšem na Intel se vytáhl trik s čiplety... Teď to vytáhnout na Nvidii (která jak víme tehdá vysmála za 6990 za dvoučipový GPU) viz MI300, která je navržena přesně jako CPU.. Je jen otázka času, kdy si to žezlo veme... Co se týče AMD GPU tak si vzalo žezlo za stabilitu ovladačů...
Nvidia je ve stejné pozici jako Intel, setrvačnost na úkor spotřeby. Což byla velká chyba AMD a málem to i pohřbilo v historii...
Souhlasím, že AMD je progresivnější a sympatičtější i v GPU oblasti než přímý konkurent. Už třeba FreeSync vs G-Sync, jen jako jeden příklad z mnoha. Když zahrneme i konzole, tak prodává šílené množství GPU. Ale prostě na tradičním trhu desktopů a notebooků ne a ne prorazit. A přitom by to konkurenci na trhu tak strašlivě prospělo.
Ano, ale nejde upřít tomu, že G-SYNC a Freesync mělo válku obrovských rozměrů... Ve finále G-sync přijmulo freesync a podepsalo jako G-sync...
Ta konkurence postupně narůstá, sice pomalu... ale pak jako u Intelu ta konkurence frnkne. Někdo kdo je na vysoké neohrožené pozici, je mu vlastně jedno co dělá, hlavně že se prodává bez investic...
Co se týká Ryzenů 9 X3D, tak to vypadá, že L3 cache byla navýšena jen u jednoho čipletu, takže pak máte jeden s 96 MB a druhý s 32 MB. Aby toho nebylo málo, tak maximální boost je nejspíš jen u toho čipletu s 32 MB L3 cache. Takže OS pak musí správně přiřazovat úlohy na ty správná (=pro danou úlohu vhodná) jádra. Ať žijou hybridní systémy :-D