Napadlo mne to již při čtění článku a jak koukám dle komentářů, tak nejsem sám. Přeci otevřená architektura vůbec nic neřeší. Pokud někdo objeví bug v open procesoru, tak co jako? Výrobce mi ho grátis vymění za nový? To může i closed výrobce, tady není žádný rozdíl. Nebo mi nějak na dálku předělá architekturu procesoru? Kdyby to šlo, může to úplně stejně udělat i closed výrobce, opět žádný rozdíl. Vůbec nic se tímhle nevyřeší, možná náklady se sníží a CPU budou levnější, to je možné a určitě by to stále za zvážení. Ale argumentace z pohledu bezpečnosti a chyb alá Intel je nesmysl a jen to poškozuje diskuzi o open verzích procesorů.
Ved clanok ani netvrdi, ze open procesor vyriesi vsetko.
Akurat sumarizuje, ze v poslednom case sa toho hlavne voci Intelu nahromadilo viac, a teda uz tu moze byt pre velke firmy motivacia vystupit z toho momentalneho pohodlia "pouzijeme procesor tohoto majoritneho vyrobcu". Pretoze ako predtym s IME, tak aj teraz s Meltdown to Intel neriesi k nejakej brutalnej spokojnosti vacsiny zakaznikov (skor to vyzera, ze si hlavne kryje chrbat pred hroziacimi sudnymi spormi).
Navyse, myslienka otvoreneho procesora dnes nie je nerealisticka (pred takymi 15 rokmi by sa tomu vacsina ludi vysmiala). Pre bezneho desktopoveho uzivatela to velky rozdiel nie je, ci je architektura otvorena alebo nie (IMHO ani tie CPU lacnejsie nebudu). Ale pre tie velke firmy to je rozdiel obrovsky, pomocou otvorenej architektury totiz do toho mozu "kecat" cez konzorcium a presadzovat tak to, co je vyhodne pre ich vlastny biznis.
Podla mna je to zamyslenie v clanku celkom namieste.
No... já se zase nechci dožít stavu kdy abych si pustil jeden program budu muset kupovat hardware dané firmy.
a abych pracoval s nějakým jiným budu si zase muset koupit jejich hardware...
myšlenka otevřeného procesoru není nerealistická... no a kdo jí bude dělat?
Už v současnosti stojí vývoj architektury miliardy... a ve chvíli kdo to zvořete /AMD excavator například/ tak končíte tak že další 4-5 let nemáte naději cokoliv změnit... protože tak dlouho bude trvat vývoj čehokoliv nového...
(plus dneska se "moderní" věci dělají i na GPU (Viz strojové učení od Nvidie a spol) - budou třeba ještě "otevřené" GPU? Intel kupříkladu se svými prostředky neumí ani ty uzavřené)
To jsou stovky miliard na architektury které vůbec nemusí fungovat...
tohle není software do kterého každý může něco poslat do repozitáře... pokud je křemíkový čip jednou vyrobený už se na něm nedá nic změnit... (plus se klasicky vyrábí metodou "elektronika" že čip se vyrobí a tepr pak se testuje jak se vlastně povedl...)
Pravděpodobně... ovšem vyvinout novou architekturu... to jsou miliardy dolarů...
5 let...
a povětšinou se ukazuje že v podstatě designérem je jeden člověk, a zbytek lidí dělá všechny věci kolem... (Ryzen je kupříkladu dítě Kellera (teď dělá u Tesly baterie) a Clarka...)
A 5 let práce půlky AMD a čtvrtky global foundries na testování protypů a hlavně úpravy procesů aby z toho nějaké funkční kusy křemíku vůbec lezli...
chci vidět "open source" řešení... to si jako někdo postaví ultračisté laboratoře na dělání křemíků a nebo někdo neziskově bude používat technologie na wafery a litografii?
(už jenom ta technologie stojí desítky miliard dollarů...)
1) Keller neměl s Ryzenem nic společného - nechal ho plně v režii samostatnému týmu
2) Díval ses na OpenRISC nebo RISC-V? Nic netrvalo roky a nestálo miliardy.. ;)
Jsou to plnohodnotné CPU, které jsou velice jednoduché a zároveň dostatečně výkonné (v x86 není možné z důvodů kompatibility dělat potřebné změny, takže se výkon zlepšuje různými obskurnostmi - viz Meltdown).
Na open architekturách se ti navíc bude čistě ze zájmu podílet velké množství odborníků (především akademici) a celý návrh bude detailně rozpitván mnoha nezávislými inženýry (jen aby se podívali, jak to mají navrhnuté). Co musí někdo zaplatit je maska a samotná výroba.
Tady se již zapojuje hodně investorů (RISC-V), ale možná by stálo za to zapojit EU, když už ji tu máme a udělat si evropský otevřený CPU (Evropa je bašta Linuxu a FOSS).. Továrny na výrobu tu jsou (GF - Drážďany), hlavní vývojář výrobních procesů ASML sídlí v Nizozemí...
Poprosil bych link? Zatím jsem neviděl dostupnou implementaci RISC-V, takže výkon se dá odhadovat jen teoreticky.
Vím, že to plánují použít různé velké firmy jako řadiče, či IoT, ale taková jádra samozřejmě nemají ambici být konkurence pro moderní x86 CPU.. Návrh je ale dobře škálovatelný, takže není důvod, proč by nemohl vzniknout velký (~ 200mm2 @ 14nm) čip schopný +- konkurovat.
Vidím to se stejným pesimismem jako intel die shrink na 10nm u současné architektury...
14nm zvládalo v pohodě laptopvé takty 3,5GHz v boostu...
10nm stejná architektura - nejlepší výsledek - 2,2 GHz v boostu...
že se die shrink Kaby lake nepovedl Intel veřejně přiznal už před vánocemi... (což je trochu blbé protože defacto s tou architekturou ještě intel chtěl přežít 3 roky - nic jiného totiž v pipeline nemá.)
prakticky žádná architektura navržená na 45nm nebude fungovat na 14nm...
to už Intel i AMD zjistilo celkem dávno - v jednu chvíli je prostě třeba začít znovu a architekturu předělat. (na úrovni Excavator/Ryzen např...)
ale absolutně nevěřím že čipy navržené na 45 nm (RISC) jsou škálovatelné na 20nm... natož na 14 nebo 7
o.O ??
1. RISC - mluvíš o RISC-V?
2. co má znamenat "architektura navržená na xx nm"?? Architektura nemá s konkrétním výrobním procesem nic společného (navrhoval jsi někdy nějaký HW nebo aspoň koukal na proces návrhu?). Až konkrétní implementace architektury jsou dělány pro cílový výrobní proces
Intel má stejnou architekturu (Core) s jen drobnými úpravami (Haswell, Skylake - větší EE) x let na různých procesech 32-22-14. Jaká bude nebo nebude 10nm Intelu je ve hvězdách (zatím nemáme nic než drby).
3. existuje několik různých jader implementující architekturu RISC-V.. A každé takové jádro může být použito v X různých čipech na Y různých výrobních procesech.
A kde jsou ty benchmarky?
Neviděl proto mne to zajímá - proč tvrdit že něco může nahradit něco jiného když to v tuhle chvíli není schopné přinést srovatelný výsledek?
a barevná je teorie, šedivý je strom praxe co se týče hardware.
Když si dáte 10nm procesory od intelu které vznikly jako shrink pod rengen tak i intel přiznal že vypadají tak jak mají, ale prostě core architektura narazila na limit pod který už to dolů efektivně asi nepůjde.
může jít jen o nějakou blbou rezonanci na velikosti transistoru v Canon lake- ale prostě ten die shrink nevyšel. To se už několikrát stalo jak Intelu tak AMD tak jejich dávné zapomenuté konkurenci (kdysi IBM...)
To je klasika - prostě z nějakých důvodů nefunguje to co by podle všech výpočtů fungovat mělo. V elektronice docela běžné :D nedávno jsme stavěli měřáky výkonu s fotodiodami a stejné čipy od jiného výrobce prostě v té konfiguraci nefungovali ikdyž v testeru se chovali stejně.
To jsou všechno jen dohady naprosto nesouvisející s RISC-V (což je, narozdíl od Core, zbrusu nová architektura - podobně jako Zen)..
V první reakci ses vyjádřil, že to má neporovnatelný výkon - vyznělo to tak, že jsi viděl nějaké reálné benchmarky. Realita je taková, že zatím nejsou reálné implementace k dispozici (jen to můžeme provozovat v rámci FPGA) a dostupné návrhy jader cílí spíše na embedded zařízení a IoT - tedy malá spotřeba, malý výkon.
To ale neznamená, že architektura jako taková nemůže konkurovat x86 - stačí udělat návrh většího jádra a vícejádrový čip.
Což znamená 3-4 roky vývoje kdy 200 lidí doslova nebude dělat nic jiného...
a to bez hraček typu infinity fabric a podobných na správu CCX či ekvivalentů jader bude to chtít nějakou další správu prostředků do kterého jádra ho poslat... a ejhle jste tam kde jste byl...
žádný ekvivalent multithreadingu či hyperthreadingu bez opět několikaletého vývoje...
plus navíc je to prakticky nepoužitelné pro GPU které v podstatě s mikrokódem žijí protože musí spravovat ohromná množství jader paralelně.
v čem že to tedy ta architektura může x86/AMD64 nahradit?
Prakticky všechny současné aplikace limitované výkonem směřují do dalších a dalších výpočetních vláken protože s taktem už se moc hrát nedá.
plus v "open source" by jste na všechny tyhle hračky z kterých se skládají "x86" procesory potřeboval jasně daný standard... kdy lidi co dělají jedno by prostě museli akceptovat co vyrobí někdo jiný...
nevím jak vy ale já si tohle pod opensource nedovedu představit. (Spíš vidím žabomyší válku kdy někdo pracující na jádřech bude chtít jednu věc po mezijádrové komunikaci, zatímco mezijádrovou komunikace zas bude chtít raději změnu po procesoru....
Ano. Bohužel nejde škálovat vše dolu. Ten rozměr je šířka hradla MOS tranzistoru. Ale na ploše substrátu potřebujete mít i kapacity (ty jsou dány plochou a tloušťkou oxidu-dielektrika), odpory (ty. musí mít nějakou výkonovou zatížitelnost, což se rovná zase de facto nějaká plocha) a vodiče, jejichž šířka a tloušťka rovněž udává proudovou zatížitelnost. Navíc dnes jsou rychlosti signálů tak velké, že vodiče musí být v páru a mít stejné délky, což také dělá problém. Suma sumárum nelze jednoduše vše zmenšit a doufat že to bude fungovat. Na druhou stranu, dnes je čip poskládán z bloků a pokud přemaluji jeden blok, tak systém nahradí všechny stejné bloky, tudíž třeba přemalovat cache není velký problém. Ale je potřeba vychytat i po změně bloků dost problémů týkajících se zejména změn časování signálů.
Ad možná by stálo za to zapojit EU - Super nápad. Představte si, že by EU vyráběla například automobily. Za 20 let by byly technologicky pozadu za konkurencí o 15 let. Proč myslíte, že asi nefungovalo centrální plánování v bývalém Východním bloku? Jestli chcete něčemu opravdu uškodit, nechte to dělat stát :/
Hele a říká ti něco Talos?
Ty tady vymýšlíš důvody proč to nejde a IBM to jde. Neni důvod aby vznikaly nový firmy a od nuly začaly vyrábět procesory. Úplně stačí, když stávající firmy - Intel, AMD, etc. udělají to samé co IBM. A nemyslím si, že by se museli bát, že jim to někdo okopčí, protože jak už bylo zmíněno, neni sranda něco takového vyrobit.