Vlákno názorů k článku Nastal čas nahradit uzavřené děravé procesory otevřenou alternativou? od Petr - Napadlo mne to již při čtění článku a...

  • Článek je starý, nové názory již nelze přidávat.
  • 8. 1. 2018 2:11

    Petr (neregistrovaný)

    Napadlo mne to již při čtění článku a jak koukám dle komentářů, tak nejsem sám. Přeci otevřená architektura vůbec nic neřeší. Pokud někdo objeví bug v open procesoru, tak co jako? Výrobce mi ho grátis vymění za nový? To může i closed výrobce, tady není žádný rozdíl. Nebo mi nějak na dálku předělá architekturu procesoru? Kdyby to šlo, může to úplně stejně udělat i closed výrobce, opět žádný rozdíl. Vůbec nic se tímhle nevyřeší, možná náklady se sníží a CPU budou levnější, to je možné a určitě by to stále za zvážení. Ale argumentace z pohledu bezpečnosti a chyb alá Intel je nesmysl a jen to poškozuje diskuzi o open verzích procesorů.

  • 8. 1. 2018 6:22

    Palo M. (neregistrovaný)

    Ved clanok ani netvrdi, ze open procesor vyriesi vsetko.
    Akurat sumarizuje, ze v poslednom case sa toho hlavne voci Intelu nahromadilo viac, a teda uz tu moze byt pre velke firmy motivacia vystupit z toho momentalneho pohodlia "pouzijeme procesor tohoto majoritneho vyrobcu". Pretoze ako predtym s IME, tak aj teraz s Meltdown to Intel neriesi k nejakej brutalnej spokojnosti vacsiny zakaznikov (skor to vyzera, ze si hlavne kryje chrbat pred hroziacimi sudnymi spormi).

    Navyse, myslienka otvoreneho procesora dnes nie je nerealisticka (pred takymi 15 rokmi by sa tomu vacsina ludi vysmiala). Pre bezneho desktopoveho uzivatela to velky rozdiel nie je, ci je architektura otvorena alebo nie (IMHO ani tie CPU lacnejsie nebudu). Ale pre tie velke firmy to je rozdiel obrovsky, pomocou otvorenej architektury totiz do toho mozu "kecat" cez konzorcium a presadzovat tak to, co je vyhodne pre ich vlastny biznis.

    Podla mna je to zamyslenie v clanku celkom namieste.

  • 8. 1. 2018 8:07

    Paeirs Kiran (neregistrovaný)

    No... já se zase nechci dožít stavu kdy abych si pustil jeden program budu muset kupovat hardware dané firmy.
    a abych pracoval s nějakým jiným budu si zase muset koupit jejich hardware...

    myšlenka otevřeného procesoru není nerealistická... no a kdo jí bude dělat?

    Už v současnosti stojí vývoj architektury miliardy... a ve chvíli kdo to zvořete /AMD excavator například/ tak končíte tak že další 4-5 let nemáte naději cokoliv změnit... protože tak dlouho bude trvat vývoj čehokoliv nového...

    (plus dneska se "moderní" věci dělají i na GPU (Viz strojové učení od Nvidie a spol) - budou třeba ještě "otevřené" GPU? Intel kupříkladu se svými prostředky neumí ani ty uzavřené)
    To jsou stovky miliard na architektury které vůbec nemusí fungovat...

    tohle není software do kterého každý může něco poslat do repozitáře... pokud je křemíkový čip jednou vyrobený už se na něm nedá nic změnit... (plus se klasicky vyrábí metodou "elektronika" že čip se vyrobí a tepr pak se testuje jak se vlastně povedl...)

  • 8. 1. 2018 9:02

    bedňa (neregistrovaný)

    "Přeci otevřená architektura vůbec nic neřeší"
    Je tam rozdiel ako keď sa bavíš s kamarátom a úplne cudzím človekom, ak v tom rozdiel nevidíš, tak nepochopíš v živote veľa vecí.

  • 8. 1. 2018 9:52

    Rhinox (neregistrovaný)

    Rekl bych, ze u otevrene architektury by bug jako meltdown/spectre nezustal neobjeven 20 let...

  • 8. 1. 2018 11:24

    Paeris Kiran (neregistrovaný)

    Pravděpodobně... ovšem vyvinout novou architekturu... to jsou miliardy dolarů...
    5 let...

    a povětšinou se ukazuje že v podstatě designérem je jeden člověk, a zbytek lidí dělá všechny věci kolem... (Ryzen je kupříkladu dítě Kellera (teď dělá u Tesly baterie) a Clarka...)
    A 5 let práce půlky AMD a čtvrtky global foundries na testování protypů a hlavně úpravy procesů aby z toho nějaké funkční kusy křemíku vůbec lezli...

    chci vidět "open source" řešení... to si jako někdo postaví ultračisté laboratoře na dělání křemíků a nebo někdo neziskově bude používat technologie na wafery a litografii?

    (už jenom ta technologie stojí desítky miliard dollarů...)

  • 8. 1. 2018 12:52

    arakan94

    1) Keller neměl s Ryzenem nic společného - nechal ho plně v režii samostatnému týmu
    2) Díval ses na OpenRISC nebo RISC-V? Nic netrvalo roky a nestálo miliardy.. ;)

    Jsou to plnohodnotné CPU, které jsou velice jednoduché a zároveň dostatečně výkonné (v x86 není možné z důvodů kompatibility dělat potřebné změny, takže se výkon zlepšuje různými obskurnostmi - viz Meltdown).

    Na open architekturách se ti navíc bude čistě ze zájmu podílet velké množství odborníků (především akademici) a celý návrh bude detailně rozpitván mnoha nezávislými inženýry (jen aby se podívali, jak to mají navrhnuté). Co musí někdo zaplatit je maska a samotná výroba.

    Tady se již zapojuje hodně investorů (RISC-V), ale možná by stálo za to zapojit EU, když už ji tu máme a udělat si evropský otevřený CPU (Evropa je bašta Linuxu a FOSS).. Továrny na výrobu tu jsou (GF - Drážďany), hlavní vývojář výrobních procesů ASML sídlí v Nizozemí...

  • 8. 1. 2018 13:24

    Paeris Kiran (neregistrovaný)

    Viděl jste jejich benchmarky v čemkoliv?

    naprosto neporovnatelně nevýkonné, a těžko miniaturizovatelné byť jen na 14nm... natož na 12 či 7 (další kroky AMD) a nebo 10 a 7 (intel)

  • 8. 1. 2018 13:31

    arakan94

    Poprosil bych link? Zatím jsem neviděl dostupnou implementaci RISC-V, takže výkon se dá odhadovat jen teoreticky.

    Vím, že to plánují použít různé velké firmy jako řadiče, či IoT, ale taková jádra samozřejmě nemají ambici být konkurence pro moderní x86 CPU.. Návrh je ale dobře škálovatelný, takže není důvod, proč by nemohl vzniknout velký (~ 200mm2 @ 14nm) čip schopný +- konkurovat.

  • 8. 1. 2018 13:40

    Paeris Kiran (neregistrovaný)

    Vidím to se stejným pesimismem jako intel die shrink na 10nm u současné architektury...

    14nm zvládalo v pohodě laptopvé takty 3,5GHz v boostu...
    10nm stejná architektura - nejlepší výsledek - 2,2 GHz v boostu...

    že se die shrink Kaby lake nepovedl Intel veřejně přiznal už před vánocemi... (což je trochu blbé protože defacto s tou architekturou ještě intel chtěl přežít 3 roky - nic jiného totiž v pipeline nemá.)

    prakticky žádná architektura navržená na 45nm nebude fungovat na 14nm...

    to už Intel i AMD zjistilo celkem dávno - v jednu chvíli je prostě třeba začít znovu a architekturu předělat. (na úrovni Excavator/Ryzen např...)

    ale absolutně nevěřím že čipy navržené na 45 nm (RISC) jsou škálovatelné na 20nm... natož na 14 nebo 7

  • 8. 1. 2018 13:57

    arakan94

    o.O ??

    1. RISC - mluvíš o RISC-V?
    2. co má znamenat "architektura navržená na xx nm"?? Architektura nemá s konkrétním výrobním procesem nic společného (navrhoval jsi někdy nějaký HW nebo aspoň koukal na proces návrhu?). Až konkrétní implementace architektury jsou dělány pro cílový výrobní proces

    Intel má stejnou architekturu (Core) s jen drobnými úpravami (Haswell, Skylake - větší EE) x let na různých procesech 32-22-14. Jaká bude nebo nebude 10nm Intelu je ve hvězdách (zatím nemáme nic než drby).

    3. existuje několik různých jader implementující architekturu RISC-V.. A každé takové jádro může být použito v X různých čipech na Y různých výrobních procesech.

    A kde jsou ty benchmarky?

  • 8. 1. 2018 14:15

    Paeris Kiran (neregistrovaný)

    Neviděl proto mne to zajímá - proč tvrdit že něco může nahradit něco jiného když to v tuhle chvíli není schopné přinést srovatelný výsledek?

    a barevná je teorie, šedivý je strom praxe co se týče hardware.

    Když si dáte 10nm procesory od intelu které vznikly jako shrink pod rengen tak i intel přiznal že vypadají tak jak mají, ale prostě core architektura narazila na limit pod který už to dolů efektivně asi nepůjde.

    může jít jen o nějakou blbou rezonanci na velikosti transistoru v Canon lake- ale prostě ten die shrink nevyšel. To se už několikrát stalo jak Intelu tak AMD tak jejich dávné zapomenuté konkurenci (kdysi IBM...)

    To je klasika - prostě z nějakých důvodů nefunguje to co by podle všech výpočtů fungovat mělo. V elektronice docela běžné :D nedávno jsme stavěli měřáky výkonu s fotodiodami a stejné čipy od jiného výrobce prostě v té konfiguraci nefungovali ikdyž v testeru se chovali stejně.

  • 8. 1. 2018 15:37

    arakan94

    To jsou všechno jen dohady naprosto nesouvisející s RISC-V (což je, narozdíl od Core, zbrusu nová architektura - podobně jako Zen)..

    V první reakci ses vyjádřil, že to má neporovnatelný výkon - vyznělo to tak, že jsi viděl nějaké reálné benchmarky. Realita je taková, že zatím nejsou reálné implementace k dispozici (jen to můžeme provozovat v rámci FPGA) a dostupné návrhy jader cílí spíše na embedded zařízení a IoT - tedy malá spotřeba, malý výkon.

    To ale neznamená, že architektura jako taková nemůže konkurovat x86 - stačí udělat návrh většího jádra a vícejádrový čip.

  • 8. 1. 2018 16:11

    Paeris Kiran (neregistrovaný)

    Což znamená 3-4 roky vývoje kdy 200 lidí doslova nebude dělat nic jiného...

    a to bez hraček typu infinity fabric a podobných na správu CCX či ekvivalentů jader bude to chtít nějakou další správu prostředků do kterého jádra ho poslat... a ejhle jste tam kde jste byl...
    žádný ekvivalent multithreadingu či hyperthreadingu bez opět několikaletého vývoje...

    plus navíc je to prakticky nepoužitelné pro GPU které v podstatě s mikrokódem žijí protože musí spravovat ohromná množství jader paralelně.

    v čem že to tedy ta architektura může x86/AMD64 nahradit?
    Prakticky všechny současné aplikace limitované výkonem směřují do dalších a dalších výpočetních vláken protože s taktem už se moc hrát nedá.

    plus v "open source" by jste na všechny tyhle hračky z kterých se skládají "x86" procesory potřeboval jasně daný standard... kdy lidi co dělají jedno by prostě museli akceptovat co vyrobí někdo jiný...

    nevím jak vy ale já si tohle pod opensource nedovedu představit. (Spíš vidím žabomyší válku kdy někdo pracující na jádřech bude chtít jednu věc po mezijádrové komunikaci, zatímco mezijádrovou komunikace zas bude chtít raději změnu po procesoru....

  • 8. 1. 2018 22:37

    Petr M (neregistrovaný)

    Ten samej Intel, co chtěl trumfnout AMD vyšší frekvencí, tak vyhnal P4 na 3.3GHz, aniž by reálně nějak zvedl výkon CPU? Holt se to s pipeline musí umět...

  • 9. 1. 2018 13:03

    Mard (neregistrovaný)

    Ano. Bohužel nejde škálovat vše dolu. Ten rozměr je šířka hradla MOS tranzistoru. Ale na ploše substrátu potřebujete mít i kapacity (ty jsou dány plochou a tloušťkou oxidu-dielektrika), odpory (ty. musí mít nějakou výkonovou zatížitelnost, což se rovná zase de facto nějaká plocha) a vodiče, jejichž šířka a tloušťka rovněž udává proudovou zatížitelnost. Navíc dnes jsou rychlosti signálů tak velké, že vodiče musí být v páru a mít stejné délky, což také dělá problém. Suma sumárum nelze jednoduše vše zmenšit a doufat že to bude fungovat. Na druhou stranu, dnes je čip poskládán z bloků a pokud přemaluji jeden blok, tak systém nahradí všechny stejné bloky, tudíž třeba přemalovat cache není velký problém. Ale je potřeba vychytat i po změně bloků dost problémů týkajících se zejména změn časování signálů.

  • 9. 1. 2018 15:49

    Lael Ophir

    Ad možná by stálo za to zapojit EU - Super nápad. Představte si, že by EU vyráběla například automobily. Za 20 let by byly technologicky pozadu za konkurencí o 15 let. Proč myslíte, že asi nefungovalo centrální plánování v bývalém Východním bloku? Jestli chcete něčemu opravdu uškodit, nechte to dělat stát :/

  • 8. 1. 2018 12:55

    Lama (neregistrovaný)

    Hele a říká ti něco Talos?

    https://www.cnews.cz/projekt-otevreneho-ne-x86-pocitace-zije-talos-ii-bude-jeste-letos-s-ibm-power9-za-min/

    Ty tady vymýšlíš důvody proč to nejde a IBM to jde. Neni důvod aby vznikaly nový firmy a od nuly začaly vyrábět procesory. Úplně stačí, když stávající firmy - Intel, AMD, etc. udělají to samé co IBM. A nemyslím si, že by se museli bát, že jim to někdo okopčí, protože jak už bylo zmíněno, neni sranda něco takového vyrobit.