aha, asi ako https://www.theregister.co.uk/2017/02/23/linux_kernel_gets_patch_against_12yearold_bug/ a X dalsich :-D
Opensource nie je zarukou ze chyba sa v nom neohreje od commitu po odhalenie viac ako tyzden.
Sarkasmus? Takový bash je open source od konce 80. let a shellshock v něm minimálně 20 let dřímal neodhalen.
Ano, pravděpodobnost odhalení je větší. Pravděpodobnost opravy je ale naopak menší. Dokud nebudeme mít přístup ke stroji, do kterého nahrajeme opravené "zdrojové kódy" a ze kterého nám pak vypadne nový kus, tak to vlastně nic neřeší. Jen to díky roztříštěnosti bude dražší a na opravu se bude čekat déle - ne na opravu chyby jako takové, ale na to, než vám fyzicky přijde opravený procesor.
Tak minimálně 5 let...
tak dlouho cca trvá vývoj nové architektury... viz Ryzeny... (a tam má AMD docela kliku že Meltdown na ně nefunguje pokud někdo fyzicky nepřijde přeflashovat procesor - mikrokod není dostupný ze systému. a spectre opatchování výkonnostně nic nestojí)
intel je v průšvihu protože s novou architekturou ještě 3 roky minimálně nepočítal.
Klicove spojeni ve vasem prispevku je "Prostě věřím".
Tohle je skutecne jen a pouze o vire.
Kvalita kodu a cehokoliv je predevsim dana kvalitou prace, procesu a peclivosti toho kdo to tvori. To ze opensource veci jsou bezchybne a ze se tim ze se to nekde zverejni tak to najednou zacnou lidi opravovat je iluze.
Koneckoncu bylo k tomu uz spousta analyz a studii a obvykle nejsou jednoznacne ve prospech open source ani closed source.
Křemík se nepředělá, ale bug se může opravit, pokud bude procesor postaven na rekonfigurovatelné architektuře. Nemusí to být rovnou softcore v FPGA, stačí opensource microkód, co může manipulovat s cacheline a vrátit jí do předspekulačního stavu nebo přidat kernelspace check mikrokód před MOV mikrokód .
Vzpomínáte na Transmetu?
Myšlence otevřeného procesoru tleskám. Ale nevěřím, že se ji podaří prosadit tak, aby byly stroje s takovými CPU běžně dostupné.
Je třeba také lákavá myšlenka CPU, napsané ve VHDL nebo Verilogu nad běžným FPGA. Ale narazíte na problém - nikdy se nedostanete k výkonu optimalizovaného klasického procesoru..
No, před lety jsem měl na stole zajímavou hračku, Actel ProASIC s HW příparavou na integraci ARM7TDMI a licencí na tohle jádro v ceně brouka... Rychlst 2x vyšší, než u stejnýho jádra u jednočipu v následujícím projektu.
A dělali jsme v práci i na routeru, běžícím na NiOS II od Altery (ve FPGA) - to bylo v době, kdy routovat 4x gigabit nešlo s ničím "normálním"...
V případě FPGA není problém výkon, ale hlavně hustota logiky. A taky to, že pokud někdo umí udělat procesor, umí si tam i něco přidat a J by byl jak na jehlách, že mu tam přidali jednoduchý switch na LAN a další jádro...
Více veřejně známých bugů neznamená obecně větší zabugovanost. Je celkem logické, že do otevřeného zdrojového kódu vidí více lidí, tedy mohou potenciálně detekovat víc chyb, než v proprietárním zdrojovém kódu. Nicméně také na druhou stranu platí, že otevřený neznamená bezpečnější.
Apropos, vývoj těchto technologií stojí určité zdroje (čas, peníze, intelektuální kapacitu), je přirozené, že jejich architektury jsou uzavřené/chráněné patentem. Takže otevřený procesor je relativně utopická představa.
S tím otevřený neznamená bezpečnější, bych tak úplně nesouhlasil, možná otevřený znamená dříve vyspělejší ?
Do otevřeného SW kouká daleko více lidí a když něco najdou snaží se realizovat / zviditelnit.
Nad proprietální SW dohlíží managment, kterého zajímají víc zisky, ne kvalita.
Věřím, že když se v otevřeném HW něco podobného objeví, tak se o tom jednak bude vědět daleko dříve a jednak se už s tím objeví i celá řada návrhů na řešení.
Kouká více lidí a mezi nimi i více zločinců. A ti rozhodně po odhalení chyby nebudou se chtít zviditelnit, ale chybu co nejvíce a nejrychleji zneužít.
Otevřený kód samozřejmě usnadňuje hledání chyb, ale je otázkou, zda ti nejschopnější jsou na straně práva nebo zločinu. A kolik je jich poměrově mezi sebou.
Nesmyslna analogie. Closed source HW do sveta chodi.
Presnejsi by byla zverjnete kdy vase dite chodi do/z skoly, kudy chodi, jak ho vychovavate vs nechte si to na doma :)
Ale obe analogie jsou samozrejme zcela mimo, protoze vychovavat dite nestoji miliardy USD, coz je zakladni duvod, proc mainstreamove procesory nikdy open source nebudou.
Ale u Microsoft je program por podporu vládních agentur atd atd přesnej název mužu pozdeji dohledat a vlády která a maji s MS podepsanou smlouvu maj k dispozici zdrojový kody celých windows a windows serverů a maj povoleno provádět penetrační testy a zkoumání kodu za učelem toho jestli v systemu neni díra nebo zadní vrata takže windows se prověřen na urovni lepší než linux na linuxu maká komunita na windows makaj nejlepší odborníci například rusko porvěřuřje všechny produkty co jdou do státní správy už od verze windows 2003. takže detekce chyb je u MS prověřována z desítek laboratoří světa.
to je naivní představa, code base windows je tak obrovský, že jakékoliv prověření je dost problematické, tvrdit, že je Windows prověřen na lepší úrovni než linux je vycucané z prstu, netvrdím, že to tak není, ale vím, že to objektivně říct jen podle předpokladu, že to dělají vládní agentúry je dost varchlaté.
Ano, Linux má více známých bugů, tedy je výrazně méně zabugovaný, než Windows. Proč?
1. Windows je výrazně větší (množství kódu) a s velikostí SW roste i absolutní počet bugů -> absolutní počet bugů ve Windows > absolutní počet bugů v Linuxu
2. V Linuxu je jich nacházeno a opravováno řádově více -> absolutní počet bugů v Linuxu klesá rychleji, než ve Windows
3. Součástí Linuxu jsou ovladače (velká část bugů je právě v nich). Kdo kontroluje a opravuje ovladače u Windows? Pak jsou tu problémy jako zapomenutý debug keylogger v ovladači touchpadu (nebo zvukovky?) v noteboocích HP a mnoho dalších, o který nikdo (snad až na black hat hackery) neví ;)
Ti, kdo používají množství CVE jako argument bezpečnosti Windows (či obecně uzavřeného SW) žijí ve falešném pocitu bezpečí (bugy, o kterých nevíš, tě netrápí). To ovšem neznamená, že o tom bugu neví nikdo jiný a není aktivně zneužíván (tímto se živí hodně lidí).
> 3. Součástí Linuxu jsou ovladače (velká část
> bugů je právě v nich). Kdo kontroluje a
> opravuje ovladače u Windows?
Vzhledem k rozšířenosti platformy se najde dost lidí, kteří se tím zabývají. Opravné verze nějakých ovladačů vychází každou chvíli, i když se nejedná obvykle o ty systémové. Jistě, se zdrojáky by to šlo lépe, ale jelikož je stále hodně ovladačů v čistém C, HexRays decompiler opravdu hodně pomůže.
Co se týče keyloggeru u ovladače touchpadu, na jeho zapnutí bylo potřeba mít administrátorská práva, takže mi vlna kolem toho přišla spíš jako takové hype.
Neříkám, že to nebyl hype - jen je to takový nedávný příklad :)
Hodně lidí se tím zabývá nepochybně (je ale otázka kolik z nich má čisté úmysly), ale když jsem tedy před pár lety používal Win, tak ta frekvence updatů nijak závratná nebyla (a nevěřím, že by byl důvodem dokonalý kód) a pokud je to starší zařízení, tak je často nulová... Na novějších verzích Windows taky často ovladače přestanou fungovat (ne, že by Linuxové ovladače netrpěly nestabilním API, ale je to public kód, takže to většinou někdo opraví, i když výrobce už podporu neposkytuje).
Byla to hlavně reakce na rozšířenou mentalitu "Chyba (chybějící) v ovladačích na Linuxu? Chyba Linuxu! Chyba v ovladačích na Windows? Chyba firmy!"
Microsoft rád ty updaty sdružuje do formátu "více v jednom". Pak je otázka, kolik chyb jeden takový update opraví.
Pokud jde o ovladače třetích stran, ne všichni výrobci dávají aktualizace v rámci Wondows Update, takže si novější verze musíte najít sám (tzn. nepodílejí se na zvýšení frekvence updatů).
MS mnoho let vydával aktualizace každé druhé úterý v měsíci a jednalo se o spodní desítky aktualizací, kolik bylo opraveno chyb moc nešlo poznat. Jak to je s W10 netuším, už je nespravuji.
Kritických chyb zase tolik do roka není, Windows už také poměrně dospěl. Bezpečnost není jen o opravě aktualizací, škodlivý kód se musí do počítače dostat, musí se tam spustit, musí udělat tam udělat činnost, která je často neobvyklá a často musí také něco poslat zpátky po sití, tady všude se dá odhalit nebo zablokovat.
Současné OS si nemají co vyčítat a jak Linux, tak i Windows jsou s bezpečností na vysoké úrovni.
Napadlo mne to již při čtění článku a jak koukám dle komentářů, tak nejsem sám. Přeci otevřená architektura vůbec nic neřeší. Pokud někdo objeví bug v open procesoru, tak co jako? Výrobce mi ho grátis vymění za nový? To může i closed výrobce, tady není žádný rozdíl. Nebo mi nějak na dálku předělá architekturu procesoru? Kdyby to šlo, může to úplně stejně udělat i closed výrobce, opět žádný rozdíl. Vůbec nic se tímhle nevyřeší, možná náklady se sníží a CPU budou levnější, to je možné a určitě by to stále za zvážení. Ale argumentace z pohledu bezpečnosti a chyb alá Intel je nesmysl a jen to poškozuje diskuzi o open verzích procesorů.
Ved clanok ani netvrdi, ze open procesor vyriesi vsetko.
Akurat sumarizuje, ze v poslednom case sa toho hlavne voci Intelu nahromadilo viac, a teda uz tu moze byt pre velke firmy motivacia vystupit z toho momentalneho pohodlia "pouzijeme procesor tohoto majoritneho vyrobcu". Pretoze ako predtym s IME, tak aj teraz s Meltdown to Intel neriesi k nejakej brutalnej spokojnosti vacsiny zakaznikov (skor to vyzera, ze si hlavne kryje chrbat pred hroziacimi sudnymi spormi).
Navyse, myslienka otvoreneho procesora dnes nie je nerealisticka (pred takymi 15 rokmi by sa tomu vacsina ludi vysmiala). Pre bezneho desktopoveho uzivatela to velky rozdiel nie je, ci je architektura otvorena alebo nie (IMHO ani tie CPU lacnejsie nebudu). Ale pre tie velke firmy to je rozdiel obrovsky, pomocou otvorenej architektury totiz do toho mozu "kecat" cez konzorcium a presadzovat tak to, co je vyhodne pre ich vlastny biznis.
Podla mna je to zamyslenie v clanku celkom namieste.
No... já se zase nechci dožít stavu kdy abych si pustil jeden program budu muset kupovat hardware dané firmy.
a abych pracoval s nějakým jiným budu si zase muset koupit jejich hardware...
myšlenka otevřeného procesoru není nerealistická... no a kdo jí bude dělat?
Už v současnosti stojí vývoj architektury miliardy... a ve chvíli kdo to zvořete /AMD excavator například/ tak končíte tak že další 4-5 let nemáte naději cokoliv změnit... protože tak dlouho bude trvat vývoj čehokoliv nového...
(plus dneska se "moderní" věci dělají i na GPU (Viz strojové učení od Nvidie a spol) - budou třeba ještě "otevřené" GPU? Intel kupříkladu se svými prostředky neumí ani ty uzavřené)
To jsou stovky miliard na architektury které vůbec nemusí fungovat...
tohle není software do kterého každý může něco poslat do repozitáře... pokud je křemíkový čip jednou vyrobený už se na něm nedá nic změnit... (plus se klasicky vyrábí metodou "elektronika" že čip se vyrobí a tepr pak se testuje jak se vlastně povedl...)
Pravděpodobně... ovšem vyvinout novou architekturu... to jsou miliardy dolarů...
5 let...
a povětšinou se ukazuje že v podstatě designérem je jeden člověk, a zbytek lidí dělá všechny věci kolem... (Ryzen je kupříkladu dítě Kellera (teď dělá u Tesly baterie) a Clarka...)
A 5 let práce půlky AMD a čtvrtky global foundries na testování protypů a hlavně úpravy procesů aby z toho nějaké funkční kusy křemíku vůbec lezli...
chci vidět "open source" řešení... to si jako někdo postaví ultračisté laboratoře na dělání křemíků a nebo někdo neziskově bude používat technologie na wafery a litografii?
(už jenom ta technologie stojí desítky miliard dollarů...)
1) Keller neměl s Ryzenem nic společného - nechal ho plně v režii samostatnému týmu
2) Díval ses na OpenRISC nebo RISC-V? Nic netrvalo roky a nestálo miliardy.. ;)
Jsou to plnohodnotné CPU, které jsou velice jednoduché a zároveň dostatečně výkonné (v x86 není možné z důvodů kompatibility dělat potřebné změny, takže se výkon zlepšuje různými obskurnostmi - viz Meltdown).
Na open architekturách se ti navíc bude čistě ze zájmu podílet velké množství odborníků (především akademici) a celý návrh bude detailně rozpitván mnoha nezávislými inženýry (jen aby se podívali, jak to mají navrhnuté). Co musí někdo zaplatit je maska a samotná výroba.
Tady se již zapojuje hodně investorů (RISC-V), ale možná by stálo za to zapojit EU, když už ji tu máme a udělat si evropský otevřený CPU (Evropa je bašta Linuxu a FOSS).. Továrny na výrobu tu jsou (GF - Drážďany), hlavní vývojář výrobních procesů ASML sídlí v Nizozemí...
Poprosil bych link? Zatím jsem neviděl dostupnou implementaci RISC-V, takže výkon se dá odhadovat jen teoreticky.
Vím, že to plánují použít různé velké firmy jako řadiče, či IoT, ale taková jádra samozřejmě nemají ambici být konkurence pro moderní x86 CPU.. Návrh je ale dobře škálovatelný, takže není důvod, proč by nemohl vzniknout velký (~ 200mm2 @ 14nm) čip schopný +- konkurovat.
Vidím to se stejným pesimismem jako intel die shrink na 10nm u současné architektury...
14nm zvládalo v pohodě laptopvé takty 3,5GHz v boostu...
10nm stejná architektura - nejlepší výsledek - 2,2 GHz v boostu...
že se die shrink Kaby lake nepovedl Intel veřejně přiznal už před vánocemi... (což je trochu blbé protože defacto s tou architekturou ještě intel chtěl přežít 3 roky - nic jiného totiž v pipeline nemá.)
prakticky žádná architektura navržená na 45nm nebude fungovat na 14nm...
to už Intel i AMD zjistilo celkem dávno - v jednu chvíli je prostě třeba začít znovu a architekturu předělat. (na úrovni Excavator/Ryzen např...)
ale absolutně nevěřím že čipy navržené na 45 nm (RISC) jsou škálovatelné na 20nm... natož na 14 nebo 7
o.O ??
1. RISC - mluvíš o RISC-V?
2. co má znamenat "architektura navržená na xx nm"?? Architektura nemá s konkrétním výrobním procesem nic společného (navrhoval jsi někdy nějaký HW nebo aspoň koukal na proces návrhu?). Až konkrétní implementace architektury jsou dělány pro cílový výrobní proces
Intel má stejnou architekturu (Core) s jen drobnými úpravami (Haswell, Skylake - větší EE) x let na různých procesech 32-22-14. Jaká bude nebo nebude 10nm Intelu je ve hvězdách (zatím nemáme nic než drby).
3. existuje několik různých jader implementující architekturu RISC-V.. A každé takové jádro může být použito v X různých čipech na Y různých výrobních procesech.
A kde jsou ty benchmarky?
Neviděl proto mne to zajímá - proč tvrdit že něco může nahradit něco jiného když to v tuhle chvíli není schopné přinést srovatelný výsledek?
a barevná je teorie, šedivý je strom praxe co se týče hardware.
Když si dáte 10nm procesory od intelu které vznikly jako shrink pod rengen tak i intel přiznal že vypadají tak jak mají, ale prostě core architektura narazila na limit pod který už to dolů efektivně asi nepůjde.
může jít jen o nějakou blbou rezonanci na velikosti transistoru v Canon lake- ale prostě ten die shrink nevyšel. To se už několikrát stalo jak Intelu tak AMD tak jejich dávné zapomenuté konkurenci (kdysi IBM...)
To je klasika - prostě z nějakých důvodů nefunguje to co by podle všech výpočtů fungovat mělo. V elektronice docela běžné :D nedávno jsme stavěli měřáky výkonu s fotodiodami a stejné čipy od jiného výrobce prostě v té konfiguraci nefungovali ikdyž v testeru se chovali stejně.
To jsou všechno jen dohady naprosto nesouvisející s RISC-V (což je, narozdíl od Core, zbrusu nová architektura - podobně jako Zen)..
V první reakci ses vyjádřil, že to má neporovnatelný výkon - vyznělo to tak, že jsi viděl nějaké reálné benchmarky. Realita je taková, že zatím nejsou reálné implementace k dispozici (jen to můžeme provozovat v rámci FPGA) a dostupné návrhy jader cílí spíše na embedded zařízení a IoT - tedy malá spotřeba, malý výkon.
To ale neznamená, že architektura jako taková nemůže konkurovat x86 - stačí udělat návrh většího jádra a vícejádrový čip.
Což znamená 3-4 roky vývoje kdy 200 lidí doslova nebude dělat nic jiného...
a to bez hraček typu infinity fabric a podobných na správu CCX či ekvivalentů jader bude to chtít nějakou další správu prostředků do kterého jádra ho poslat... a ejhle jste tam kde jste byl...
žádný ekvivalent multithreadingu či hyperthreadingu bez opět několikaletého vývoje...
plus navíc je to prakticky nepoužitelné pro GPU které v podstatě s mikrokódem žijí protože musí spravovat ohromná množství jader paralelně.
v čem že to tedy ta architektura může x86/AMD64 nahradit?
Prakticky všechny současné aplikace limitované výkonem směřují do dalších a dalších výpočetních vláken protože s taktem už se moc hrát nedá.
plus v "open source" by jste na všechny tyhle hračky z kterých se skládají "x86" procesory potřeboval jasně daný standard... kdy lidi co dělají jedno by prostě museli akceptovat co vyrobí někdo jiný...
nevím jak vy ale já si tohle pod opensource nedovedu představit. (Spíš vidím žabomyší válku kdy někdo pracující na jádřech bude chtít jednu věc po mezijádrové komunikaci, zatímco mezijádrovou komunikace zas bude chtít raději změnu po procesoru....
Ano. Bohužel nejde škálovat vše dolu. Ten rozměr je šířka hradla MOS tranzistoru. Ale na ploše substrátu potřebujete mít i kapacity (ty jsou dány plochou a tloušťkou oxidu-dielektrika), odpory (ty. musí mít nějakou výkonovou zatížitelnost, což se rovná zase de facto nějaká plocha) a vodiče, jejichž šířka a tloušťka rovněž udává proudovou zatížitelnost. Navíc dnes jsou rychlosti signálů tak velké, že vodiče musí být v páru a mít stejné délky, což také dělá problém. Suma sumárum nelze jednoduše vše zmenšit a doufat že to bude fungovat. Na druhou stranu, dnes je čip poskládán z bloků a pokud přemaluji jeden blok, tak systém nahradí všechny stejné bloky, tudíž třeba přemalovat cache není velký problém. Ale je potřeba vychytat i po změně bloků dost problémů týkajících se zejména změn časování signálů.
Ad možná by stálo za to zapojit EU - Super nápad. Představte si, že by EU vyráběla například automobily. Za 20 let by byly technologicky pozadu za konkurencí o 15 let. Proč myslíte, že asi nefungovalo centrální plánování v bývalém Východním bloku? Jestli chcete něčemu opravdu uškodit, nechte to dělat stát :/
Hele a říká ti něco Talos?
Ty tady vymýšlíš důvody proč to nejde a IBM to jde. Neni důvod aby vznikaly nový firmy a od nuly začaly vyrábět procesory. Úplně stačí, když stávající firmy - Intel, AMD, etc. udělají to samé co IBM. A nemyslím si, že by se museli bát, že jim to někdo okopčí, protože jak už bylo zmíněno, neni sranda něco takového vyrobit.
Z clanku cpi ideologie jen co to jde a fakta / realita jde trochu stranou :-)
1. Bariery vstupu na trh - Je velky rozdil vystavit neco na github a mit globalni infrastrukturu pro vyvoj HW, jeho vyrobu, prodej a servis
2. Skillset lidi - troufam si tvrdit, ze najit sikovneho cloveka, ktery je schopen hackovat kernel v C bude o neco jednodussi nez najit nekoho, kdo je schopen upravovat CPU
3. Vyvoj - vyvoj CPU stoji neskutecne naklady, radove vyssi nez vyvoj SW - musi se delat prototypy (draha vyroba), stavet testovaci farmy, provadet verifikace
Ono ne nadarmo jediny open source CPU, ktery ma nejakou nadeji na uspech, je RISC-V pod BSD licenci, tudiz umoznuje i closed source vyvoj :)
4. Proces - jedna z vyhod open source je casto prave "bazar" (v kontextu "katedraly a bazar"), neco pouzivam, libi se mi to, poslu patch. Nebo naopak si zkompiluji patche / pull requesty od nekoho jineho. Je to agilni, je to fajn, funguje to.
S CPU se tohle delat neda - to je presne situace, kdy chte nechte musi byt pouzit klasicky vodopad nebo nektera jeho varianta. Dlouhy vyvojovy cyklus (podivejte se jak dlouho AMD delal Zen), dlouha a nakladna verifikace, drahy upgrade.
Kdyby se cely CPU dal udelat na FPGA poli, tak ano, davalo by to o neco vetsi smysl - nicmene neda.
Takze tento smer je dle meho uplne mimo.
Pokud by ale otazka znela jinak - Nastal cas nahradit uzavrene derave procesory arogantniho vyrobce balancujiciho na hrane antimonopolniho zakona? Tak za me odpoved bude znit zcela urcite.
Nemam nic proti Intelu jako takovemu - nicmene:
1. Chyba pulroku znama, proc uz davno nejsou opravy?
2. Proc se intel nevyjadri k tomu, zda to jde spravit microcode updatem (podle me by melo)?
3. Pokud ano, proc uz davno tento update neni venku po pul roce?
4. Proc nemam v BIOSu / kernelu moznost vypnout nejaky ME, ktery nechci ?
Intelu jsem vzdy docela fandil, nicmene bohuzel se z nej stal rozmazleny fracek, ktery si zvykl na to, ze nemusi nic delat, maximalne podkurovat urcitym protispotrebitelskym skupinam (protoze spotrebitele uz ma v hrsti, viz napr. ME, SGX a dalsi technologie) a je nejvyssi cas to zmenit.
Chyby se samozrejme deji a dit budou - to je normalni. Ale je to vzdycky o tom, jak se clovek/firma k chybe postavi. A to se posledni dobou Intelu vazne nedari dobre.
Ad Nemám nic proti Intelu, bod 1:
Opravy jsou. Apple je vydal už v prosinci (macOS i iOS), Microsoft je zjevně měl nachystané, když je vydal hned po zveřejnění bugu - 3.1. Linux ostatně taky, a od chystaných změn v linuxovém jádru se to prý profláklo předčasně, dohodnutý termín byl 8.1., kdy všichni měli vydat opravy.
Kromě toho se to netýká jen Intelu. To je jako začátek dieselgate - ne, VW není jediný, problém mají skoro všichni.
Bod 4: AMD má podobný problém.
ad 1: Opravy HW (microcode), ne lepeni v ramci OS (jeste s dopadem na vykon) - hezky to vystihnul Linus u patche na retpoline :)
Ono lepit diry na kazdem CPU v jeho navrhu takovymi vecmi moc nejde - alespon pokud nechceme mit jine jadro pro kazdeho vyrobce / model, protoze muze potrebovat jine ojeby :)
A samozrejme mas pravdu, ze se to netyka jen Intelu - vsak konec koncu jak pisu, je to vic o tom pristupu nez o tom, ze se ta chyba stala.
A hlavne ten zaver byl takovy celkovy rant na Intel a jeho pristup - ono by jim clovek i spoustu veci tu odpustil, kdyby par mesicu predtim nebyl takovy prusvih s jejich nevypnutelnym ME
AMD má problém se SPECTRE - tam je jistá možnost že by se předvýpočty daly nějak z procesoru dostat, ale zatím nikdo neví jak.
s MELTDOWN má v tuhle chvíli AMD problém jen teoreticky - k tomu aby jste u AMD mohl využít meltdown musí někdo k počítači fyzicky dojít a manuálně přeflashovat hardware se speciálním zařízením...
Ze systému a ze sítě k němu není zatím známá žádná cesta - defacto ani nejde jako takový opatchovat na dálku. (resp AMD tvrdí že neví jak tohle udělat)
V postatě neexistuje softwarová ochrana která by takovému stavu byla schopna zabránit.
"Kdyby se cely CPU dal udelat na FPGA poli, tak ano, davalo by to o neco vetsi smysl - nicmene neda."
Tak on se udělat dá, jenom je pomalej (protože se sestavuje z mnoha lowlevel prostředků) a stojí hodně. Co by šlo udělat by bylo "FPGA" plné bloků úrovně ALU a jenom k nim vytvořit řadiče. To by už realizovatelné bylo. Taková řada Tesla MH3xxx :-D.
Ty CPU v FPGA jsou už na světě dlouho. Třeba Motorola 68060. A to řešení v FPGA je 3-4x rychlejší než původní procesor. Ale samozřejmě M68060 není to co by chtěl mít dneska člověk v PC/Notebooku nebo nedejbože v datovém centru:)
http://www.apollo-accelerators.com/
Oni existují snahy dostat FPGA do CPU, ale není tam smysl který uvádíte vy. Jinak jak tu již někdo uváděl, celé CPU lze udělat v FPGA. Obecně však FPGA je pomalejší než ASIC.
Při vývoji CPU se může používat i github, existují jazyky pro návrh hardware, např.: VHDL. Fáze vývoje jsou takové, že nejdřív se vytvoří simulátor nového CPU pro současné CPU, tam se to otestuje, když to vyhovuje požadavkům, zkusí se to nahrát do FPGA, tam se to zkontroluje i po elektrické stránce a teprve když tam to je v pořádku, vytvoří se ASIC čip - prototyp k výslednému CPU, pokud tam je vše v pořádku, začne masová výroba.
Platí, že CPU je pro obecné výpočty, je levné, ale pomalé. FPGA je rychlejší, protože se tam zapíše navrhovaný obvod, je přepisovatelné, ale je drahé. ASIC je nejrychlejší, protože to je obvod přímo v křemíku (výsledné CPU). Co už je jednou v křemíku, to se už nezmění a je levný při výrobě mnoha kusů, vývoj přímo v ASIC je nákladný a nevýhodný.
Naprosto souhlasím - open hardware nemá sám o sobě žádné výhody. To o co zde ve skutečnosti jde je snaha vytvořit skutečně konkurenční prostředí - tak aby se už nestalo, že jedna firma/architektura bude držet celý trh v šachu.
"4. Proc nemam v BIOSu / kernelu moznost vypnout nejaky ME, ktery nechci ?"
Protože ME je samostatný CPU s vlastním OS (Intel používá Minix), tudíž žádný firmware typu BIOS/UEFI (natož pak kernel) jej nevidí. IME je prostě černá skříňka uvnitř černé skříňky - důvod je právě ten, aby se do počítače mohli kdykoliv dostat ti, kdo budou vědět jak s IME pracovat (čti agenti tajných služeb).
Klidně si myslete že jsem blázen/konspirační teoretik/ruský agent/kremlobot/atd., ale alespoň nenaleťte tomu kecu o tom, že IME je nějakou technologií nutnou pro dálkovou správu systému pro firemní zákazníky (AMT který je na IME postaven). Důvody proč je tohle kec snažící se maskovat skutečný záměr jsou dva:
1) IME mají VŠECHNY procesory Intelu (od roku 2008 - vyjma některých Atomů) - nejen ty určené firemní klientele
2) Názor firemní klientely na IME hezky sumarizuje článek:
"Google se například dlouhodobě trápí s nevypočitatelným Intel Management Enginem a snaží se jej ze svých datacenter dostat pryč. Podobně na tom je spousta dalších firem, které provozují obří služby: Amazon, Microsoft, Oracle a mnoho dalších."
Takže ti pro které je IME údajně určený jej nechtějí - stejně jako nikdo jiný. To samozřejmě nijak nebrání Intelu v tom jej nasazovat dál proti vůli zákazníků.
Vedle toho jsou Spectre a Meltdown skutečné chyby vyplývající z architektury dnešních procesorů.
Ad Názor firemní klientely na IME hezky sumarizuje článek... - Jenže zrovna Google není typickým firemním zákazníkem. Google má mnohonásobně redundantní servery, které nedrží žádná unikátní data lokálně. Se servery zachází jako se stádem: na těchto 100 upgradovat binárky, těchto 200 vypnout a vyměnit za nový model (přiveze je kamión, na SSD mají předinstalovaný OS i nějaký proprietární management SW, takže je stačí připojit a zapnout). Firmy naopak zacházejí se servery jako s domácími mazlíčky. Jeden server drží ERP, druhý groupware, třetí DB, další intranet. Ty servery se pak spravují většinou jednotlivě: tady šťouchnout bidlem do ERP, tam upgradovat OS, onde připojit další storage... Protože typický firemní zákazník neprovádí deployment stovky serverů najednou, tak často ocení možnost přes IME vložit virtuální DVD nebo USB klíčenku a provést vzdálenou instalaci OS, v případě vytuhnutí stroje vzdáleně kouknout na konzoli a rebootovat ho atd.
Souhlas, ovšem Google je jeden, kdežto firem typu Horní Dolní sro, Unilever N.V., Siemens AG, První Frantova s.r.o. a dalších je veliká spousta, kdežto Google je jenom jeden. Pro ilustraci v roce 2011 měl Google údajně celkem okolo 900k serverů, a v tom roce se prodalo celkem přes 10M serverů.
Někdo funkcionalitu ME potřebuje, někdo ne. Řešením to, aby zákazníci měli možnost ME kompletně vypnout. Plus by to chtělo zajistit, aby se daly snadno šířit aktualizace, tedy aby to nebylo závislé na výrobcích boardů (kteří za rok dva ukončí podporu, a pak zranitelnost nikdo neopraví).
Jenže když Google zmíní že odteď už bere jen AMD, tak o tom budou psát i Novinky, a pár milionů dalších Horní Dolní, s.r.o. se po něm bude opičit, protože jejich managoři stejně nic jiného než hajpovat trendy neumí. A Intel bude tam kde byl krátce před vznikem IBM 5150, tedy na pokraji krachu.
Férové řešení by bylo mít procesory s ME a bez ME, přičemž ty druhé by byly určené pro obyčejné spotřebitele kteří ho nepotřebují, levnější a s menší spotřebou při stejném výkonu. Ne že bych teda od korporátních zmrdů očekával něco jako fér jednání ;-)
Vyrábět od každého CPU dvě řady mi přijde neekonomické. Daleko snazší je vyrobit CPU s IME, a komu se nelíbí, tak si ho může zakázat. Pokud by to bylo brandované jako dvě různé produktové řady, tak se dá prostě IME na příslušných procesorech deaktivovat po výrobě.
Pokud jde o spotřebu, tak IME je realizovaný pomocí on-chip CPU Intel Quark, který má TDP 2W při plné zátěži. IME samozřejmě plnou zátěž negeneruje ani náhodou, takže dopad na spotřebu je více-méně nulový.
Intel to tak maximalne zasvrbi a google to nikdy neudela. Protoze dobre vi, ze AMD ma problemy uplne stejny, navic ma problem i s tim, vubec nejaky CPU dodat.
Mimochodem, ty sis jeste nestih vsimnou ze pro Intel sou CPU mozna nejviditelnejsi, ale ekonomicky nepatrna soucast toho co vyrabi ze?
ME se moc neliší od IPMI a to používá spousta firem, včetně těch ve jmenovaném seznamu. Hlavní problém ME je v tom, že používá stejnou síťovou kartu jako zbytek počítače. IPMI má oddělenou kartu, a tak se taky spouští na oddělené síti a případné díry nemají tak hrozné následky.
"Byla jednou jedna hodná a roztomilá dívenka. Kdekdo ji měl rád, ale maminka a babička ji měly nejradši. Babička jí upletla červený čepeček, karkulku, a podle toho čepečku jí říkali Červená karkulka...."
Nechci to sem dávat celý, zbytek najdeš zde.
Tak rozhodně v článku zazněla jedna podstatná věc - je čas zabít platformu x86. To je naprosto bez diskusí.
Průšvihů je tam plno, nejemenší problém je nedostatek registrů (4 na jádro), emulací CISCu na RISCu pomocí zabugovanýho mikrokódu,... Ono už jenom používání segmentů na 286 byla učebnicová prasárna.
No a dneska je všechno podřízeno výkonu. Proč? Protože pitomý řádek kódu v Javě, C#, JavaScriptu,... se spustí interpret, emulující fyzicky nerealizovatelný stroj na x86. Jenomže ten výsledný stroják na x86 nevykonává jádro x86, ale interpreter na kdoví čem... Za sebe bych viděl řešení pomocí několika (až desítek/stovek) RISCových jader s vlastní L1 cache. Hlavně jednoduchý (= líp testovatelný, rychlý) s otevřeným managementem. Jde tam líp škálovat výkon, přiřadit aplikaci jádro v reálným čase, řídit spotřebu,... A dělit to jeden sandbox na fyzický jádro a je jistota, že nic nezdrhne přes cache. Pokud si s tím lepič knihoven nebo pánové z Mozilly nevystačí, smůla.
Otázka je, jestli má být jádro open source. Já si to nemyslím. Pod BSD licencí by to bylo peklo, tam to bude jako closed source - o to horší, že dneska je jasná hranice mezi MIPSem, ARMem, x86, ... Pokud se prosadí taková platforma X pod BSD, tak bude najednou hromada jader X-AMD až X-Zilog, který budou mít společnýho předka a specifikaci, ale jiný erraty, jiný bugy a jiný průšvihy. Aniž by někdo odhalil, co tam je blbě. Z tohohle pohledu je lepší to, co má ARM - licencuje jádra, platí z toho vývoj a hlídá si smluvně kompatibilitu. Přitom na stejný jádro nezávisle musí mrknout všichni, kdo si to jádro koupí a cpou do vlastních brouků.
Binarni translace nemusi byt zdaleka tak pomala jak se zda. Delal jsem hloupy translator x86-ARM a kod bez optimalizaci (a s hloupym prekladem) byl zhruba 3-4x vetsi, coz neni ani radove zpomaleni. Navic jednoduchym optimalizatorem resicim preskupovani/vyhazovani/prepis instrukci metodou "obarvovani registru" to slo srazit s prehledem na kod jen 2* vetsi.
Sak pisu ze uz to tady bylo ... myslis ze v Intelu se nesnazili aby to fungovalo? Dokonce presvedcili M$ aby jim na to widle udelal nativni. Jenze vsichni na tom chteli provozovat ty x86 aplikace, ktery sice bezely, ale naprosto tragicky, a to navic s bonusem, ze Itanium byla platforma pekelne draha.
Pak prislo AMD se svym amd-64 ... a Itanium chciplo definitivne.
Pokud bys chtel nahradit x86, musel bys udelat chip, kterej bude zaroven x86 a zaroven bude zvladat novou architekturu. Tohle bys musel udrzovat HW nejmin 10 let, a pak nejmin dalsich 10 let bys musel udrzovat SW emulaci.
Pricem mezi tim bys asi musel jeste nalejt nehoraznej ranec penez vsem vetsim vyvojarum, aby svoje core aplikace prepsali na novou architekturu - protoze jinam to proste delat nebudou. A na to proste nema silu ani Intel, natoz kdokoli jinej.
Jedina dalsi moznost je takova, ze prijdes s architekturou, ktera bude aspon o rad vykonejsi a zaroven nebude drazsi.
Itanium melo myslim trosku jine problemy, nez zpetnou kompatibilitu. Spousta lidi by to pouzila i kdyby byly na nej prelozene jen MS produkty (SQL server, ASP.NET, apod.). Rekl bych, ze tam nebyla ta spravna pridana hodnota. Ona tam mozna nebyla skoro zadna.
Srovnal bych to s ARMem, to je architektura, ktera pridanou hodnotu ma a verim tomu, ze kdyby byly opravdu otevrene a nativni Win pro ARM (s odpovidajicimi vyhodami - spotreba, optimalizace na rychlost), tak se problem aplikaci vyresi sam.
Ja treba pouzivam hned 2 ARM desky misto stolniho pocitace (jako takovou soft nahradu pro nenarocne veci) a jsem s nimi naprosto spokojen. Rikam jim nevzdelani delnici, trva jim to dlouho, ale delaji spolehlive, muzou delat i pres noc, atd.
Ono tezko srovnavat "stejne vykonny ARM". Podle me podobne procesory (ale jake to jsou????) ARM jsou tak na 3/4 vykonu Intelu. V mem pripade jsem vzal napr. dva podobne lowcost tablety, ovem ten ARM ma obrovkou vyhodu, ze vydrzi asi 3* tolik co ten Intel :-). V potaz se ale musi vzit, ze jeden je W8,druhy Android.
Tohle byl Asus Zenfone vs. Nexus v době, kdy Asus ještě používal Intel. Výdrž měly oba podobnou (než dostal Nexus aktualizaci na Android 6). Výkon srovnatelný, ať už to překládalo ARM nebo běželo nativní aplikaci, a to šlo o aplikaci hojně využívající SIMD (samozřejmě překlad byl trochu pomalejší, bylo to vidět na statistice latence, ale subjektivně jsem to nerozeznal). Byly tam nějaké problémy se stabilitou, ale to se týkalo hlavně získávání backtrace při pádu aplikace,libhoudini nemělo reimplementované _Unwind_Backtrace
pro intelovský stack.
x86 je potvora, kterou dneska už úsporně neuděláš. Těch hradel na zpracování mikrokódu, zkratky v pipeliningu, pomocný registry a další bordel je prostě moc. Žerou, zabírají místo a nedají se odstavit.
Na flek jednoho x86 klidně narveš čtyři jiný jádra. No a když si připomeneme, že nejslabší místo z pohledu výkonu je v dnešní době RAMka a z pohedu zabezpečení sdílený uložení dat (od temp registrů CPU přes cache po systémovou RAM), tak má smysl udělat několik malých RISCových nodů se zlomkem výkonu, vlastní cache a vlastním, fyzicky odděleným kusem RAMky. Ušetří se čekání při cache miss, ušetří se čištění cache při přepnutí kontextu, ušetří se režie při virtualizaci (protože virtuály jsou vlastně fyzický nezávislý stroje), ušetří se energie (pro nepotřebný jádro hodíš clock nebo přeladíš PLLko),...
Prostě něco ve stylu ARMovýho APU od AMD s trochu jiným řízením a sdílením pamětí.
Jo, jenomže právě tohle je ta hrouda hnědé, mazlavé a zapáchající hmoty, co jim právě teče ze střechy po zdi. Zhurba půl čipu je totiž cache a zatímco konkurence ji poctivě maže když je potřeba, Intel na to tak trochu hází bobek.
Je to jako dvě implementace free() v C, kde jedna označí blok jako volný a druhá ho navíc přepíše nulama...
To ano, ale jak začne Intel také "přepisovat nulama", tak je hnedka oheň na střeše, jak se tím CPU spomaluje a že klesá rank v benchmarku atd. Zkrátka si lidé a firmy zvykli využívat toho, že Intel trochu podvádí a dosahuje lepších výsledků na úkor bezpečnosti. Že je ta cena příliš vysoká se zjistilo až po dvaceti letech.
Nesouhlasím. Dneska u obou jader narazíš s výkonem na RAMku. Je to už vlastně spíš otázka predikce skoků a velikosti/řízení cache, než samotnýho jádra. Prostě to nabíjení/vybíjení kondíků v RAMce rychlejší neuděláš. Řeší se to přidáním bitů a jejich multiplexem, dual channel RAM,... A snižováním napětí, šlo to postupně z 5V na 3,3V (SDR), 2,5V (DDR1), 1,8V (MDDR1, DDR2), 1,5V (MDDR2, DDR3),...
EAX, EBX, ECX, EDX.
Pak jsou tam už jenom speciály, který normálně v programu nemůžeš moc zneužívat. ESP, EBP, ESI, EBI. Ty pro práci s daty nepočítám.
(Platí pro 32b architekturu, na 64b jsem v ASM ještě nic nemusel psát, takže tam jsem to nestudoval)
EDI/ESI/EBP jsou stejně použitelné registry jako EAX/EBX/ECX/EDX. Jediný speciální je ESP a pokud chci frame-pointer tak i ten EBP.
A vůbec proč se bavíme o 32 bitech, když moderní OS jedou na 64? 32-bit x86 architektura je minulost. x86_64 je na tom mnohem líp.
Taky nemam x86 rad, uz od dob 80286, kdy IMHO uz tak divnou architekturu jeste vic dodrbali, jenze ta architektura ma dneska prakticky nejvykonnejsi dostupne cipy:
https://en.wikipedia.org/wiki/TOP500#Top_10_ranking
https://en.wikipedia.org/wiki/TOP500#/media/File:Processor_families_in_TOP500_supercomputers.svg (ten obrazek je neskutecne hnusnej s tema vzorkama vyplni)
"Za sebe bych viděl řešení pomocí několika (až desítek/stovek) RISCových jader s vlastní L1 cache."
Tomu je blizko RISC-V nebo starej dobrej MIPS
U ARMu jako jaker asi problem neni, jenze u vetsiny SoC je tam porad ten binarni blob, ktery nikdo neuvolni, protoze patenty a kody tretich stran :( Coz sice souvisi s HW jen castecne, ale otevrena architektura to neni.
Vsem kdo zde basni o tom jak bude OSS CPU a podobne veci bych doporucil shlednout https://media.ccc.de/v/32c3-7171-when_hardware_must_just_work
Osobne si myslim, ze nejlepsi co bychom si z aktualni sitauce mohli vzit je zmena toho, jak funguji dnesni pocitace. Zavedeni ruznych zon zabezpeceni (=neceho jako ringu, ale i do uzivatelske urovne, aby napr. sel spustit cizi kod v lepsim sandboxu na HW urovni) a pak organizace kernelu OS.
Kdyby Stallman umel cesky, tak by si po precteni tehle diskuze pripadal jak v dokonale opojnem "Deja Vu". Faktem je, ze pricinou a podhoubim pro (bezpecnostni) vady je uzavrenost designu - at v SW tak i HW. Resenim je samozrejme tuhle pricinu "vyresit", at se to nekomu libi nebo ne. Usmevne jak vsichni progresivni ctenari vedi, co by se nemelo, ale navrhnout reseni uz nedokazou.
Skutecne se bavim, jak jsou deti vystrasene napriklad z der v Intel ME, UEFI, FW, chteli by to otevrit a nahradit ekvivalentem, ale u HW se tomu brani, protoze kdyz si to oni sami nedokazou doma spravit s pajkou a cinem, tak to nesmi radsi nikdo - to by bylo kacirstvi, naprosta zbytecnost a vubec sodomie s kremikem! Jeste aby takovy carodej mel pristup k designove otevrenu navrhu hardware!
Vzdyt' Vam nic nebrani zacit. Koupit nejakeho Spartana, Virtexe, nebo Stratixe a muzete hned zacit.
Kupodivu to ale skoro nikdo nedela. Tedy ... https://opencores.org/projects
PS: Srovnejte si kolik lidi zna C a kolik Verilog... tady je mozna pricina problemu.
Lidí, kteří znají Verilog a VHDL zas tak málo není.
Problém je v tom(viděl jsem to na sobě), že po počátečním nadšení, kdy si člověk chvíli myslí, jak "nebude problém" si napsat procesor, přijde poznání, že na koleně po večerech stačíte tak na klon MOS6502 nebo možná Z80, v lepším případě PDP-11...
Moderní CPU jsou jinde a ty miliardy dolarů, které se v tom točí, nějaký důvod přece jen mají.
Ale určitě by se nějaký jednoduchý 32 bitový RISC napsat dal, pokud by vznikl projekt "lidskými zdroji" srovnatelný s většími OSS věcmi.
No ono vytvořit CPU je celkem jednoduchý. Otázka je jenom to, co to má vlastně umět a jaký to má mít výkon.
Mám doma třeba jednu knížku, kde je <700 stran a autor dokázal probrat logiku (hradla), HDL, interpretaci instrukcí, architekturu MIPS, paměťový subsystémy a ukázat v praxi postup návrhu hned tří mikroarchitektur MIPSu, každou s jinýma vlastnostma (single cycle Harvard, multicycle se sdílenou pamětí a s pipeliningem). Na autora a přesný název si z hlavy nevzpomenu, ale zkusím doplnit z domu...
No tak skoro 200 procesoru od 8mi bitu az po 64bit mi jako "skoro nikdo nedela" neprijde.
Ono ten pomer znalosti C a Verilogu/VHDL je dost danej tim ze pocitac ma doma kazdej, ale FPGA nebo aspon CPLD temer nikdo, protoze ani nevi co to je. To by se ale diky padajicim cenam mohlo v budoucnu zmenit, kdyz dneska se da CPLD deska koupit z Ciny za $6 a FPGA za $10.
:-) A kde se ty procesory pouzivaji? Udelat treba 256bit procesor do nejakeho FPGA umim taky, otazka je zda bude k necemu pouzitelny.
To co je na opencores jsou vetsinou jen slozitejsi hracky (nerikam, ze je jednoduche je udelat, ale x86 tim proste nenahradite za zadnou cenu). A nektere z nich ani nebyly pred par lety vubec overovany/spusteny na kremiku (nevim jaka je aktualni situace).
Ano, pouziti soft ci hard CPU core ve FPGA je bezna vec. Ale neni to bezna vec "do pocitace" (serveru, stanice, apod.). Vyjimkou jsou retro emulatory C64 apod., ale to taky neni uplne bezne pouziti.
Az se bude v Alze prodavat pocitac s RISC-V nebo OpenSPARC nebo POWER masinka, tak tomu reknu ze to je ten cil co mel tento thread. Podle me se to tak ale nestane.
"chteli by to otevrit a nahradit ekvivalentem, ale u HW se tomu brani, protoze kdyz si to oni sami nedokazou doma spravit s pajkou a cinem, tak to nesmi radsi nikdo"
Tohle přece není žádný důvod.
A ano - CPU si těžko člověk opraví v domácích podmínkách.
To o co tady jde s openHW je výhoda pro PRODUCENTY, nikoliv konzumenty/uživatele. OpenHW by dokázal restartovat trh, kde by se konkurence postarala aby nevznikaly nějaké kvazimonopoly jako má dnes Intel.
Je to stejné jako u SW, kde všechny ty licence typu BSD/GPL/... míří primárně na vývojáře a nikoliv na uživatele. To že z toho všeho v konečném důsledku těží i uživatel který nic netvoří je "jenom" vedlejší efekt, nikoliv cíl. A to je přesně v souladu s tím co říká i Stallman.
A kde je teda problem? Co ma byt jinak, aby se OpenHW ujal?
Tak trosku mi to pripomina lamentovani komunistu/anarchistu/apod. ze svet neni podle nich.
Podle meho nazoru zmena musi prijit od tech velkych, kteri maji penize. Nebo by horda tech malych musela videt konkurencni vyhodu, aby x86 prestali kupovat. Ale to se nestane, to snad vsichni vidime.
"Co ma byt jinak, aby se OpenHW ujal?"
Pokud máte situaci, kdy vás vlastní HW může kdykoliv zradit a to jak záměrně (IME), tak chybou návrhu (Spectre+Meltdown) a navíc ten HW je díky předchozímu vývoji nesmyslně navržený (emulace CISCu na RISCu - čímž si vlastně bere to nejhorší z obou světů)... Tak je na místě otázka, zda-li má smysl takovéto CPU chtít. A pokud ne, tak se musíme zeptat, kde vezmeme alternativu. Od firem jako Intel, které současný stav mají na svědomí a těží z něj to asi nebude - od těch se dá čekat jenom to, že současný stav budou bránit.
Takže konkurence. Problém je, že když Intel byl schopen skoro deset let cpát šmíráka (IME) zákazníkům aniž ti by si toho všimli, tak to může kdykoliv kdokoliv zopakovat.
Takže potřebujete něco, co zajistí konkurenci mezi výrobci a zároveň transparentnost návrhu pro uživatele. Tím se dostáváme k současnému stavu, kdy se během posledních pár let začala objevovat stále silnější poptávka po alternativě, která tu v minulosti nebyla. Jestli se OpenHW ujme nebo ne ukáže až budoucnost.
OpenHW se neujme. Není pro to důvod, mimo ideálů pár nadšenců.
Linux je open, firmy se chytly toho, že mají bez práce jádro systému, grafiku, IP stack, ... Vývoj Linuxu platí tím, že na tom pracují jejich vývojáři a dávají svou práci komunitě. Vyplatí se jim výměnou za pár člověkohodin získat tolik SW.
U HW to nefunguje. I kdyby zveřejnili specifikaci, SW tooly, testy a kód jádra ve Verilogu, tak je to prd platý. Syntézu musí každý udělat sám, layout čipu v závislosti na technologii taky, takže stejně takový návrh je třeba jenom 40% práce na čipu. To zase taková úspora není, aby se to firmám vyplatilo.
Jediná cesta je mít profi designéry - specialisty na full time, dobře zaplacený a sdílený mezi ty, co tu platformu potřebují. Takový team nesmí sedět v žádné firmě, která dělá čipy (aby neměl motivaci podrazit konkurenci) a musí být placený buďto z licencí za čipy, nebo paušálně od všech, kdo tu platformu používají.
A tahle cesta funguje. Tohle totiž dělá ARM. Můžu si vybrat, jestli ho chci od AMD, Texasu, NXP, Infineonu, ST, Quallcomu, Xilinxe, Actelu,... No jmenoval bych je do rána. Nástroje stejný, kompilátor a linker stejný, jenom se liší rychlosti, paměti, periferky, pouzdra, cenovka,... Jeden odpadne/zklame a za půl roku chrlím železo s procákem od druhýho.
Pokiaľ ľudia majú veriť počítačom a elektronickým peniazom, bankovým účtom, kryptomenám je NUTNE MAT OTVORENY OPEN SOURCE CPU. Je to nutnosť. Pozrite sa na Rusov majú Elbrus. Pozrite sa na čínanov majú Loongson. Oni totiž veľmi rýchlo pochopili, že nasadzovať deravý Intel, AMD, ARM do ich infraštruktúry je obrovské riziko. Pozrite si filmy o Snowdenovi, alebo film Zero Days. Myslím si, že Intel Managment Engine, Spectre, Meltdown sú len špičkou ladovca.
My potrebujeme open source CPU ak ľudia majú dôverovať počítačom.
pokud je sklo vrstvené nebo potažené fólií, může být odolné i proti pořádnému šutru.
Prediktor skoků se dá udělat i s odolností na spectre, jen s tím zatím očividně nikdo moc nepočítal a nejspíš to není poslední zmíňka, kterou slyšíme. Informaci o přiznané zranitelnosti jsem přidal jen pro doplnění ke zmíňce o Poweru.
https://imgur.com/a/rr6rB
něco se chystá, možná to odhalení chyb přišlo příhodně
pro jiné výrobce jiných technologií...
Samozřejmě že to nepůjde, a opensourcová komunita za toto nebude chtít převzít jakoukoliv zodpovědnost..
Zapomíná se totiž na ten podstatný rozdíl. . V případě SW, pokud se opožděně objeví chyba tak se ve zdrojových kódech opraví, distribuuje se přes internet, a tím to mají všichni uživatelé zdarma a rychle opravené. Dokonce, i ten kdo by si chtěl ten původní SW produkt s chybou (třeba v krabicovém prodeji) nově pořizovat, tak ví že hned po instalaci do počítače a připojením k internetu ta chyba opraví.
A jak pak je to, ptám se v případě HW, tedy i procesorů?? Asi tušíte - pokud se objeví a zveřejní nějaká závažná chyba později, mají výrobci (i distributoři) ve skladech haldy neprodejného šuntu v materiálových a výrobních cenách za miliardy a nikdo už si je s tou chybou nekoupí. (a počká si na novou opravenou sérii). Ale stejně a bohužel, jsou miliony (desítky miliony) naštvaných koncových uživatelů s koupeným produktem s touto chybou - a nikdo už jim je (hlavně po záruce) zadarmo neopraví ani nevymění,.
A jak jsem psal na začátku - za tvorbu a opravování chyb v takovém prostředí samozřejmě opensourcová komunita zodpovědnost nepřevezme---
Nebudem tu zbytočne zachádzať do detailov (beztak by to tu pravdepodobne málokto pochopil, resp. nechcel pochopiť kvôli rôznymi mentálnym blokom - ale kto má o bližšie detaily záujem, tak... - http://cicociciak.blogspot.sk/2015/06/pyramida-moci-vsehovoriaci-prispevok-z.html), ale naopak napíšem len toľko, že som si všimol skutočnosť, že tu asi nikto nepochopil, aká je hlavná výhoda otvoreného princípu a riešení oproti uzavretému princípu a riešeniam:
Ide o to, že tie niektoré bezpečnostné akože "chyby", o ktorých údajne nikto roky až desaťročiach "vôbec nič" nevedel, až do chvíle než sa "čiste náhodne" spustila meeediálna hystéria/kauza (ovce si vždy myslia, že všetko na svete a v jednotlivých štátoch sa deje len-tak samo od seba bez iniciátorov - napr. v biznise, politike, meeediách a pod.), sú v skutočnosti "chyby", ktoré sú úmyselne/zámerne niekým hlavne z mocenských dôvodov zavádzané do niektorého komerčného hardvéru alebo softvéru (pochádzajúcich od veľkých trans-nacionálnych korporácií) a to v prospech niekoho (nebudem tu rozoberať, že presne v prospech koho - tých mocenských úrovní, resp. "hráčov" je viacero), kto ich využíva napr. ako backdoor, alebo ako prostriedok na vydieranie, sledovanie niekoho a pod.
Samozrejme, že vždy je to o morálke konkrétnych ľudí (resp. o miere morálky celej spoločnosti v priemere), a teda aj pri otvorenom princípe a riešeniach, lenže obecne pri uzavretom princípe a riešeniach (napr. v korporátnej oblasti) morálka a morálne činy takmer nemajú šancu, nakoľko tu ide takmer vždy len o nekonečný zisk, zisk, a zase iba o zisk, a nad ziskom je už len najväčšia droga na svete - a to túžba po absolútnej moci nad celým svetom a všetkými ľuďmi na Zemi!
Preto sú dnes otvorený princíp a otvorené riešenia jedinou cestou, ktorou by sa ľudstvo vo všetkých oblastiach svojej činnosti malo uberať.
Samozrejme tiež platí, že pre ľudstvo ako také je životne nevyhnutné, aby každý jedinec na planéte pracoval na svojej osobnej miere mravnosti a úrovni obecného chápania vecí objektívnej reality.
A na záver len toľko, že čo sa týka tejto kauzy, tak objednávateľovi tejto kauzy ide najskôr o vytvorenie príslušného informačného poľa s cieľom iniciovať v príslušných oblastiach ľudskej činnosti (IT) určité procesy a tendencie, ktoré sa následne objednávateľ kauzy pokúsi podchytiť a subjektívne riadiť ich v prospech svojich skrytých, obvykle egoistických zámerov a záujmov.
Avšak, podľa mňa ide o správny proces, ešte keby ho tak vedela mlčiaca väčšina uchopiť do svjoich rúk.
Najväčšia konšpirácia je ten akože reálny meeediálny matrix, v ktorom žijete, bohužiaľ taká je objektívna pravda.
Inak, poznáte ten "vtip", že aký je rozdiel medzi konšpiráciou a realitou, nie?
Asi 2 roky! :)
Kto má dlhšiu pamäť než +- 2 nedele, ako je tomu u bežných mejnstrímových ovečiek, tak ten si to už dávno všimol.
Kto nie, jeho problém, toho objektívna realita najskôr nejako prefacká, ak ani to nepomôže, tak skôr-či-neskôr pekne zomelie.
"..nevědomí nefilosofují a netouží státi se moudrými; a neboť právě v tom záleží zlo nevědomosti, že člověk, který není krásný a dobrý ani moudrý, si o sobě myslí, že je takový. Tak nikdo kdo necítí svého nedostatku, netouží po tom, čeho nedostatku necítí." Platón
Internet Info Root.cz (www.root.cz)
Informace nejen ze světa Linuxu. ISSN 1212-8309
Copyright © 1998 – 2021 Internet Info, s.r.o. Všechna práva vyhrazena.