Vlákno názorů k článku
VIA představila ARM počítače Rock za 79 a Paper za 99 dolarů od mafiosso - Zajímalo by mě proč někdo tyto procesory neosadí...

  • Článek je starý, nové názory již nelze přidávat.
  • 18. 1. 2013 19:51

    mafiosso (neregistrovaný)

    Zajímalo by mě proč někdo tyto procesory neosadí chladičem a netaktuje je o mnoho výš - vzhledem k jednoduché architektuře by mohly pracovat někde tak kolem 5GHZ, nemám pravdu? - pak už by byly konkurenceschopné na desktopu - a já bych si takový desktop koupil mnohem radši než x86. Případně si myslím, že jedna deska by se dala osadit mnoha takovýmito procesory - které jednak málo žerou a mají naprosto mizivý příkon. Ve srovnání s Intel procesory by tak byly imho mnohem účinnější.

  • 18. 1. 2013 21:38

    lempl (neregistrovaný)

    tiez moc procesorovym technologiam nerozumiem, ale odhadujem ze ARM ako technologia nema dostaotcny vykon, niekde porovnavali army s prvymi atomami (v tej dobe top arm vs low power x86) a vykonovo sa na atomi moc nedotahovali, boli tam urcite priblizenia ale vykon skratka maly

    oni budu mat navrch v inych aplikaciach pravdepodobne, no take aplikacie nie su pre bezneho uzivatela (ani vyuzitelne), mozno by sa dal vykon zvysit zvysenim poctu procesorov v jednom cipe (ako dnes tlacia 4 a 5 "procesorove" zariadenia) no potom sa zvysuje aj spotreba a teplo takze by to mozno v konecnom dosledku vyslo na rovnako ako x86

    ale tiez by som chcel vidiet zmenu architektury ci vznik vykonovej a napatovej konkurencie k x86
    - cell ?
    - RISC ?
    - PowerPC ? (to je asi tiez risc)
    existuje vobec neaka vykonna a malo "zrava" architektura ako konkurencia x86 ?

  • 18. 1. 2013 23:56

    Pavel Tišnovský
    Zlatý podporovatel

    No ARM je RISC a je prozatim miren trosku jinym smerem nez klasicke "desktopove" procesory, kde spotreba a cena (asi?) pro ne nehraje az tak velkou roli v porovnani s ostatnim HW smejdstvem na desce (ktere stejne vetsinou zustava z velke casti nevyuzite).

    Pro nektere aplikace bych nezapomel na MIPS a potom si pockejme na ARM64, kterej vypada skutecne dobre (ale uvidime v praxi, az budou vyrabene realne cipy).

  • 19. 1. 2013 0:23

    lempl (neregistrovaný)

    ano ARM "je" RISC, tak neak som trocha cital (aj ked nepochopil, to uz neak nezvladam) vas clanok ohladom vyvoja microprocesorov :)

    suhlasim ze vacsina pridavnych veci na doske dnes uz byva nevyuzita a zbytocne predrazuje cenu dosky

    no pride mi ze ARM oproti skutocnemu RISCu ma ovela mensi vykon (aj ak by sa to neak preratalo vykon/spotreba) , sak predca len plnohodnotne risc boli pouzivane v servroch a mali vacsi vypocetny vykon (alebo som to zle pochopil ?)

    inac mam pocit ze arm sa dostava teraz do stavu v akom bol kedysi x86, vacsie frekvencie vacsie tepla viac energie (teraz uz aj viac jadier)

    naopak x86 zas (aspon intel) ide smerom menej energie s priblizne rovnakym vykonom

    MIPS ma mensiu instrukcnu sadu nez RISC ? (spravne to chapem ?) takze sice zvladne veci rychlo ale komplikovanejsie veci bude spracovavat na viac taktov (teda dlhsie trva)

    a je teda neaka alternativa k momentalnemu trendu alebo sme odkazany rozmary na intel (x86) a ARM ?

  • 19. 1. 2013 10:53

    student (neregistrovaný)

    RISC = mala instrukcna sada (=dame len malo jednoduchych instrukcii, ktore sa zvladnu vykonavat rychlo) - typicke RISCy su napriklad ARM, MIPS a Atmel AVR.
    CISC = velka instrukcna sada (=1 instrukcia zvlada niekedy aj vela veci - ulozi registre na zasobnik, niekedy spravi 1 round AES alebo zvladne double compare and swap a pod) - to je napriklad x86, Motorola 68k alebo z/Architecture.

    Takze porovnavanie RISC vs MIPS alebo RISC vs ARM mi nedava zmysel.
    RISC toho dokaze menej spravit na 1 instrukciu, ale dohnat sa to da tym, ze instrukcie su jednoduche a daju sa vykonavat rychlo.

  • 19. 1. 2013 20:42

    Pavel Tišnovský
    Zlatý podporovatel

    MIPS i ARMy jsou procesory s architekturou RISC. Ten pojem RISC muze byt nekdy matouci, protoze skutecne existovaly cipy se jmenem RISC (Berkeley RISC 1 napriklad). Takze ten pojem "RISC" ma stejny osud jako napriklad "walkman" - puvodne tim byl oznaceny jeden konkretni vyrobek, pozdeji cela skupina vyrobku se stejnou vlastnosti (hmm doufam, ze walkmany tady nekdo pozna? :-).

    Jinak ARMy se profilovaly jako procesory s dobrym pomerem (vypocetni)vy­kon/prikon. Nedavno jsme to merili na zhruba srovnatelnych deskach a v benchmarcich ten pomer vychazel lepe pro ARMy nez pro zarizeni s x86. Na mnohem vetsi vykony je urceny ARM64, budeme si na nej ale muset par mesicu pockat, ale podle toho, co jsem mel moznost videt, to v realu bude hodne vykony cip.

    > a je teda neaka alternativa k momentalnemu trendu alebo sme odkazany rozmary na intel (x86) a ARM

    MIPS (vetsinou jako SoC), ruzne 8/16/32bit mikroradice, PPC uz asi umrelo, ale ARM bych urcite nezatracoval, protoze ta firma na rozdil od Intelu "pouze" dodava know-how a implementuje to nekdo jiny. Ten nekdo jiny si musi skutecne dat pozor, jestlu pujde do nakupu licence or ARMu nebo si vyhledne neco jineho, kdezto Intel muze klidne preslapnout a proste to jako obri firma vetsinou prezije (Itanium, Pentium Pro...)

    Asi pujdu proti proudu, ale na "takove to domaci bastleni" bych klidne bral PICy nebo starou dobrou 8051 :-)

  • 19. 1. 2013 10:27

    Karel (neregistrovaný)

    Nemáte pravdu. S frekvencí neroste jen spotřeba, ale i chybovost a teplota. Teplota se dá sice snížit chlazením, ale ne ta vznikající uvnitř spojů. I kdybyste chladil povrch na absolutní nulu, tak ve spojích může teplota stoupnout tak, že se spoj vypaří.

    A pak ta stabilita. Součástky mají nějaké provozní parametry, ve kterých pracují správně. Pokud půjdete mimo, součástka nebude dělat to, co má. Kupříkladu u tranzistorů dochází při překlápění k přechodovým jevům. Ty se poměrně rychle ustálí, ale na zlomek vteřiny jako kdyby ta součástka "nefungovala". Proto po každé změně chvíli vyčkáte a teprve pak pokračujete dále. To "chvíli počkáte" pak určuje mezní frekvenci, při které součástka ještě bude fungovat. Pokud navíc těch součástek postavíte kaskádu, tak máte frekvenci velmi silně limitovanou. Při překročení této frekvence se pak třebas ten tranzistor tváří jako trvale otevřený nebo trvale zavřený, případně mění stav náhodně. Laicky řečeno už se nestíhá přepínat.

    A to jsme se ani nedostali k tématu "rychlost pohybu elektronu ve vodiči", která nejen že velmi přispívá ke zmíněným přechodovým jevům, ale navíc při vysokých frekvencí způsobuje různé zpoždění na různě dlouhých spojích (domácí úkol - jaký je takt u 5GHz a jaký rozdíl zpoždění bude mít elektrický signál mezi dvěma měděnými vodiči, kde jeden je o 1 cm delší). A ještě indukčnost je potvora. Při těhle frekvencích se spoje chovají významně jako cívky. Čím vyšší frekvence a proud, tím větší vliv. Přeslechy mezi spoji pak snadno přebijí hlavní signál.

  • 19. 1. 2013 13:04

    hvge (neregistrovaný)

    Ta architektura sa ti zvysenim frekvencie razom zozloziti. Napr. by musela byt predlzena pipeline. To sa hned prejavi na vykone (cim dlsia pipeline, tym vacsie problemy pri vetveni kodu). Zakonite to teda musis zacat riesit, takze sa dostavame k predikcii skokov, out of order execution, superscalar spracovaniu abys zaplnil vypoctove jednotky a pod. Je skratka zbytocne zvysovat frekvenciu, ked by ti nasledne vypoctove jednotky prakticky cely cas stali a nic nepocitali...

    Priklad zo zivota. Taky PowerPC od IBM pouzity v xbox 360 ma 3GHz, ale vsetky bezne instrukcie sa vykonavaju v pipeline s dlzkou 20-28 krokov, bez "out of order" spracovania a podobnych vychytavok. V case uvedenia na trh bola 3GHz neskutocna frekvencia. V praxi vetveneho kodu, vsak to jedno jadro ma vykon asi ako 1-1.5GHz vtedajsi Intel. Takze hra si sice dokaze spracovat prudovo enormne mnozstvo vektorovych dat, ale na desktopove nasadenie by to bol uplne zufaly cpu. IBM to riesil vtedy pomerne efektivnym hyperthreadingom (a samozrejme 3 jadram:i)