A ještě něco. V úvodu článku se píše že by bylo hezký využít GPU k něčemu jinému nežli k 2D a 3D. Potom nevím co takový GPU počítá u zpracování videa, filmu či offline renderingu :). U vědy a medicíny se autor raději vyhnul konkretizaci. Skoro jakoby tu byla důležitější značka grafické karty nežli podstata technologie která je tu prezentována.
A samozřejmě nejen Fourierovu transformaci … libovolné výpočty vektory/poly, kdy se na jednotlivé prvky aplikuje stejná operace, jsou pro výpočty na GPU jako stvořené. To zahrnuje kromě Fourierovy transformace i lineární algebru, numerické řešení diferenciálních rovnic nebo zpracování obrazu. Ve výsledku to může dát pěknou medicínskou aplikaci na analýzu dat třeba z magnetické rezonance.
Ten graf bude nejspíš ukazovat maximální teoretický počet floating-point operací za sekundu (viz. svislá osa), tedy operací, které běžně provádějí CPU i GPU. Nevznikl asi z žádného konkrétního měření a v praxi bude dosažitelný počet FLOP samozřejmě nižší. Kdyby v tom grafu bylo i ATI, předpokládám, že by se křivka pohybovala v okolí nvidie, rozhodně nad libovolným CPU.
Tak, tak. Já byl poměrně zklamaný režií nutnou ke kopírování dat na grafickou kartu a po výpočtu zpět. Pro matici 50×50 se mi to nevyplatilo. Člověk musí opravdu pracovat s objemem dat nad stovky kb, ale pak to skutečně stojí za to. :) Zrychlení určitých algoritmů až 100× je reálné.
Ale dejte pokoj s FFT ;-) Tady je ponekud praktictejsi pouziti CUDA pro obycejne lidi ;-)
Ahoj, já bych zase rád viděl pomocí gpu pattern matching. To je silně parelelizovatelná záležitost a pomocí CPU je to pomalé.
Představte si třeba clamav nebo dspam pro GPU.
Zkuste běžným počítačem udělat wire speed antispam.
A nebo zone minder pro GPU. V plném palu běžný CPU zabijí jednotky kamer.
Mohli by to víc otevřít. Takhle to je jen proprietární hračka na pár speciálních úloh.
Kdyby to otevřeli, třeba by tomu někdo napsal systémový ovladač, a začalo by se to chovat jako další procesory. I když mít v systému procesory dvou různých architektur by asi bylo celkem maso. K něčemu podobnému to ale stejně směřuje – mít část procesorů jen na grafiku a část na zbytek není optimální.
To právě ideální je, normálně máte v PC „procesor“ a k tomu další specializované procesory – pro desetinné výpočty (z dob 386tek), pro šifrování, pro multimedia (SSE, MMX, 3DNow), video program nomálně používá grafický procesor pro rozkomprimování videa, adt. Protože jednoúčelový (úzce zaměřený) procesor je asi 10× rychlejší než multifunkční, tak v budoucnosti budeme mít „grafiku“ uvnitř „procesoru“, procesor bude mít více jader, kt. budou každé trochu jinak zaměřené.
Chtel jsem se neco dozvedet, ale clanek stoji za uplne kulove. Chapu, ze autor za nej ma asi zaplaceno, takze snazi to tema natahnout neplodnym obecnym popularnim zvatlanim, ale ja, jako koder, bych ocenil nejaky motivacni zdrojak hned v prvnim prispevku tak, jak to maji skutecni muzi radi.