Strasne ten hype okolo GPGPU. GPGPU se zdaleka nehodi pro vsechny vypocty. Odvazuju se rict, ze se hodi dokonce jen pro male procento vypoctu.
1) Ten ohromujici vykon je jen v single precision.
2) GPU maji malo pameti (ano 2GB je malo) a transfer z RAM stoji hodne casu.
3) Vetsina vedeckych vypoctu se provadi ve specialnich aplikacich, casto komercnich a uzavrenych. Takze i kdyby mela implementace GPGPU pro dany ucel smysl, jen tak se ji nedockame.
ad CUDA a BLAS: cuBLAS je jen single precision, navic nejslozitejsi operace, kterou BLAS umi je nasobeni matic, a to vedcum opravdu nestaci:) Az bude pro CUDA prepsany i LAPACK, zacne to byt aspon trochu zajimave.