Čím více vzorců, tím méně použitelná ta akcelerace je. Je tam obrovská režie na to to krmit daty. Spreadsheet s desítkami tisíc zavzorcovaných buněk je opravdu rychlejší počítat na CPU.
Na co to smysl má jsou složitější analytické funkce. Výpočty nad větším objemem dat (regresní přímky, korelace apod.) s jedním výsledkem (byť by to bylo pole).
Pokud nějaký šílenec udělá tabulku, kde v prvním sloupci bude nálupní cena, v druhým marže, ve třetím cena, ve čtvrtým sazba daně a v pátým to má vypoočítat prodejní cenu, tak se to celkem hodí. 2000 řádků se spočítá rychlej, když na o vletí třeba 50 jader na grafice a počítá se 50 řádků najednou...
Nebo když třeba něco ověřuju v nějakým návrhu, tak mám model s nomimnálníma hodnotama a k tomu ještě moedly s krajníma tolerancema. Výpočty jsou stejný a takhle i 10 stejných modelů bude spočítaných v čase jenoho.
Nebo i výpočet determiantu u matice n-týho řádu se dá rozsekat mezi několik jader, každý si vezme nějaký subdetrminant... A soustava rovnic je vyřešená.
A nebo třeba suma 20ti sloupců. Každý jádro GPU se vrhne na jeden a už to valí...