Možná jsem nepozorně četl, ale nějak mi uniklo na čem autor testoval.
Procenta vytížení CPU a špatné dekódování na GPU jsou sice pěkné údaje, ale na čem? Atom, Liano, Buldozer, Sandy Bridge... A4-3300, nebo Core i7? Grafika byla integrovaná, nebo dedikovaná... Intel, nVidia či AMD?
Třeba před časem umělo VLC dekódovat pouze na nVidiích, protože AMD jaksi nekomunikovalo s vývojáři...
Rozumím. Díky za upřesnění, ale asi by to chtělo doplnit do článku a přidat i o jaké video se jedná.
Například vytížení 70% na Atomu 1.6GHz s videem 1080p bitrate 7000kbps je vlastně krásná hodnota. Ovšem pokud se jedná o 1080p/3000kbps na Atholonu X2 s 2.8GHz tak je stejný výsledek mizerný. Z článku to ale není nijak patrné a to je dle mého názoru chyba.