Ten test je inconclusive. Nikde nepisou, s jakymi build flagy byl ten ktery tensorflow zbuildeny. A to sakramentsky hraje roli. Napr. defaultni knihovna distribuovana pres pip nema FMA a AVX512, mozna ani AVX2 (ted si presne nepamatuju). A zrovna tyhle instrukce muzou delat dost zasadni rozdil. A proc ty instrukce nema? Protoze ne kazde CPU je umi... Kdezto kdyz delaji verzi pro Apple M1, tak je podpora zadnych starych CPU netizi, tim padem muzou naplno vyuzit celou jeho instrukcni sadu. Pripadne jeho neural koprocesor.
Použili Compute ML, takže CPU nehraje roli, podobně by to mohli pustit na Macu s Intelem (nějakém novějším s podporou Compute ML), to ostatně také reportují.
Obecně CPU je pro náročné úlohy na TensorFlow irelevantní, buď se jede čistě přes GPU nebo TPU (Google) či Neural Engine (Apple). Srovnání TPU vs. Neural Engine bych rád viděl na nějakém reálném projektu (absolutní výkon vs. per watt). Ideálně na mobilních čipech, Apple to už v praxi používá roky ("on-device AI") a Qualcomm má v čipech něco podobného.