Já to pochopil tak, že je to pořád stejné jako u předchozích generací. Místo CUDA má Intel své OneAPI.
Tady jen zmiňují, že pokud máš aplikaci, co používá PyTorch a je primárně vyvinutá na provoz s CUDA zařízeními a používá třeba rozšířené modely, tak s použitím jejich knihovny https://github.com/intel/intel-extension-for-pytorch
a malou úpravou by to mělo* běžet s optimalizacemi na Intel GPU a CPU.
*) nezkoušel jsem prakticky nic porovnávat ani portovat z CUDA na OneAPI, setkal jsem se jen s podobným projektem, kdy se víceméně u hotové věci rozšiřovala kompatibilita z NVIDIA karet také na AMD, a bylo to pro vývojáře docela peklo. Jedna věc je, že se něco spustí a projde testy, druhá pak případná optimalizace, aby to dobře chodilo s porovnatelným výkonem.