Zajdi nekdy na FEL CVUT, ukazeme, jak nam to tam chrousta :) Jen "moje" Katedra kybernetiky za posledni 1-2 roky nakoupila cca 30 GPU na vypocty na serverech, a docela je vyuzivame.
Hlavni problem je totiz ten, ze spousta machine-learning frameworku se nechala zlakat na cukrlatko jmenem CUDA, a OpenCL jim zatim prilis nerika... Takze AMD se v tomhle segmentu trhu muze jit klouzat (nebo muze "darovat" vyvojare Googlu, aby to doimplementovali do Tensorflow :) ).
A ano, 30 karet za 1-2 roky se muze zdat malo, jenze nVidia zrejme vycitila, ze prave na tomhle segmentu trhu muze relativne snadno prodavat ony 5-10x drazsi modely, nebot vyzkumne instituce si tu investici vzdycky nejak ospravedlni, pripadne na ni vzdycky nejak napasujou grant... A to nemluvim o "GPU computing as a service", treba od Amazonu atd. Kolega ze SpaceKnow rika, ze bezne pousti uceni neuronek, co bezi tyden na desitkach, a nekdy i stovkach karet (maji nejaky specialni kontrakt s providerem, takze je to ve vysledku nestoji vilu na Bahmach mesicne). To uz asi nVidie pozna, jestli od nich Amazon bude kupovat Titany nebo Tesly :)