Kazdy compute i graficky kernel prochazi "optimalizatorem" - to, ze drivery maj pul giga, je z duvodu toho, ze tam proste dnes uz maj nasyslenou obri databazi vsech shaderu, ktere pouzivaji vsemozne hry, protoze to bylo nutno opravit - at uz proto, ze to nefungovalo, nebo proto, aby to bylo vykonnejsi.
Takze zatimco aplikace (hra) si mysli ze si pousti svuj kod, tak na grafice bezi jinej kod (taky v zavislosti na tom, na jake karte to je). A podobne je to u cinknutych benchmarku - neni problem ze strany driveru rozpozat o co jde - a patricne tomu upravit beh.
Tento rozpoznavaci a patchovaci engine jde velice jednoduse nasadit k tomu, aby matchoval kernely pouzivane minerem, a nikdo nerekl/nepriznal ze strany NV, zda uz v te databazi shaderu tyto kernely nahodou nejsou, aby na nich provadeli sve upravy/optimalizace, ktere se ted zvrtnou v deoptimalizace.
Navic do driveru ani primo do karty uplne nevidis, takze kdyz karta detekuje dlouhodobe vysoke vyuziti 24/7, tak se podtaktuje na 50% a neudelas s tim vubec nic :) V pripade, ze se deoptimalizuje shader tak to resi driver, takze tam by asi byla nejaka moznost, ale jakmile si takovou statistiku zacne ukladat primo karta, tak to pujde jen velmi tezko obejit.