Celý článek je principiálně špatně. Naopak spotřeba klesá. Stejný kód dnes proběhne při výrazně nižší spotřebě, roste poměr výkon/příko, než před 20 lety.
Takže pokud něco regulovat, tak efektivitu software. To ale je dost nepředstavitrelné.
Samozřejmě logicky fotorelistické renderování je náročnější než pár vektorů jako na 8bit počítačích. Tedy částečně za nárůst spotřeby může i nárůst požadavků na kvalitu, nejen nižší efektivita kódu.
Ono je to spíše tak, že roste výkon a s ním i spotřeba. Ovšem zároveň s ním i narůstá efektivita. Sice to může na maximu brát 500 W, ale na druhou stranu přidávají úsporné režimy, kdy z původních 60 W to může mít dnes 20 W.
Ale jinak je to pravda. Měl jsem skoro deset let starou vykopávku co brala 230 W. Vyměnil za žihadlo s moderním procesorem a výkonnou grafikou a v běžném režimu má spotřebu 160 W. Tedy z venku pěkný nepoměr - pomalý komp s velkou spotřebou vs výkonný komp s menší spotřebou ;)
8 hodin hraní KCD ve 4k s 600W GeForce proběhne rychleji než 8 hodin hraní Half-Life v roce 1998 na 3Dfx Voodoo napájené z PCI slotu? Ano, je to potřeba na mnohé moderní fotorealistické efekty. Ale o tom by to nemělo být. Tam, kde (modelově) na 100% efektnost dané hry je potřeba 600W grafika, by na 90% efektnost stačila třeba 100W. Stojí těch 10% navíc za 500W spotřeby? (samozřejmě můžete s mými čísly nesouhlasit, jen jimi ilustruji princip, nestojí na žádném reálném měření, bavíme se ostatně o kartách, které teprve přijdou na trh).