Hlavní navigace

Teplota CPU 95 °C se stává novou normou, zda je to rozumné, ukáže až čas

17. 3. 2023
Doba čtení: 9 minut

Sdílet

 Autor: Depositphotos
I procesory s nejlepším poměrem výkon/spotřeba umí dnes být extrémně žhavé. Trend je patrně neodvratitelný, naskočili do něj po Intelu i ti, kterým čipy vyrábí TSMC 5nm procesem, AMD či Apple.

Historicky jsme tu měli (když pomineme úplný pravěk) třeba procesory třídy 80386 a 80486, které používaly klasické pouzdření často bez nutnosti přídavného chladiče. Plocha čipu byla relativně větší, avšak frekvence nízká, takže i navzdory vysokému napětí nedocházelo k tak radikálnímu ohřevu částí CPU, zejména když si vzpomeneme, že významná část toho, co dnes je v CPU, byla tehdy mimo něj (L2 cache, řadič RAM, řadič sběrnic, grafické jádro, matematický koprocesor atd. atd. atd.).

Postupem let se nejen integrovaly další prvky počítače rovnou do procesoru, ale rostly frekvence a zmenšovaly se tranzistory. Přišly procesory jako Pentium III a Athlon, které už odhalovaly zapouzdřený čip světu, pro nějaký rozumný přenos tepla do chladiče.

To ještě byla doba, kdy se TDP procesorů pohybovalo kolem 35 až 80 W. Nic, co by nešlo uchladit běžnou hliníkovou kostkou, i kdyby na ní měl sedět ventilátorek s mnoha tisíc otáčkami za minutu (též přezdívaný „komár“ – kdo dnes vzpomene legendy jako Thermaltake Dragon Orb 3).

Později přišly chladiče s 80mm ventilátory, jako legendární Titan D5TB, které značně ztišily chlazení jinak hladovějších Athlonů či Duronů. Jenže do příchodu větších chladičů s heatpipe bylo ještě daleko, takže doba nám zrodila šílené kompromisy jako CoolerMaster X-Dream (HAC-V81) s 80mm ventilátorem o 4800 otáčkách, jehož provoz lze přirovnat snad jedině k Pratt & Whitney J58, legendárnímu motoru, který poháněl nejrychlejší vzduch baštící letoun, Mach 3.2 stroj Lockheed A-12. Ale to odbočuji.

Nároky na chlazení rostou

Zkrátka už před dobrými 21 lety (zhruba doba po uvedení Athlonu 1400) jsme věděli, že máme problém a roste náročnost procesorů na chlazení. Chvíli se vývojářům výrobních procesů potě dařilo kompenzovat výkonově požadavky zefektivňováním procesorových architektur (že se to pak v roce 2018 vymstilo, by nemělo býti opomenuto) a samozřejmě pokrokem v technologiích, ale toto zlaté období kolem rychlého poklesu mezi 180 → 130 → 90 → 65 → 45 → 32nm procesů netrvalo ani 10 let a vědci narazili na limit, který se jim opět podařilo ošálit, a to pomocí přechodu od planárních k FinFET tranzistorům (poprvé Intel s 22nm výrobou generace Ivy Bridge na přelomu 2011/2012).

Velmi rychle ale opět došlo k nárazu na další limity, kolem generace 14nm procesu Intel, resp. 14/12/10nm procesu TSMC (a ekvivalentu u Samsungu) se opět narazilo na limit a začal boj o to, kdo dříve obejde výrobní omezení zavedením EUV litografie (zde, jak už víme, Intel ztratil svou vedoucí pozici).

Zkrátka možnosti došly, GAAFET (TSMC) / MBCFET (Samsung) / RibbonFET (Intel) nás hned tak nespasí, pokud vůbec, protože jsme došli na okraj cesty: i kdyby bylo možné vyrobit procesorové x86 jádro třeba 2nm procesem GAAFET, pořád bude platit, že se po tomto jádru chce ~6GHz pracovní frekvence a co nejmenší plocha. To vše pak ale znamená, že máme produkt extrémně malý, na extrémně vysoké frekvenci, u kterého je fyzikálně nemožné na stávajících materiálech odvádět teplo tak pozvolna, jak tomu mohlo být třeba v éře 80486.

Nastupuje surfování na hraně smrtelné vlny

Nebojte, už se k pointě blížíme. Nesmíme ale zapomenout, že hlavním motivem za všemi inovacemi je za prvé kapitalistická snaha o co největší zisk při co nejmenších vynaložených nákladech na R&D – proto se Intel tolik let držel čtyřjádrových CPU, když jej konkurenční AMD netlačila výš. Díky tomu, že se AMD vzchopila a TSMC rychle dohnalo a předehnalo ve výrobních procesech Intel, musela procesorová jednička chtě-nechtě navyšovat počet jader a začít hledat metody, jak z nich ždímat maximum možného výkonu.

Tam, kde kdysi procesory běžely prostě na nějaké frekvenci a nedělaly rozdíl mezi plnou zátěží a klidovým stavem, přinesly mobilní procesory Intelu někdy kolem generace Pentií 3/4 změnu a zavedly nižší takt pro klidový stav (AMD věc přinesla tuším s pozdějšími procesory Athlon XP i pro Socket A). To bylo circa před 20 lety. Circa před 10–12 lety začaly přicházet ve větší míře procesory (i GPU), které byly schopné provozovat své výpočetní prvky na vyšší než standardní maximální frekvenci. Zrodily se Turbo takty.

Zejména Intel vývoj tohoto aspektu hodně posouval (a nakonec mu s ohledem na příchod Ryzenů nezbylo nic jiného, než na tom postavit řadu budoucích produktů). Rodily se tak běžně využívané PL1 a PL2 limity chodu. Nejprve jsme tu měli PL2 limit po přesně stanovenou omezenou dobu (tau limit). Pak inženýrům v Intelu konečně u managementu prošla logická úprava chování CPU.

Je to letitá otázka, kterou si kladu: proč, když jsme schopni dobře monitorovat i lokální teplotní a proudové extrémy v CPU jádrech, omezovat nějakým uměle stanoveným limitem jejich provozní parametry v rozmachu? Pokud jsme schopni určit, jaký je teplotní limit CPU pro dlouhodobý běh nezkracující životnost, pokud jsme schopni dobře tento limit uhlídat a pokud jsme schopni se základní deskou a zdrojem zajistit přísun vhodného množství ampérů, proč prostě nenechat běžet CPU jádra na maximu možného, tedy v situaci, kdy uživatel a jeho aplikace potřebují maximální výkon, tento výkon nelimitovat jinak než mantinely chránícími před poškozením CPU (teplota a s ní související current leakage – jak dobře ilustruje autor v posledních minutách následujícího videa)?

Zrodilo se tak něco, co fanoušci AMD na adresu Intelu komentují jako „utržení ze řetezu“. CPU Intelu mohou mít klidně nálepku „TDP“, dnes zvanou Processor Base Power na hodnotě třeba 150 W (údaje jsou pro Core i9–13900KS) a k tomu to, co jsme dříve znali jako PL2 limit, dnes zváno Maximum Turbo Power s hodnotou 253 W. A do toho ještě vybrané vyšší motherboardy výrobců, které klidně pustí CPU zcela mimo limity, kdy se opravdu spoléhá na vnitřní monitoring CPU, že si ohlídá, aby nedošlo k poškození. Ano, CPU v takové situaci konzumuje klidně přes 300 W, nicméně poskytuje maximální možný výkon.

Teplo bude limitem procesorů i nadále

Protože upřímně: proč limitovat CPU na nějakou nižší hodnotu teploty/odběru, pokud to povede pouze ke skutečnosti, že složité zpracování 100 fotografií danému uživateli neproběhne za 8 minut, ale za 10 minut a procesor stejně bude trpět na lokální přehřívání dílčích prvků CPU jader, protože ty jsou zrovna maximálně vytížené.

Krásně toto vysvětluje Mark Gallina, Senior System Thermal and Mechanical Architect v Intelu, v rozhovoru s der8auerem na jeho anglickém YouTube kanálu.

Povšimli si toho totiž i mnozí recenzenti na nových Ryzenech od AMD. Jakkoli jsou ty procesory extrémně úsporné, oproti Intelovým i o desítky procent (díky 5nm FinFET výrobě u TSMC), jejich provozní teploty se zkrátka šplhají k mezním 95 °C (Intel používá u svých procesorů, vyráběných aktuálně procesem Intel 7, mezní limit 100 °C). Mark vysvětluje, proč to vlastně nelze dobře vyřešit, že narážíme na limity tloušťky substrátu, na kterém je procesor vyroben, že narážíme na limity přechodových materiálů jako pasty/pájky mezi CPU die a heatspreaderem a také pasty či tekutého kovu mezi heatspreaderem a chladičem na CPU.

Vysvětluje také, proč a jak Intel využívá v řízení provozu CPU i časový faktor, kdy elektronika ví, že může pustit jádro nad mezní limit, pokud je dostatečně chladné a nad mezní limit se přehřeje až za řekněme pět sekund, tak čtyři sekundy může strávit v běhu nad mezním limitem a poté opět zvolnit.

Je to takové surfování na hraně průšvihu a až čas ukáže, jestli to má vliv na životnost CPU (totéž platí i pro AMD a její optimalizace jako Precision Boost Overdrive / PBO). Živě si pamatuji, jak jsme před 11 lety na DIIT znectili Intel za to, že jeho Ivy Bridge nepředstavuje oproti Sandy Bridge zásadní posuv, z přechodu od 32nm planární na 22nm FinFET výrobu nevzešel zásadní posuv vpřed a ještě navíc Intel nové procesory ošidil použitím teplovodivé pasty místo pájeného spojení heatspreaderu s CPU die.

Dnes bych se skoro i šel do Intelu omluvit, protože byť levná teplovodivá pasta opravdu znamená horší přenos tepla do chladiče, ukázalo se jinak historicky, že nejde o zásadní problém překážející dlouhodobému užívání těchto procesorů, jen poměrně dosti limitovala možnosti přetaktování a současně vedla kvůli vyšším teplotám k hlučnějšímu chodu ventilátorů na chladičích. Pravdou je, že Intel se nakonec k pájenému spojení CPU die s heatspreaderem vracel, čímž eliminoval výtku k teplotnímu gradientu, nicméně tím znovu vyvstal problém, který pastou zkoušel řešit: lámání pájeného spojení v souvislosti s tepelným (či i mechanickým) namáháním CPU v dlouhodobém horizontu. I o tomto Mark ve videích mluví a je to rozhodně aspekt, který bude zlobit i v nadcházejících letech.

Zkrátka a dobře, zatímco dříve limitovaly výrobce procesorů spíše možnosti křemíku, resp. spínání tranzistorů v procesorech, dnes je více limituje odvod tepla. Teoreticky by mohl existovat procesor aktuální generace Intel Raptor Lake, který běží ne na 6,0, ale na 6,5 GHz. Jeho spotřeba by nebyla až 350W, jako spíše třeba 500W. Ale něco takového prostě u rozměrově malého čipu nelze uspokojivě chladit ani vzduchem (gradient od CPU die k chladiči je prostě k řekněme 20 °C pokojové teploty), ani vodou (stejný gradient, možná efektivnější odvod tepla), ale jedině nějakým řešením snižujícím teplotu oproti okolní (v době Athlonů populární Peltierův článek, či nějaké mrazící chlazení). Teoreticky je to možné, overclockeři to používají dnes a denně, ale pro běžné užití je to naprosto nepraktické.

Zvykněme si

Pokud tedy výrobci CPU budou nadále dohánět výkon aplikováním stále precizněji laděného automatického přetaktovávání (což všechny ty Turbo či PBO režimy ve své podstatě jsou), pak si musíme zvyknout na vyšší provozní teploty. Ostatně jak Mark výše ve vidu zmiňuje, to že dané CPU jádro reportuje svoji teplotu jako například 98 °C, je hodnota v místě čidla, které je prostorově – byť maličko – vzdáleno od místa daného teplotního zdroje, takže reálná teplota CPU jádra bude ještě vyšší. A není to jen otázka Intelu, i AMD už na tento mantinel narazila. Proto mají vyšší Ryzeny 7000 možnost používat vyšší TDP a proto běhají na nezvykle vysokých teplotách v zátěži. Není to chyba, je to vlastnost daná současným nastavením celého segmentu, konkurenčního boje i fyzikálními limity používaných materiálů ve výrobě.

Mimochodem nejde o nový problém. Když odbočíme z CPU světa, tak mohu vzpomenout rok 2008, kdy jsem testoval nový 55nm Radeon HD 4850 s referenčním jednoslotovým chladičem a stále si pamatuji, jak byla tato karta žhavá, GPU za běhu atakovalo extrémně vysoké teploty. Totéž platilo i pro 80nm Radeon HD 2900 XT v roce 2007, ale tam šlo o souběh více příčin.

UX DAy - tip 2

Výše jsme se zaobírali víceméně jen klasickými desktop CPU. V mobilním segmentu notebookových procesorů jde samozřejmě o něco jiného, byť i tam už dorazil fenomén nárazových odběrů v násobcích TDP. Ve smartphonech výše popsané věci nečekejme, bude to vždy doména hlavně desktopů, kde není limit kapacity napájecího akumulátoru ani výkonu chladícího systému serverových šasi. I proto nejen Ryzeny dnes baští přes 230 W při teplotě 95 °C a Intely klidně přes 300 W při teplotě 100 ˚C, ale i Nvidia prodává grafické karty se spotřebou 450 W a nastavením pro 600W odběr, přičemž chystá profi karty, které si sáhnou i do 800 až 900W rozsahu. Bez této změny by v posledních letech běžela evoluce výkonu řádově pomalejším tempem.

Byl pro vás článek přínosný?

Autor článku

Příznivec open-source rád píšící i o ne-IT tématech. Odpůrce softwarových patentů a omezování občanských svobod ve prospěch korporací.