Takže v podstatě žádné problémy nejsou.
8GB cache, pokud je skutečně k něčemu, problém není - a smazat to po opravě brzy půjde.
BSoD při Anti Cheatu je problém toho Anti Cheatu, že dělá nějaké zhovadilosti - a to tvůrce Anti Cheatu nejspíš taky pěkně rychle opraví.
Vidis to z pohledu domaciho uzivatele. V korporatu s tisickami virtualu a desktopu situace muze byt problematictejsi.
Tisíce jich nemám, ale 300 už na 24H2 mám (postupně od srpna, kdy se to objevilo ve WSUS). Office, SAP, ProfiBanka - žádný problém. Zbývá mi jich asi 150, ale některé nemají podporovaný hardware a některé sice ano, ale ještě byly instalované na MBR. Ty budou potřebovat individuální přístup.
Virtuály jsou paradoxně jednodušší, žádné odchylky hardwaru.
11. 10. 2024, 15:17 editováno autorem komentáře
My mame pocitacu 600 tak mam trochu prehled, co aktualizace windows obnasi. Neverim, ze nekdo se 450 pocitaci skoci na novy build hned po vydani ... . Proc by to delal.
Ten build není nový, k dispozici na WSUS je od července, možná dokonce od června.
Já ale dělám upgrade 10->11, a tam není extra důvod, po 3 měsících testů, jít na 23H2.
OS, který lze shodit user-space softwarem, není problém OS?
11. 10. 2024, 19:51 editováno autorem komentáře
To zrovna nebude případ pokročilých anticheatovacích aplikací. Ta bude mít v systému určitě vlastní ovladač a pokud ne, tak téměř určitě nějakou službu, která poběží pod Local System (a ano, to problém OS, resp. Microsoftu z velké části je).
Ten anticheat předpokládám nebude user-space software, ale spíše něco na způsob rootkitu běžícího v Ring 0.
Mé systémové disky mají obvykle něco kolem 70 GB. Pardon, ale v tomto případě víc než 10 % objemu mi přijde jako celkem dost.
Tak my to víme z vašeho vztekání se pod články, kde vysvětlujete, že je divné, když má má někdo novější CPU než 12 let. Ale je rok 2024 a já netuším, proč by měli lidé chtít mít dvakrát méně HDD kapacity, než RAM.
Uz si slysel o partisnach? On si totiz nekdo treba koupi 2TB disk a pro system da 50GB, protoze zbytek chce oddelene na data...
Mezi běžnými uživateli téměř nikdo a pokročilý/profesionál by měl vědět co a proč dělá. Ruku na srdce, v minulosti se oddělovalo /home /usr /var /tmp …. a dnes už to není úplně běžné (min. na laptopech a desktopech), protože to pomalu ztrácelo smysl. Svět serverů nechme být.
U výkonných pracovních stanic (kde to má smysl) se používají oddělené disky, protože OS + SW může běžet na libovolné šunce, kdežto pracovní „scratch“ disk budou procesory a grafická karty paralelně zaměstnávat dlouhé hodiny. Ne každý disk to ustojí (800-1200 MB/s). Stejný případ, jako u servery (individuální přesně dle požadavků).
Rozdělení jednoho disku bych opravdu neřešil.
12. 10. 2024, 23:52 editováno autorem komentáře
Zas tak zanedbatelné to není - ve firemních nasazeních pro příklad uvažte třeba VDI infrastrukturu... Tam už x-krát 8GB vidět být může a za jistých okolností to může i způsobit reálné komplikace.
Jako není to nějaká vyložená tragédie a senzace, ale zároveň bych to ani neshazoval jako úplnou maličkost...
Pokud nebudou data šifrovaná, tak to nejspíš vyřeší deduplikace diskového pole.
Nicméně .... já bych to vnímal jako bug, který bude opraven. Pokud je to něco o čem se ví, tak je na každém zda je to pro něj blocker a počká si na opravu, nebo má prostředků dostatek a aktualizaci přesto udělá.
I u šifrovaných dat to může pomoci, pokud začínáte s jedním (šifrovaným) obrazem, který se až po aktivaci začne měnit... Jenže to dlouho nevydrží.
Marně přemýšlím, co to, s prominutím, plácáte. Jednak si mě nejspíš s někým pletete, já pouze píši, že běžné vyvíjím na cca deset let starých CPU a bez problémů k tomu stačí, a druhak drtivá většina uživatelů ani dnes nemá ani těch 32 GB RAM, takže by mě fakt zajímalo, o čem to vlastně hovoříte.
13. 10. 2024, 00:22 editováno autorem komentáře
Ja už nejakú dobu vôbec netuším, koľko mám voľného miesta na disku. Je to také fuzzy. Zrazu mám plný disk, musím mazať programy, potom sa zas záhadne zjaví par giga...
Postupom času sa mi tam zmestí čím ďalej tým menej aplikácií...
Jo s tim zjevovanim par GB mam taky problem. Deje se to doslova pod rukama. Snad nekdy prijdu na to proc?
A vy ještě nepoužíváte SSD disky? Já tedy nejsem profesionál, ale mám léty zažité, že SSD se nezaplňují až na doraz. Tak jako se reproduktorové bedny nedělají z plastů. :-)
Ne tohle je systemovy disk a ten mam plotnu.
To je presne takova vec kdy zkratka nemate chut do toho jit. OS my najednou oznami ze ma malo mista, zacnu to resit a zjistovat co zabira misto a najednou je mista dost. No tak si povzdechnu a jdu dal. Ono se to znova za mesic ozve.
Popravdě jsem přestal vnímat obsazenou/zbývající kapacitu disků, což je dáno jednak dostupnou kapacitou, tak striktním dělení – systémový, data, scratch, včetně toho domácího všeuměla, který dostal do základní výbavy 256 GB (OS), 2 TB (Data) + 28 TB (SAN) diskové pole, které pojme moje oblíbená videa (převážně dokumenty, válečné záběry a další nenahraditelné skvosty dokumentaristiky + zálohování). Na hry už dávno nemám čas a sem tam si pustím Anno, Diablo a Settlers, na což mi stačí 2 TB datový disk. Laptop s jedním diskem neřeším vůbec, protože 512 GB – 1TB je více než vůbec potřebuji, přes VPN si připojím cokoliv. No vlastně tam mám své oblíbené Monty Pythony, Black Adder, Red Dwarf … pro případ nudy (zatím nenastala).
Prakticky nic nemažu, prostě nemám potřebu vůbec řešit disky, natož 8 GB…
Děkujeme za diskovou masturbaci, ale jak to pomůže těm uživatelům co tu jedou na hraně a volné místo se jim mění samovolně pod rukama?
Neřeším to. Důvodů, proč nesáhnout po vyšší kapacitě mnoho není, tedy alespoň ne těch objektivních jako pájené disky, bezpečnostní omezení (např.: banky) apod. zase tolik není. Vlastně většinou jde o obyčejnou lenost a provozování národní sportu stěžování si na cokoliv, tak či onak vyjde to na stejno.
Nepřekvapivě používáním data narůstají a disky se plní. Debaty zpravidla končí tím, že začnou padat důkazy „co když“.
Pro IT neexistuje problém, který by se nedal vymyslet.
12. 10. 2024, 09:01 editováno autorem komentáře
Jenže většina lidí nejsou z oboru a netuší jaký je rozdíl mezi RAM/SSD/HDD. A co s tím mají dělat, pokud se jim "něco" zaplní. Není to bez nástrojů a znalostí úplně triviální vyměnit disk.
Když vám auto začne třeba blbě brzdit, taky by jste si mohli vyměnit sám brzdové desky, ale máte jistotu, že to je onen problém a zvládnete to taky za 20 minut jako zkušený automechanik?
A jste si to jist, že jste schopný rozlišovat lenost a nechuť řešit problémy, které jsou naprosto zbytečné? Já si tím jist tedy fakt nejsem.
měl jsem tu možnost to teď vyzkoušet, naformátováním disku se obsazené místo zase uvolní, pak je možné nainstalovat nějaký rozumný systém.
Btw, ono už i ve firemním prostředí mají někteří dost Windows, čím dál častěji většina naší (obecně) práce je v nějaké webové aplikaci či v něčem, co jen webovou aplikaci obaluje. Windows ztrácí přidanou hodnotu a ubývají aplikace, pro které to byla nutnost.
To co předvádí MS v posledních letech mě spíše zvedá žaludek, úplně se ztrácí kontrola nad systémem (to myslím ve firemním prostředí). Dříve mi stačilo 20 FW pravidel pro Windows služby a věděl jsem, která a jak komunikuje, dneska vidím, že flotila Windows stanic má dohromady 2000 IP adres, na kterých komunikují s MS a do toho nepočítám nástroje jako Teams aj. To je prostě neuhlídatelné.
Tak my mae zakaznika ktery ma nekolik vdi hostu a na kazdem ma 500-2000 virtualu. Tech 16TB navic u hostu s 2000 virtualy je znat… ne vse se odehrava doma a tohle muze byt v korporatu problem…
Mě se fakt líbí tahle manipulace pomocí dostatečně velkých čísel.
8GB je možná tak maximálně 0.1%. Ano, vynásobením libovolně velkého čísla dostaneme další velké číslo. Ale jestli má někdo problém s nárustem o 0.1% a ještě se tím chlubí v diskusi, tak je to známka něčeho hodně nepěkného.
Nehledě na to, že na těch virtuálkách musí být volné místo a za druhé, bez dostatečně velkého volného místa ty widle ty aktualizace ani nenainstalují.
Tady je otazka, na kterou neznam odpoved, zda tech 8 GB bude znamenat nemoznost aktualizace, protoze najednou mam tu rezervu pro aktualizace o 8 GB mensi a da se cekat, ze zdaleka ne kazdy ji na svych (nejen) virtualech drzi nejak extremne velkou. Asi bude zalezet, jak se MS postavi k oprave a jake aktualizace v mezitim vyjdou.
Delame z toho prusvih serverovy, ale nevim, jestli tohle neni vetsi prusvih pro ruzne notebooky nebo tablety s malym ulozistem, at nechodime daleko od pachatele, treba pro 64GB modely Microsoft Surface, tam si nikdo zrejme velke rezervy nedrzi.
Typický disk našich virtuálek má 64 GB, to znamená, že 8 GB je 1/8, tedy 12.5 % disku.
Obvyklá zaplněnost je cca 50 %, často méně (podle instalovaných aplikací). Ale ano, při aktualizacích by to mohl být problém.
O to větší, kdyby nenastal na všech strojích - to je právě jedna z věcí, které se špatně detekují (pokud o nich nevíte), dějí-li se jen u nějakého procenta strojů..
Typický disk našich virtuálek má 64 GB, to znamená, že 8 GB je 1/8, tedy 12.5 % disku.
Pro Windows 11? Moje desktopové C:\Windows má 40GB.
O to větší, kdyby nenastal na všech strojích - to je právě jedna z věcí, které se špatně detekují (pokud o nich nevíte), dějí-li se jen u nějakého procenta strojů..
To je přece úplně jedno. Virtuálky mají přidělenou nějakou kapacitu a pokud to admin přidělil rozumně, tak si zabrání místa 8GB na grafech vůbec nevšimne a vůbec ho to nemusí zajímat.
Těch 64 GB je v zásadě kompromis: původně to mělo být 80 GB, aby se tam pohodlně vešly požadované aplikace, uživatelské profily, a podobně, jenže statisticky na tohle vše stačí mnohem méně místa, takže bychom měli serverovnu plnou prázdných disků
. Čili se zvolila hranice 64 GB, což v drtivé většině stačí (stačilo!) i na pohodlné aktualizace/upgrady.
Jak píšete: zabrání 8 GB si admin obvykle na grafech vůbec nevšimne
. ;oD
Tady je hlavní zádrhel v tom, že jak se to místo nečekaně zabere, tak se i nečekaně uvolní - takže začnete řešit nedostatek místa, hledáte, kdo to sežral
- a mezitím je už zase vše v pořádku.
takže začnete řešit nedostatek místa
Ne nezačnu, protože těch 8GB na tom grafu ani neuvidím. Zábor 8GB nezpůsobí žádný alarm, nezpůsobí vůbec nic*. Něco jako 8GB mě naposledy zajímalo v roce 2008. V roce 2012 jsem měli minimální velikost virtuálek 128GB a inkrement pro navýšení místa také 128GB (prostě 128GB byla nejmenší alokační jednotka). Do roku 2014 byla standardní velikost cca 512GB. Proč se v roce 2024 řeší 8GB? A to ještě na desktopových Windows?
*) Protože kdyby to mělo způsobit alarm, tak to znamená, že při běžném provozu ten technik neustále řeší věcí způsobené nevhodně nastavenými limity.
Podle mne by také bylo lepší alokovat na systém zhruba 100 nebo 128 GB, ale ve chvíli, kdy těch virtuálek jsou stovky, ne všechny trvale používané, a (rekurentní) interní náklady na diskový prostor nastavené vysoko, řešíte spíše dilema: použiji poloviční velikost disků nebo polovině žadatelů odepřu virtuálku
.
Žel, není to vždy s těmi disky tak jednoduché, že prostě nakoupíte, kolik je potřeba - zvláště v korporátu to bývá složitější.
Thin provisioning samozřejmě řeší to, že je využité jen místo, které je reálně alokované z virtuálů (guestů). Ale pokud z každého virtuálu zaalokuji řekněme 8GB navíc, tak se to prostě sečte, TP s tím nic neudělá, pokud by tam nebyla navíc nějaká další vrstva pro dedupikaci.
Jiná věc je to, že pokud někdo řeší vzdálené virt. desktopy v trochu větším měřítku (desítky a víc), tak má s největší pravděpodobností nějaký VDI systém (Horizon, Citrix, Azure Desktop atp.). Nebude to "jen" klasický hyprevizor s menším množstvím v zásadě identických, ale manuálně nastavených virtuálu a RDP přístupem.
VDI systémy mohou řešit spousty věcí navíc včetně toho, že mají typicky nějakou formu spojených klonů, kdy je tam pro každý VD nějaká základní image se systémem a programy a pak nad tím overlay s persistentními uživatelskými daty.
V tomhle případě se pak všechny aktualizace provedou (jen jednou) do základní image, což je samozřejmě rychlejší, dá se to jednoduše ozkoušet a nezabere to tolik místa.
Ta fíčura s rozdílovými aktualizacemi (oproti nějakému většímu balíku na klientovi) je v preview kanálu Windows už několik měsíců. Navíc se sice tady rozběhla košatá diskuse, ale pro většinu uživatelů i adminů bych spíš řekl, že je to tak trochu "netéma" :)
Neresim 8GB krat 600 virtualu, v tomhle vlaknu, resim to, ze maji na virtual 80GB, ze kterych vetsina vyuzije polovinu - pri thin provisioningu by jim klidne tech 200 GB mohli dat, protoze na storage to nezabere nic navic, a pritom kdyz by nejake jednotky virtualu potrebovaly vic, neni to problem. A nemeli by, cituji, "serverovnu plnou prazdnych disku" :-)
Pokud jsou ta nesmazatelna data vsude stejna, coz nevim, resi to deduplikace, kterou uz dneska pouziva kazda aspon midrange storage - coz uz u takoveho poctu virtualu predpokladam.
Ono to tak přímočaré není, protože obecně mají ty systémy tendenci sežrat všechno místo, ke kterému se dostanou
- například tím, že zapisují na stále nové části disku, byť zároveň uvolňují místo po zapsaných souborech.
Projeví se to tak, že začínáte s VDI obrazem velikosti 32 GB, ale po pár měsících máte obraz prakticky o plné velikosti disku, ovšem na každém je obsazeno jen 40 GB. A pokud ty disky jsou šifrované, tak je TI problematický (a deduplikace taky moc nepomůže).
Pokiaľ VM trimmuje, tak tým voľné bloky prepúšťa naspať do obehu. Samozrejme, backing store to musí vedieť spracovať, dnešné hypervízory, resp. ich storage by s tým nemal mať problém.
OS sám o sobě má zabrat minimum zdrojů a zbývající má co nejlépe rozdělovat a řídit pro uživatelské aplikace, takže soucítím s těmi, kterým je 8GB líto. Příště to může klidně násobně víc. Proč nad tím nemá mít admin kontrolu? Už z principu věci.
Win98SE jsem měl očištěné nLitem na 50MB, WinXP na 1,5GB a tam jsem s Windows skončil, protože s tím co tam MS dělá si nepřipadám jako správce, ale jako zneužívaný otrok.
A teď s prostředky, paradoxně zápasím už i v Linuxovém světě. Ale zatím ještě vidím možnosti, jak v tom vykličkovat.
V jedné školičce (pouze MŠ a první stupeň) mám smečku počítačů, které mají 80GB SSDčka.
Doba flatpaková se s tím moc nemazlí a žere a žere. Rád bych to vymyslel tak, že ty Flatpakové věci budou ukládány na sdílený síťový disk a část lokálního disku by byla použita jako vyrovnávací cache pro ten síťový disk.
Na síťovém disku můžu mít např. BTRFS a každý komp tam může mít svůj subvolume s COW. Díky deduplikaci pokryju, odhadem 95% dat.
Ad: Win98SE jsem měl očištěné nLitem na 50MB, WinXP na 1,5GB a tam jsem s Windows skončil,
Někdy kolem roku 2000 jsem provozoval záchranné CD
o běžné kapacitě 700 MB, které umělo nabootovat do DOSu (7.0 = Win95), Windows 3.1, Windows 95, Windows 98, nebo Windows NT 4.0 (asi by se tam vešly i Windows 2000, ale ty se teprve musely vylíhnout.
Mrzí mne, že časem se to médium stalo nečitelným (takže mám image jen od předchozí vývojové verse, kde je jen Win95 + WinNT), protože tenkrát jsem se musel vyrovnat nejen s velikostí, ale také s nutností startu z Read-Only média.
Holt, na moderní Windows 11 by asi byl potřeba dvouvrstvý přepisovatelný BluRay disk - a to kdo ví, jestli. ;oD
Taky jsem používal servisní CD, vyrobené pomocí Bart's PE Builder.
Měl jsem tam 3 systémy. Na něco šlo použít Hiren's boot CD.
Některé utilitky, byly docela unikátní. Třeba nízkoúrovňové formátování disku, nebo HDD regenerátor.
Ale jak jsem přešel na System Rescue CD, tak už jsem tyhle Windowsoidní CD moc nepotřeboval.
A dnes kralují nástroje jako Ventoy.