Hezký stroj, můj poslední Power Mac byl G5. Přiznejte se, je tu někdo, komu nestačí výkonem základní M2?
P.S. Zas to "zvící" (teď už je z toho dokonce příčestí, hezká evoluce na příslovce vzniklé ze substantiva) :) Asi to fakt chce nějakého editora, na chybné přechodníky už jsme asi zvyklí, ale tohle je jiný level.
Tak to prrr, už Galaxy S4 měl před 10 lety FullHD displej. Od té doby jsme se, krom vlajek, nikam moc neposunuli. Zase bych tady úplně nevytahoval rozlišení, které měly symbianové Nokie někdy v 17. století. Nějak opravu oproti roku 2013 a 1080×1920 nevidím 10x nárůst, natož 60x nárůst. Sony to se 4k displeji v mobilech zkusila a poměrně rychle z toho zase vycouvala.
Sony tam ty 4K displeje dava porad, ale 4K rezim se pouziva jen ve fotogalerii, takze wtf-lol. UI jede ve FHD, takze jsou na tom se 4K hur nez uzivatele samsungu s 1440x2560.. kteri si muzou dovolit fullres UI.
V mobilech to 1080p je fakt zlo - clovek si chce poridit nejaky highend za tricet a namisto QHD mu daji 120p FHD jenom - stejne pixelu jako v basic modelu za tri litry.
A k čemu by tam to 4K vlastně mělo být dobré? Zdravý lidský zrak (který nemá zdaleka každý) má rozlišovací schopnost kolem jedné úhlové minuty (tedy podle těch optimističtějších zdrojů, některé uvádějí horší). Tak si zkuste spočítat, z jaké vzdálenosti byste se na ten smartphone musel dívat, aby vám nestačilo 1920x1080.
2RDa: ... koukam ze pan je hifista, ti si taky pochvalovali 64kbit MP3 a tvrdili, ze skopirovany CD hraje hur nez original ...
Tzn rozdil nepoznas, protoze nemuzes. Je to zcela mimo tvoje fyziognomicke moznosti. Jina vec je treba to, ze typicky je treba video s tak nizkym bitrate, ze o nejakem HD nemuze byt vubec rec.
Bohuzel poznam i mp3 (v 192), kdyz je v poradu narocnejsi pasaz - psychoakusticke modely nejsou ekvivalentem pro vsechny uzivatele, ale jakymsi obecnym prumerem. Stejne jako RGB s tremi primarnimi barvami nepokryje gamut oka, nebo to, ze nekteri jedinci jsou vsimavejsi na blikani obrazu.
Chapu, ze vas irituje, byt pouhym prumernakem, jednim z velke sedive masy - kdyz pak existuji lidi jako ja, kteri pri pouzivani zarizeni poznaji rozdil mezi FHD a QHD, na 6" zarizeni. Dokonce poznam rozdil kdyz tam vyrobce nasadi fejk subpixely - veci spojene s obrazem jsou muj obor.. takze holt jsem na to hodne vysazenej.
Prrr proto, že tady hlásáš cosi o 60násobku bodů. Najednou je z toho 13násobek? Ale i kdyby ne, v principu nic softwaru nebrání využívat něco naplno. Ty Galaxy S4 taky uměly 1080p video, čili nativní pro své LCD. Jestli hry nejely takto naplno? Noa, u takové malé úhlopříčky. Nebo máš na mysli ještě něco jiného?
Záleží co porovnáváš. 320*480 vs 4k je ~57x, vs FullHD ~13x.
V principu tomu brání peníze. Pokud není poptávka, tak to nikdo nezaplatí. Pokud na to nejsou nástroje, tak to bude drahé. Pokud jsou nástroje, jsou to další vrstvy, které chtějí výkon. Pokud nejsou mezi uživateli rozšířené dostatečně výkonné stroje, tak ty nástroje nikdo nepoužije. Že před deseti lety existoval jeden telefon, který by zvládl dnešní aplikace, je tak irelevantní. Důležité bylo, co mělo 80 % populace. Ta S4 to mimochodem není. Byla by dnes stejně zasekaná jako současné lowendy.
Hry jsem vůbec nezmiňoval, ale když už si je vytáhl, tak dnešní AAA hry jsou s těmi před 10-15 lety úplně neporovnatelné.
Video bych do toho netahal, protože to je dost specifický případ. To se akceleruje na GPU a ani 4k nepotřebuje nějak závratný výkon CPU, aby ten stream do GPU natlačil včas. Spousta věcí ale akcelerovat nejde.
On ten stav tu je už ne 10, ale 20 let - cca 2002/2003 jsem měl LCD, zdaleka už ne jako novinku a raritu, které mělo nativní rozlišení 1600x1200 (a předtím CRT se stejným rozlišením - mělo 19" a to rarita byla - byl to monitor vyřazený z konstrukce, kde se používaly CAD nástroje, to bylo závisti u spolužáků). Tedy nárůst rozlišení 1.08x v případě dnes běžného FHD. Už v roce 1998 jela většina PC na rozlišení 800x600, což je 4.32x méně pixelů a i 640x480 je jen 6.75x méně. 60x méně pixelů znamená rozlišení 214x160, což se dostáváme do doby osmibitů ještě o 10 až 15 let dříve, tedy dobu 35 až 40 let zpět.
Takže nepřeháněj ;)
6. 6. 2023, 12:09 editováno autorem komentáře
2byCx: Jediny rozdil bude spocivat v tom, ze ty widle pofrci ze? A stejne tak dobove aplikace jejihz soucasnici casto neumi o nic vic, jen pouzivaji o par radu dementnejsi frikulinske technologie a tudiz potrebuji pro exaktne totez radove vykonejsi HW ze?
Kuprikladu takovy vypocet mezd na i386 trval rekneme minutu per osoba, Myslis si, ze dnes na o (minimalne) 3 rady vykonejsim HW je to rychlejsi? V lepsim pripade to trva presne stejne dlouho.
Začal jsi porovnávat rozlišení, ne výpočetní výkon toto rozlišení obsluhující. A už vůbec ne uživatelský dojem.
Mimochodem, pustil jsem si nedávno Win98 na stroji z té doby a musím říct, že rozdíl je propastný - i když pominu barvičky a tak, tak všichni, kdo tvrdí, jak to krásně chodilo, tak si to jen nepamatují.
6. 6. 2023, 15:37 editováno autorem komentáře
Já bych až tak příkrý nebyl, to byly HODNĚ speciální modely od IBM (a ještě iiyamy či koho?), které vyžadovaly snad dva vstupní signály, které skládaly. Spíš by bylo v tomto kontextu zajímavé kostatovati, že 21"22palcovéí Trinitrony / Diamondtrony dávaly 2048x1536 taky hóóódně dávno, a ty narozdíl od tohohle byly běžně dostupné za ceny nerovnající se cenám nemovitostí na Praze 6.
Kdyby aspoň šlo o aplikace, které pustíš a po práci v nich zavřeš. Jenže ony jsou většina permanentně spuštěných ikon v traybaru (Teams, Messenger, Discord, Spotify, Steam, Epic Games Store, GOG Galaxy, EA app, Battle.net, ...). Každý stovky MB, když v nich "pracuješ" (čteš texty, občas obrázek), tak takový Teams i přes 1 GB.
Ale jo, lokalni odchylky jsou. Koupi se nove CPU, Office startuji rychleji. Pak vyjde nova verze Office (aka firma mi vnuti novou verzi) a zas to jede pomalu. Pak se koupi novy ntb, jede to rychlejs, pak prijde nove windows s novymi Office a zase jsem tam kde jsem byl. 20 let. Zadne vyrazne zrychleni. Cekal jsem 20 let zpatky, cekam dneska.
Nejhorsi je, ze porad pouzivam ty same funkce, protoze pouziti jakychkoliv vyssich funkci (styly) je zadupano do zeme prvnim urednikem ktery ten muj dokument pouzije, predela a pak mi ho vrati zpatky. Pripadne jakekoliv vyssi formatovani se zlikviduje pouzitim jinych verzi office od kolegu z evropy.
Jestli mate pocit, ze jsem ponekud z Office frustrovany, pak ano, mate pravdu. Hlavne tim, ze to musim pouzivat.
Dava to smysl, M1 a M2 jsou dobre CPU, na rozdil od Power - kde davali oklesteny super vykonny CPU, ktery byl slaby v porovnani uplne se vsim, mozna celerony byly horsi. Nebot vykonny Power G rady potreboval nejdrive olejove chlazeni, pak mu stacila jen turbina - viz IBM - Apple pouzil CPU z rady RS6000 - tedy hracce na testy funkcnosti s temer nulovym vykonem - zato to slo chladit pasivne
Problem je GPU, M1/2 je nejvykonnejsi mobilni CPU+GPU - to mobilni bych zde podtrhl, na moderni GPU a to v cenach kolem 300 euro to nema ani nahodou, coz je problem, pokud mam mit efekty v editaci videa pres GPU, pak jsme s Macem v kyblu, pokud delam jednoduchy strih v davinci, uprava fotek v C1 a Affinity photo ci Luminar Neo, pak jsme v klidu.
Paradox je, ze Apple M1 je dnes nejlevnejsi kvalitni notebook s ARM, nebot Samsung je spise tablet s max 8GB RAM - to je fakt k nicemu a nebo Microsoft, kde nebezi zadny SW, vse emuluji, linux ja tam jeste hure implementovatelny a cele je to drazsi nez Apple, MacBook pro prave starsi rady ma fakn display, 16GB ram, 512GB SSD - kazdy priplatek se nevtplati, misto rozsireni na 1TB jsme si koupil 2TB SSD pres USB-C - nebot to stoji 1/2 toho co +512SSD ;-) - a vo tom to je, koupit to co dava smysl a pak zjitime, ze levnejsi reseni neni.
Linux tam davat je uplny nesmysl, kdo chce linux, muze si koupit parallel nebo zdarma UTM - kde mi ted bohuzel blbne GPU akcelerace, ktera predtim jela skvele - mate pak linux ve virtualu, co chcte vic ?
Davat Linux na Apple je nesmysl, Apple sam je FreeBSD a vetsina SW z linuxu bezi nativne i na MacOS - brew resi kde co, jedine co tam neni je SW ala Remmina - no od toho je prave ten linux -ve virtualu vcetne vsemoznych VPN.
Ano Linux je lepsi naz MacOS, lepe se ovlada atd. atd. treba MacOS de fakto nema sifrovany HDD, sice tvrdi ze ma, ano fakt jej sifruje, fakt je to spojene s HW, ale CIA/NSA se vam tam dostane, zatimco LUKS proste nema 3 master key na odemikani sifrovane part. jako ma winodws a mac - ale zase na MacOS mate komercni SW, ktery nema na linux alternativu - treba Affinity photo nebo LuminarNeo, treba RAW a darktable je uplne super dostacujici SW , sice si tam clovek musi dotahnout ruzne LUT, pokud chce simulace filmu, ale jinak je spickovy, ale pokud chcte nativni podporu treba Fuji simulaci, pak nezbyva nez C1 - nema to ani LR natoz Dartable, ano oba to nejak obchazi svoji LUT, jenze C1 ma nativni od Fujifilmu a je to znat
No a pak si ale muzem porovnat C1 vs Dartable v rychlosti exportu rawu z nejake akce, PC desktop bude vzdy rychlejsi, pokud je tam nejaka NVIDIA a to znatelne, nebot Darkatbale umi vyuzivat GPU, jak Intel, tak NVIDIA, AMD-ATI nebrat, ty maji prd vykon v linuxu diky absenci funkcniho ovladace, NVIDA samozrejme uzvarene drivery, zadne free hracky se 100x nizsim vykonem
Co z toho plyne? - Apple nutne potrebuje desktop, kde jim na RAMu bude fungovat nejaka skutecna GPU ala Nvidia - problem je, ze GPU jim pak bude zrat i 4x tolik co cely pocitac s interni GPU - nebo to pripoji externe jan na vypocty, taky reseni, na druhou stranu je fajn, ze kazdy vyvojar vi, ze mame ve 100% pritomnou GPU co umi presne tyhle instrukce a mouz na to ladit SW a vedi, ze si tam neda kazdy co chce, to co chtelo AMD, aby v CPU bylo GPU primarne na vypocty, chtel to i Intel, oboum to sklracovalao, Apple to dotahl do konce
Ano ale máš tam tolikaspektů... Třeba šetření na chlazení, aby to vypadlo víc jako NTB... přenos dat je většinou poloviční než je klasicky přes pcie... dále máme, že podpora directu a vulkanu pokulhává a tudíž bugy. V případě linuxu to propojíš, ale vlastně nevyužiješ, protože přes to skoro nic nespustíš přes emulaci...
Je toho hodně.. a hlavně.. .cena? Mimo...
Tahle možnost bude hodně záviset na dostupnosti ovladačů těch grafických karet eGPU. U NVIDIA je to vcelku ložené, tam nejsou ani ovladače kompatibilní s METAL na Intel platformě, tzn. to fakticky chcíplo před 5 lety s uvedením macOS 10.13.
U AMD jsou METAL kompatibilní ovladače na Intel platformě, ale ne na AS.
Otázkou je, co s tímhle stavem udělá čerstvé uvedení AS Mac Pro s PCIe sloty. Jestli to AMD společně s Apple napíše pro tuhle platformu, nebo ne. Bude rozhodující potenciální velikost trhu pro non-apple grafiky na macOS vzhledem k práci a udržování celé věci.
Další aspekt věci je ten, že Apple tlačí 3rd party dodavatele hardware, aby teď psali ovladače, běžící v userspace a volající Driver Kit (framework, který řeší nízkoúrovňové části ovladače v jádře). Už teď je víceméně přechodová doba, a je jen otázkou času, až vyjde verze macOS, co ty původní kexty (kernel extension) zařízne úplně.
Nedovedu si úplně představit, jak s tímhle omezením bude někdo psát ovladač na grafickou kartu.
Samozřejmě tam může být i nějaká dohoda AMD-Apple, a Apple je jako doteď bude distribuovat coby součást macOS a bude tam na tohle výjimka a poběží to jako kext. Logicky Apple má tendenci podporovat primárně svůj vlastní hardware, nebo minimálně ten, který prodává jako option k jejich strojům.
Nikdy nerikej nikdy. Podle me to casem dokonverguje k podobnemu reseni jako MI300 resp. NV GRACE ... ze ty (nasledniky) M2 ULTRA budou tvorit jednotlive nody v multi-"socketovem" systemu, propojenem ekvivalentem k NVLINK / IF.
Takze to, co nejde skalovat on-chip, se bude resit fyzickou nasobnosti nodu. A zamozrejme to bude zapajeny jako 2-node a 4-node system, s adekvatni cenovkou. Zadna modularita ci otevrenost.
Po tomto názore
https://www.youtube.com/watch?v=4RJxUyRoYmo&t=672s
na Surface Book 2 by som si radšej žiaden Surface nekúpil. Ešte aj hovorí, že by ušetril, ak by si kúpil macbook :-)
Linux tam davat je uplny nesmysl, kdo chce linux, muze si koupit parallel nebo zdarma UTM
Smysl to mít pro někoho může. Sleduju příspěvky Hectora Martina z Asahi Linuxu a ten jednou psal, že Linux je v některých operacích na Apple Siliconu pomalu až řádově (u něčeho tam uváděl 7x) rychlejší než macOS. Nejenže má macOS některé utility v hodně starých verzích, ale obecně není na většinu úloh tak optimalizovaný jako Linux. Ve virtualizaci o velkou část toho výkonnostního benefitu přijdete. Pokud ten výkon je pro někoho důležitý, tak pro něj Linux může mít smysl.
Apple sam je FreeBSD
Apple nie je FreeBSD; niektore userland utility pochadzaju z FreeBSD, ale to je vsetko. Jobs neznasal GPL, tak tam dali BSD. Dodnes je to v pomerne historickych verziach.
brew resi kde co, jedine co tam neni je SW ala Remmina
Teraz tu budem za kacira, ale Microsoft Remote Desktop for Mac je lepsi ako Remmina. O nieco lepsie UX a o nieco menej otravnych bugov (a hlavne korektnu podporu HiDPI, ktoru Remmina dodnes nezvladla).
MacOS de fakto nema sifrovany HDD
Ma, Filevault.
Darkatbale umi vyuzivat GPU, jak Intel, tak NVIDIA, AMD-ATI nebrat, ty maji prd vykon v linuxu diky absenci funkcniho ovladace
AMD v darktable je uplne v pohode, vo fedore nainstalovat rocm-opencl a pojde to. (Je pravda, ze toto sa objavilo pocas f37 a predtym dlho roky opencl ovladac nebol; resp. bol, ale iba pre ubuntu a centos).
Apple nutne potrebuje desktop, kde jim na RAMu bude fungovat nejaka skutecna GPU ala Nvidia
Tento vlak uz odisiel, uz to maju optimalizovany na to, ze CPU a GPU zdielaju pamat a pristup je riadeny IOMMU. Navrat k PCIe by bol tazky. Okrem toho maju s Nvidiou historicky zle vztahy,, ze dokonca Nvidii ani driver nepodpisu.
kazdy vyvojar vi, ze mame ve 100% pritomnou GPU co umi presne tyhle instrukce a mouz na to ladit SW
Jedina rodina GPU, ktora umoznovala cielit na konkretne instrukcie GPU je ta od AMD, cez ROCm/HIP. Nvidia ma abstrakciu ptx, Apple umoznuje len svoje Kity a MSL.
Este v dobach NeXT-u Jobs pouzil gcc ako zaklad pre Objective-C. Naco samozrejme FSF ho vyzvala aby zverejnil zdrojove kody, lebo GPL... co so skripanim zubov urobil: zverejnil zdrojove kody kompilera, ale nie runtime kniznice Objective-C. Odvtedy GPL neznasal.
GPL programy sa samozrejme objavili v NeXT-e a neskor aj v OSX/macOS, kde nebola ina moznost, napr. bash (dnes je v macOS 13 historicka verzia 3.2), alebo samba (ktora po prechode na GPL3 dostala kopacky uplne a dnes ma Apple vlastnu implementaciu SMB).
Nie tak celkom; GPL 1 sice bola zverejnena vo februari 1989, NextStep 1.0 vysiel v septembri 1989. Obe nezacali svoju existenciu publikovanim verzie 1.0, presli nejakym vyvojom. Pre 1.0 GPL bola pouzita napr. aj na emacs, ale aj na gcc (prvy release v roku 1987).
Co sa tyka samotneho ObjC, wiki nam pise:
In 1988, NeXT licensed Objective-C from StepStone (the new name of PPI, the owner of the Objective-C trademark) and extended the GCC compiler to support Objective-C.
...
In order to circumvent the terms of the GPL, NeXT had originally intended to ship the Objective-C frontend separately, allowing the user to link it with GCC to produce the compiler executable. Though initially accepted by Richard M. Stallman, this plan was rejected after Stallman consulted with GNU's lawyers and NeXT agreed to make Objective-C part of GCC.[9]
Co sa tyka zverejnenia runtime nextu, to bolo az v casoch osx, ked Apple zacal program zverejnovania zdrojovych kodov na opensource.apple.com.
Mať divný proprietárny procesor miesto štandardného pre mňa osobne nie je dobré rozhodnutie, ale chápem, že teraz môžu lepšie plánovať a nezávisia od ľubovôle Itelu.
Môj daľší počítač už nebude mac. Keď budem musieť, tak si mac kúpim najlacnejší dostačujúci podľa možností ožužlaný, aby ma vyšiel čo najmenej.
Tomu moc nerozumím, co je to standardní a proprietární? Apple Silicon procesory používají ARM instrukční sadu, kterou sdílí řada výrobců procesorů a jiných SoC. Na téhle úrovni to samozřejmě kompatibilní je. Existují překladače, optimalizované programy a knihovny atd.
A na hw úrovni ty procesory přeci ty starší x86 procesory jsou svým způsobem vždycky vázané na jednoho výrobce - např. v notebooku nejde vyměnit procesor Intel za AMD.
Jasně, někomu nemusí třeba sedět, že je to SoC se svými principiálními výhodami i nevýhodami. Taky chápu, že třeba někdo měl teď Hackintosh, nebo si na macOS virtualizoval x86 Windows a Linux přes VMWare Fusion, to samozřejmě teď nepůjde bez výrazné ztráty výkonu. Ale zase naopak např. když někdo vyvíjí sw pro mobilní platformy, kde je ARM majoritní, tak má stejná architektura na počítači své výhody.
Za mě se jim to povedlo a s novými AS stroji se pracuje skvěle a ty zmíněné věci bych řešil vzdáleným připojením na jiné x86 PC nebo server s virtualizací.
Zdroj? Dle mých znalostí jsou jediné věci navíc TSO a podpora AF a PF, obojí pouze pro emulaci x86_64.
Udržovat vlastní verzi celého development systému se ukázalo jako příliš velké sousto i pro jiné korporáty jako Microsoft, IBM.
PS: Naopak Fujitsu si svoje aarch64 trochu upravilo - ale jde jen o jeden prefix pro SVE, který se používá speciálně pro jejich HPC.
Samotný název instrukcí říká, že jde o koprocesor (dokonce instrukce do něj ani nejdou přes out-of-order jader CPU, když jsem se trochu začet do odkazované stránky). Ano, je to v jednom křemíku, protože SoC.
Společnost ARM dbá na "duševní hygienu" a nedovoluje přidávat vlastní instrukce do architektury CPU (jader CPU). Takže myslím, že např. přepínač pro strong memory model pro emulaci x86 je jen nějaký flag a ne instrukce, aby to Apple obešel (nicméně i tak mám pocit, že mu firma ARM dovolí víc něž jiným).
7. 6. 2023, 23:45 editováno autorem komentáře
Apple měl vždy něco extra, někdy kolem roku 1998 měl v CPU vektorové instrukce a 32 vektorových registrů (po 128 bitech), přičemž se zpracovávaly dvě instrukce zároveň. Na tehdejší dobu něco nevídaného. A taky to bylo trochu bokem, například data nešla přímo přenášet do běžných registrů. Už si nepamatuju detaily, ale různé fyzikální simulace na tom běhaly pekelně rychle (ve srovnání s konkurencí). Pár let to vylepšovali, pak přešli na Intel.
AltiVec. Vyvíjel s dalšími firmami (Motorola a IBM), ale nakonec byl na PowerPC sám, takže ta architektura umřela. Jinak automatické řešení multiskaláru na x86 mělo zas výhodu, že částečně zrychlilo i dosavadní programy, které nevyužívaly nové instrukce (ale zas nutnost napsat kód pro nové instrukce znamenal jejich efektivní využití).
jj. O těch AMX a ANE instrukcích navíc vím, ale vždycky jsem to bral tak, že to řeší vlastně další proprietární jednotky v rámci toho SoC. Podobně jako třeba některé předchozí Intel Macy měly možnost dodatečné Afterburner výpočetní karty, která akcelerovala jejich video, opět proprietární, kodeky.
Samozřejmě ideální stav by byl, aby rovnou uvolnili dokumentaci a mohly to používat kompilátory pro libovolný kód. Možná už jsem po těch letech spíš cynik, a podobný proprietární šprajc pro extra funkce, kdy si budou chtít udržet nějakou konkurenční exkluzivitu, tam tak nějak u Apple rovnou čekám :(.
Jinak já v té předchozí odpovědi měl na mysli spíš obecnou kompatibilitu těch jejich čipů s ARMv8.5-A. Tam naštěstí nic úplně specifického není a optimalizovaný kód (NEON, SVE1..) funguje napříč mezi různými výrobci. Upřímně moc neočekávám, že by se na tomhle i do budoucna moc něco měnilo, Apple by byl sám proti sobě.
Apple framework, co to používá, se jmenuje Accelerate
https://developer.apple.com/documentation/accelerate
Z toho to Dougall Johnson vypreparoval (viz. ten gist linkovaný výše, má v sobě komentáře)
O planovani vubec nejde, Apple se dlouhodobe snazi byt co nejvic nekompatabilni.
Duvod je jednoduse ten, aby sis od nich musel koupit vse. Tohle prozmenu nechape 99% uzivatelu treba iphonu, a pak se divej. Neustale chodej s tim, ze to ci ono prece umi kazdej android za pet korun padesat, tak jak je mozny ze jejich iphone za 50k to neumi.
Vzdycky jim na to rikam, at si koupi macbook, appletv, (za dalsich 200k) ... a bude umet.
Stejne tak si predstav, ze na x86 jabka se dal dostat vlastne libovolnej x86 SW ... a to bez toho aby z toho Apple neco mel. Opet, oni se to snazi dotlacit k tomu, ze co si na appstoru nekoupis mit nebudes. (ne ze by se MS nesnazil o totez, ale moc se jim to nedari).