Moc to nepobírám. Nepobíral jsem ani HTTP/2.0 ale respektuju, že tu je.
Myslím si, že by web bylo možné provozovat i na klasickém HTTP/1.1 s dobře fungujícím keep-alive + pipelining, a určitě si vystačíme s dvěma spojeníma maximálně. Nevím proč dnešní prohlížeče mají zejména s pipeliningem problém. Možná že kdyby se nějakým způsobem HTTP protokol uzpůsobil tak aby pipelining byl jednodušší, ale ... nemyslím si, že je to potřeba.
Co je opravdu problém je narůstající objem webu a to, že web se skládá z obsahu jdoucí z mnoho serverů, tady myslím zejména reklamy. Samotný web, pokud je navíc dobře postaven, tedy spíš jako aplikace, jde velice rychle i po Http/1.1
HTTP/2.0 jako snaha implementovat TCP na TCP je faḱt zrůdnost. HTTP/3.0 jako implementovat vlastní TCP nad UDP a věřit si, že ho uděláme lépe, než TCP samotné, to už hraničí s bláznostvím.
+1
Pamatuji ještě web s 56 kbps modemy. Dnes máme linky o několik řádů rychlejší a nestačí to? Pořád čteme textové články, stahujeme obrázky... Textů je pořád zhruba stejně (nebo spíš méně kvůli snižování gramotnosti průměrného uživatele), obrázky jsou větší, to je pravda + přibylo video. Díky AJAXu by nároky měly být spíš menší (nemusí se po síti posílat celá stránka -- pošlou jsem jen změny).
Problém je spíš v tom, že dneska běžný web stahuje kdejaké hnoje klidně i z desítek domén/serverů + někde posílá zpátky i pohyb kurzoru myši, časy stisku kláves při psaní a další šmírovací data. Uživatel z toho nic nemá, nebo mu to přímo škodí.
U toho videa se jednou naváže spojení a pak se tahají desítky nebo stovky megabajtů -- oproti tomu je ta režie zanedbatelná. Nemluvě o tom, že většina těch videí jsou jen spamy a zbytečný obsah.
To už by mi přišlo smysluplnější mít nějaký decentralizovaný/p2p protokol pro distribuci statického obsahu (skripty, css, ikony, písma...). Web by se odkazoval na URL, ale uváděl by i hash obsahu a podle něj by se prohlížeč mohl podívat do své mezipaměti, potom na lokální distribuční server a až třetí možnost by byla stažení z daného URL.
Ve skutecnosti si vpohode vystacis s http 1.0 ... jediny co pridava 1.1 je hlavicka s domenou, kterou nepotrebujes, pokud ma kazda domena svoji IP. Je to jednoduchy na implementaci, na strane serveru ti staci par kB, a na strane klienta telnet. A pokud mas kompletni ipv6 stack vcetne ipsec (coz jako povina soucast vypadlo pry prave kvuli IoT vecem, ktery na to nemaj parametry), tak muses vesele i sifrovat, a porad ti staci ten telnet.
Dtto email, posilas text a textovy parametry. Easy. Zakladni komunikaci napises za hodinu a bude to fungovat. A opet, pokud pod tim mas ipstack muzes to posilat pres ipsec. Ale aplikaci jako takovou to vubec nemusi zajimat, protoze to neni jeji starost.
Nepotrebujes zady stovky MB silenych a deravych knihoven na sileny, naprosto zbytecny a nepouzitelny protokoly.
Parada je, ze video pres http je ne jeden, ale 100 kroku zpet, protoze i ten prdlej flash umel RTMP. A fungovalo to paradne, stream se dynamicky a zcela bez vypadku prizpusoboval kvalite spojeni.
Když to moc nepobíráte, proč děláte závěry? Případů užití, kde by se nám HTTP/2 fakt, ale fakt hodilo, jenže jsme to pořád museli mlátit na HTTP/1 jsem jen za poslední dva roky zaznamenal tak pět. Multiplexing prováděný HTTP/2 funguje třeba na weby s mnoha obrázky (implementoval a optimalizoval jste někdy nějakou video-on-demand site? on ale stačí i obyčejný e-shop) skvěle a je to podstatný pokrok.
Jako samozřejmě, budete-li si přes HTTP číst textové dokumenty, můžete to dělat třeba přes Telnet. Jenže doba je jinde a spektrum služeb je daleko daleko širší než kdy dřív a bude ještě více. Myslet si o tom můžete co chcete. Stejně, jako o parním stroji, který dozajista máte ve svém automobilu.
Předposlední věta je už vůbec úlet, který celkem odpovídá první větě vašeho příspěvku. Ostatně poslední není o moc lepší: ano, představte si, že pokrok nastane, když se někdo rozhodne, že stávající technologii překoná něčím lepším a povede se mu to. To je, že?