htmlx a jeho předchůdce intercooler.js jsem si docela oblíbil. Použíme pro generování reportů a dashoboardů, dříve se to dělalo jako xlst nad xml, dneska jich část máme v htmlx. Výhoda je statická validace, snadné vykreslování a možná interaktivita.
Docela dobře to jde integrovat s elasticem nebo grafanou a dělat automatické status stránky pro aplikace/servery s vnořenými grafy.
Nevýhoda je vlastní syntaxe a tím nepodpora vyhledávačů a crawlerů, dělat v tom tedy běžný web se moc nedá, dělat v tom ale administrace či jiné věci může dávat smysl, tam jsou ale k dispozici daleko pokročilejší frameworky.
Co se týče nepodpory vyhledávačů etc, v čem se to liší oproti SPA?
Naopak si dovedu dobře představit, že když přijde js request, tak se vrátí fragment, když přijde normální click, tak to vrátí novou stránku. Mě to přijde elegantní a přímočaré.
Ale reaguji na základě zběžného seznámení. Třeba je tam nějaká past, která mi uniká.
ale jak crawler pozná, že má klikat na elementy, které mají nějaký atribut hx-*? Musí spustit JS a proklikat si vše, nepozná ani adresu, kam odkaz směřuje, což je běžný způsob podle čeho se vytváří plan tree pro crawler. Je to pro ně neviditelné.
Ano, i u SPA to je problém, ale občas to nějak řešit jde, tohle je ale o dost jednodušší než jaké se dělají SPA a řešitelný to za mě není.
tak si to vyzkoušej :).
Ano, sitemapa pomůže, ale pak ti budou chybět interní prolinky mezi stránkami, což je opět obrovský problém, v sitemapě prolinky a vazby neuděláš.
No, spouští JS, jak se to vezme. Google je asi nejdál, ale spíše než spouští, tak snaží se ho interpretovat a umí jen subset, však to mají popsané https://developers.google.com/search/docs/crawling-indexing/javascript/javascript-seo-basics a není to krátký návod. Ostatní vyhledávače tak daleko nejsou, bing, seznam jsou v háji, nejde jen o vyhledávače, ale třeba dneska jsou populární různé služby pro analýzu zpětných odkazů, kontrolu správnosti webu a linků, ty také selhávají.
Htmlx není pro SEO určený, nejspíš se to tam dá nějak dodělat, ale tím přicházíš o hlavní výhody htmlx a je pak asi lepší jít do frameworku, který tu podporu má už sám.
K čemu potřebuju prolinky mez stránkami? Já jen chci, aby po zadání dotazu do Googlu našel např. odpovídající produkt nebo FAQ s řešením problému. Problém se subsetem JS nemám, a jestli ho ostatní (marginální) vyhledávače neumí, tak jim napiš bug. S těmi analyzátory SEO nemám dobré zkušenosti, skutečné problémy jsou pro mě jen to, co hlásí Google konzole.
wtf? Tvrdit, že interní linky nepotřebuješ a že ty stačí, jen aby to google správně našel je takový trochu velký protiklad.
Ty se subsetem JS sice problém nemáš, ale htmlx ho má, o čem se tedy bavíme? Přes htmlx neprojde ani Google, tak prosím začni s hlášením bugu tam.
Mluvím třeba o ahrefs.com, poskytuje údaje, které v Google console nenajdeš.
vzájemná provázanost stránek má výrazný vliv na to, jak tě např. Google bude upřednostňovat, mít vysokou pozici na stránce, na kterou nevedou žádné vnitřní odkazy je prostě dost obtížné až nemožné v konkurenčních výrazech.
K čemu ti je pak htmlx, když budeš mít vše v html a nebudeš nic stahovat přes jeho funkce?