Program (klient) vs. jazykový model
Co se dozvíte v článku
Jak jsem popsal v předchozím článku, lze nakreslit poměrně jasnou linii mezi uživatelským rozhraním, které běží na počítači vývojáře (ta věc, do které píšete požadavky, zobrazuje vám výsledky, případně poskytuje rozhraní pro agenta), a samotným velkým jazykovým modelem (LLM), který typicky běží v nějakém datacentru.
Ať už protože lokální počítač na něj nestačí – velké modely potřebují pro běh rozumnou rychlostí stovky GB RAM a výkonné grafické karty – nebo protože je uzavřený a jeho výrobce jej vůbec neposkytuje ke stažení pro lokální provoz.
Uživatelské rozhraní bývá open-source a je to lokálně běžící software, s jazykovým modelem komunikuje přes API a toto API je relativně univerzální, takže se přes něj dá bavit se všemi existujícími modely (GPT, Claude, Gemini…).
V některých případech si můžete vybrat model a poskytovatele tohoto API libovolně (BYOK – bring your own API key), v jiných případech jsou klientský software a poskytovatel API pevně svázány a musíte použít LLM od konkrétního provozovatele. Tento konkrétní provozovatel může též provozovat například službu indexování zdrojového kódu (u něj na serveru), nebo zmíněný slabý model pro aplikaci úprav zdrojového kódu.
Taková integrace může zaručovat kvalitnější služby (vše spolu hezky funguje), ale také způsobit vendor lock-in (plus se vám nemusí líbit, že svá data posíláte nějakému poskytovateli). Protože se jedná o extrémně rychle se vyvíjející oblast, poskytovatelé často mění podmínky a ceny (kredit vs. měsíční předplatné, velikost FUP, zda jsou v předplatném zahrnuty „velké“ modely, nebo jejich osekané verze jako GPT Mini a Claude Haiku), a může se tedy hodit možnost přechodu ke konkurenci, když se vám někde přestane líbit.
Uvádím příklady programů, které se liší svými filozofiemi z hlediska předplatného a svobodné volby poskytovatele LLM:
- Již zmíněný GitHub Copilot, dostupný pro VS Code, JetBrains a pár dalších IDE. Přijde mi jako nejlepší způsob, jak začít, pokud jste schopni používat grafické IDE. Z hlediska vendor lock-in je někde na půl cesty: model vykonávající většinu práce si můžete nastavit vlastní, ale aplikování patchů a některé další funkce vyžadují služby Microsoftu. Tyto služby jsou zdarma, ale můžou být pomalé a někomu se nemusí líbit, že je provozuje Microsoft. U Copilota se mi líbí důraz na neagentické programování, byť si jednoduchého agenta můžete zapnout. Je tedy vhodný pro začátek a pro seznámení se s konceptem a schopnostmi AI.
- Augment Code, dostupný pro VS Code, JetBrains a Vim (textovou verzi jsem nezkoušel). Jeho autoři si zakládají na špičkovém indexování kódu, a to včetně ohromných repozitářů, takže nebudete muset ručně vybírat soubory s vašimi knihovnami a další zdroje, které asistent potřebuje vidět pro práci. Nevýhodou je naprosté svázání s jejich službou.
- Cline, dostupné pro VS Code a experimentálně i pro další IDE. Zde si naopak autoři zakládají na naprosté svobodě a otevřenosti, na jaký model a jak to napojíte je čistě vaše rozhodnutí. Další vlastnost, kterou autoři propagují, je, že do kontextu LLM posílají celé soubory – ostatní nástroje typicky posílají jen nějaký extrakt (vyhledaný pomocí indexování kódu). Autoři Cline tvrdí, že díky tomu LLM vidí vše co potřebuje a má tak nejvyšší úspěšnost. Protistrana tvrdí, že když se toho LLM pošle moc, tak se rozředí pozornost na nepodstatné detaily a naopak to funguje hůře, plus je to drahé. Od Cline existuje několik forků jako Kilo Code a Roo Code. Vyzkoušel jsem je a preferuji originální Cline, což je samozřejmě jen můj názor. Cline je dost orientované na agentické programování.
- Command-line agenti od výrobců jazykových modelů: Claude Code, Gemini CLI, Codex CLI… Zajímavý je běh v terminálu, takže to můžete ocenit, pokud nejste fanoušci grafických IDE; odvážlivci to mohou spustit na serveru, kolega to zkoušel nechat adminovat. Program je vždy optimalizovaný na službu svého výrobce – někdy lze používat i s jiným modelem, ale otázka je, jak dobře to pak bude fungovat. Nicméně protože je to jednoduchá CLI aplikace, přechod ke konkurenci by neměl být obtížný, byť některá konfigurace, jako třeba uživatelské háčky, nemusí být snadno přenositelná.
- Aider, terminálový agent, na rozdíl od výše uvedených zcela svobodný. Býval populární, byl jedním z prvních dostupných agentů, ale teď se zdá, že vývoj ustal. Jedním z aktuálně vyvíjených následovníků je OpenCode.
- Další populární programy jsou Cursor, AmpCode a Windsurf, s nimiž nemám žádné osobní zkušenosti, ale slyšel jsem na ně dobré reference.
Jazykové modely používané pro programování
Přehled jazykových modelů (pokud použijete nějaký z programů, které nejsou vázány na konkrétní službu/model, a tedy si budete moci vybrat). Je zde klasická velká čtyřka:
- Anthropic Claude. Obsahuje tři modely, Sonnet („zlatý střed“), Opus (největší a nejschopnější model často používaný na přemýšlení) a Haiku (malý, rychlý a tedy levný a méně inteligentní model).
- OpenAI GPT. Zahrnuje modely GPT-5, GPT-5 Mini (překvapivě schopný a klidně bych používal jako výchozí), GPT-5 Codex (dle tvrzení výrobce optimalizovaný na agentické programování) a GPT-5 Pro (dle tvrzení výrobce nejshopnější)
- Google Gemini. Minulý týden byla uvedena nová verze Gemini 3 a postupně probíhá její začleňování do různých služeb a dolaďování detailů (např. nalézání nejlepších promptů – prompt engineering).
- Nováček: xAI Grok. Zahrnuje modely Grok Code Fast 1 (malý) a Grok 4 (velký). Nemám s nimi zatím žádnou zkušenost.
Obecně platí, že čím větší model, tím schopnější, pomalejší a dražší. Byť též záleží na datu vydání – třeba Gemini 2.5 je z uvedených aktuálně nejstarší a kvůli tomu začalo zaostávat – vývoj je překotný a i pár měsíců je znát.
Výše uvedené modely jsou uzavřené a jediný přístup k nim je skrze komerční API. Provozovat je může jen jejich výrobce, jejich váhy a zdrojové kódy nejsou veřejně dostupné. Existují i open-source modely:
- Qwen. Zahrnuje modely qwen-3-coder-480b a qwen-3–235b-a22b. Model pochází z Číny, ale protože je open-source, provozuje ho i spousta západních společností. Vzhledem k jeho hardwarové náročnosti si ho nejspíš nebudete moci provozovat sami, byť se dá stáhnout na internetu. Na programování mi přijde poměrně dobrý.
- GLM a Kimi. Další čínské svobodné modely. Nemám s nimi žádné zkušenosti, ale mnoho lidí na internetu si je pochvaluje, tak je pro úplnost uvádím.
- OpenAI gpt-oss-120b (velká verze) a gpt-oss-20b (malá verze). Menší svobodné verze GPT. Mají menší hardwarové nároky než Qwen, je to nejspíš tak hraničně provozovatelné vlastními silami.
- Google Gemma. Nejmenší modely, byť podle tvrzení výrobce až neuvěřitelně dobré. Vypadají provozovatelně na běžně dostupném hardwaru (dodávají se varianty vyžadující od 0,5 do 40 GB RAM, ale ty nejmenší verze stěží naprogramují víc než Hello World). Osobně však s provozem vlastních LLM nemám žádné zkušenosti.
Vyhodnotit, který model je nejlepší, je složité. Setřídil jsem je v pořadí, jak jejich kvalita bývá vnímána. Nebojte se zkoušet, co vám sedne. Pro seriózní práci ale počítejte s tím, že budete muset použít nějaký z těch velkých.
Poznámka: v pojmenování svobodných modelů můžete najít <číslo>b (např. qwen-3-235b-a22b, gpt-oss-120b), to je velikost (počet parametrů) modelu; b znamená bilion (miliarda, giga). To také ukazuje na množství RAM (nebo spíše VRAM, protože kvůli rychlosti to chce GPU), které potřebujete, když chcete model provozovat (byť zrovna gpt-oss se dodává v kvantizované (komprimované) 4bitové formě, kdy na provoz 120b modelu stačí něco jako 80 GB RAM; obecně ale modely kvantizované na méně než 8 bitů bývají hloupější).
Druhé číslo, pokud je přítomno („a22b“), značí počet parametrů, které jsou v jednom okamžiku aktivní – současné modely bývají sestaveny z Mixture of Experts, a vždy se vybere malá část „expertů“, kteří generují kousek odpovědi. To pak souvisí s tím, kolik výpočtů je potřeba dělat, když model provozujete.
Přístup k AI asistentům – verze zdarma
Rozhodli jsme se, jaký režim chceme využít (webový chat, inline/chat, agent), nainstalovali příslušný software (předpokládejme verzi, která umožňuje vybrat model), a teď ještě potřebujeme získat přístup k nějakému LLM. Začneme možnostmi, které jsou na vyzkoušení zdarma. Nutno podotknout, že situace na trhu se neustále mění.
Nejjednodušší to mají lidé, kteří používají webový chat. Všichni poskytovatelé (ChatGPT, Claude, Gemini…) mají použitelnou verzi zdarma, někteří dokonce bez registrace. U varianty zdarma se typicky limituje délka přemýšlení modelu a počet zpráv, které můžete za den odeslat, ale obecně je to na lehčí věci naprosto dostačující. Pokud jste zaměstnáni a vaše firma používá služby jako Google Workspace nebo Microsoft 365, je možné, že nějaká AI služba je součástí tohoto předplatného, obdobně to může být u studentů.
S API, které potřebují využít pluginy do IDE a desktopové aplikace, je to složitější. První volba je GitHub Copilot, který ve verzi zdarma nabízí 50 požadavků měsíčně na GPT-5 Mini a Claude Haiku 4.5. Navzdory názvu to lze použít i s jiným klientským softwarem než GitHub Copilot, byť v době psaní článku se zvažuje odstranění této možnosti.
Google AI Studio nabízí Gemini a Gemmu všem majitelům Google účtů (i osobních, byť já to zkoušel s firemním); limit je 50 požadavků na Gemini Pro a 250 požadavků na Gemini Flash denně. Gemini Pro je ve špičce pomalé a občas vrací chybu, že se věnuje platícím uživatelům a nemá volné kapacity. Gemini Flash funguje lépe, večer a o víkendu to také funguje dobře (i Pro). Dále Google slibuje 1000 požadavků denně zdarma u již zmíněného Gemini CLI agenta, ty lze ale použít jen v tomto agentovi.
Zajímavý poskytovatel je Cerebras. Hostuje svobodné modely, mimo jiné Qwen, gpt-oss, GLM. Má zajímavé limity ve verzi zdarma, milion tokenů denně pro každý model, 100 požadavků denně na programovací modely. Naprosto neuvěřitelná je rychlost jejich serverů – dalo by se říci, že odpověď je okamžitá. Verze zdarma je omezena na kontextové okno 65 tisíc tokenů, což bude omezující při agentickém programování – při chatu na tento limit nejspíš nenarazíte.
Cline mívá pravidelně akce, kdy nějaký nový model nabízí zdarma, aby ho otestovali, než ho spustí platícím zákazníkům.
Zde musím napsat jednu poznámku k Copilotu: říkal jsem, že si můžete nastavit libovolného poskytovatele a model. Nastavení modelu a poskytovatele probíhá tak, že zadáte jeho URL a přístupové údaje. Bohužel aktuální verze Copilota má vyjmenované poskytovatele a modely, které podporuje. Vlastní URL má jít přidat někde v nastavení, ale nějak mi to nešlo. Z výše uvedených vám bez toho nebude fungovat Cerebras. Vyřešil jsem to pomocí proxy, která API překládá. Proxy se hodí i pokud byste chtěli komunikaci s LLM analyzovat či pozměňovat.
Obecně při používání variant zdarma pozor, že některé si jako kompenzaci vyhrazují právo na datech uživatelů trénovat další modely. Snažil jsem se zde uvádět jen služby, které data nevyužívají.
Přístup k AI asistentům – placená verze
U placeného přístupu jsou dvě hlavní možnosti: platba za skutečné využití (pay-per-token, kredity), nebo měsíční předplatné.
Aktuálně se vede diskuze o tom, zda a nakolik jsou předplatná dotovaná a probíhá cenový dumping. Některé předplacené tarify nemají uvedené limity (FUP), byť limitované jsou, ale ty limity jsou tak vysoké, že kdybyste platili za skutečné využití, tak to bude stát o řád více – ale to může poskytovatel kdykoli změnit, pokud limity nejsou garantovány. U některých poskytovatelů ani nemáte garantováno, jaký model za své předplatné dostanete – může se stát, že vás přepnou na nějaký levnější a hloupější, když se jim byznys model začne rozpadat.
Nicméně pragmatický přístup k tomuto může být platit si předplatné po jednotlivých měsících, a až vám to přestane vyhovovat, tak ho zrušit. Tím přijdete nejhůře o jeden zaplacený měsíc. Obecné pravidlo je, že předplatné se vyplatí, pokud ho rozumně využijete. Pokud programujete jen málokdy (řekněme jeden den týdně) a nepoužíváte agenta, nejspíš se předplatné nevyplatí a bude lepší platit za skutečnou spotřebu.
Při platbě za skutečnou spotřebu musím vysvětlit koncept takzvaného routeru. Totiž: řekněme, že chcete zkoušet různé modely. Museli byste si zřídit účet u různých poskytovatelů (Anthropic, Google, OpenAI…), nastavit platební metody a pak to celé udržovat. Osobně mám ze zakládání účtů v cloudu osypky. No a přesně proto je tu OpenRouter. Je to služba, kam si po jednoduché registraci nabijete předplacený kredit (kartou nebo kryptoměnami), a pak si můžete vybírat, jaké modely budete používat, a částka se vám strhává z tohoto kreditu.
Platba za spotřebu je podle velikosti modelu 0,25 až 15 dolarů za milion vstupních tokenů (to, co posíláte dovnitř – čili přikládané soubory, historie chatu, logy…) a 2 až 75 dolarů za milion výstupních tokenů (to, co vám model odpoví, ale také vnitřní přemýšlení modelu). To vám asi nic neřekne, takže příklady: inline chat pro naprogramování jednoduché funkce vyjde na 20 haléřů (0,01 eur), „velký“ chat pro řešení složitějšího problému na 5 Kč (0,2 eur). Využití agenta pro řešení náročného problému by ale mohlo vyjít i na více než 100 Kč (4 eura) – zde je pak vidět ten nepoměr měsíčního předplatného v typické ceně 20 dolarů, se kterým můžete agenta spustit určitě více než pětkrát.
S tím také souvisí, kolik můžete očekávat, že utratíte „za hodinu programování“ – pokud si sem tam necháváte radit s použitím nějaké knihovny, jsou to korunové částky. Pokud intenzivně používáte agenta, nebyl by problém protočit stovky korun. Proto lidé s agenty typicky používají předplatné, nebo mají nějaký velmi výhodný firemní tarif.
Takže kredity a platba za skutečnou spotřebu: OpenRouter. Tam si najdete jednotlivé modely a ceny. Například GPT-5 Mini a Claude Haiku pro méně náročné programování, Claude Sonnet a GPT-5 pro složitější. U open-source modelů je vhodné podívat se na seznam poskytovatelů, který z nich vypadá seriózně dle vašeho geopolitického názoru (jsou tam z USA, Asie, občas z EU), a vybrat si.
Zajímavá strategie by mohla být začít s OpenRouterem, vyzkoušet si různé modely, a když uvidíte, že utrácíte více, než by stálo měsíční předplatné, tak si koupit předplatné oblíbeného modelu. Jaké jsou možnosti předplatných?
- Opět GitHub Copilot – za 10 dolarů měsíčně neomezený (s hvězdičkou, samozřejmě) počet požadavků na GPT-5 Mini a 300 požadavků na pokročilejší modely (GPT-5, Claude Sonnet).
- Claude Pro – za 18 eur měsíčně „rozumné“ využití Claude Code. Limit je vždy na 5hodinové okno a podle zkušeností uživatelů vydrží tak 3–4 hodiny běžného používání (pokud vám to nestačí, mají i dražší tarify). Takže podle intenzity používání a jestli si po 4 hodinách děláte přestávku na něj nejspíš těsně (ne)narazíte. Lze to omezeně používat i mimo Claude Code.
- Pak jsou tu služby navázané na jejich klienta/IDE, jako již zmíněný Augment (primárně Claude), Cursor či Amp Code. Trendem posledních měsíců je, že mnohé firmy přechází z modelu měsíčního předplatného za pevnou částku na systém kreditů, u kterých si těžko představit, co pod tím člověk vlastně dostává (vztah mezi kredity a tokeny). Též můžete kombinovat levnější službu na jednoduché požadavky a prémiovou na složité věci.
Měli bychom vůbec programovat s AI?
Nevím, co bych doporučil lidem, kteří dnes s programováním začínají: pokud AI asistenty používat nebudou, hrozí, že nebudou konkurenceschopní ve světě budoucích technologií; pokud budou, hrozí, že se nikdy nenaučí, jak programování funguje, nebudou rozumět počítačům, a když AI udělá chybu, bude pro ně nemožné ji najít a opravit.
Například můj první projekt naprogramovaný s AI byl reverzní SSH tunel přes WebSockety. AI to naprogramovala úplně dobře až na jednu maličkost: neuvědomila si, že u SSH jako první mluví server (posílá banner), zatímco u běžných protokolů většinou první mluví klient. Tunel tak sestavila ve špatném pořadí a první paket od serveru (s bannerem) to většinou zahodilo, což vedlo na podivné chyby SSH klienta. Problém jsem rychle odhalil „profouknutím“ tunelu telnetem a netcatem, podíváním se na provoz ve Wiresharku a snadno jsem ho vyřešil. Někdo, kdo ale nemá zkušenosti se síťováním, by se na tomto nejspíš zasekl na velmi dlouhou dobu. Nicméně moderní agenti by třeba takové ladění zvládli taky.
Na druhou stranu, když přišly první kompilátory, jistě tehdy někteří lidé říkali, jak musíme nadále učit programátory psát strojový kód, a že když začnou používat kompilátory, nebudou rozumět počítačům – a že kompilátory mají chyby a produkují neoptimální kód, což byla tehdy jistě pravda, a programátor to po nich musí umět opravit. Dnes má naprostá většina programátorů (včetně autora článku) o strojovém kódu nanejvýš povrchní znalosti a nevypadá, že by to vadilo. Čili do pozice takových lidí „zpátečníků“ bych se nerad dostal. Podobné situace nastaly, když přišla „klikací IDE“, Google (programátoři nebudou číst příručky a vždycky si jenom vygooglí to, co je trápí!) a StackOverflow (programátoři budou jenom kopírovat odpovědi!), a přesto jsme to v pohodě přežili. Na druhou stranu, pořád je tu takový pocit, že tohle (AI) je větší změna – bude též záležet, jak se v příštích letech AI zlepší.
Lze najít studie o tom, že programátoři při použití AI jsou ve skutečnosti zhruba o 20 % pomalejší, než kdyby dělali práci postaru ručně. K tomu bych chtěl podotknout, že čas na splnění úkolu není vše. Myšlení bolí, a pokud s AI dokážu udělat úkol „na půl mozku“, znamená to, že jsem ušetřil čas, po který se jsem schopen maximálně soustředit, kterého mám každý den dost omezené množství – sice mi daný úkol může trvat déle, ale celkově toho zvládnu za den víc.
Další věc ke zvážení je odesílání zdrojového kódu provozovateli LLM. Na to je argument, že většina firem má stejně e-maily a soubory v Google nebo Microsoft cloudu, software na GitHubu (Microsoft) a služby provozují v GCP/AWS/Azure. A LLM provozují ty stejné firmy, takže ty zdrojové kódy už stejně fyzicky mají. Na to je protiargument, že vyloženě ukrást data z cloudu a někde je zveřejnit má větší bariéru než vzít záznamy chatů a použít je na trénování nové AI (která si je při trénování zapamatuje a pak je bude vytrubovat každému svému uživateli).
Tam tedy záleží, nakolik věříme, že provozovatelé toto neudělají (a zda považujeme naše zdrojové kódy za tajné). No a pak je samozřejmě možnost koupit nadupaný server a provozovat si to ve firmě lokálně. Open-source modely se stále zlepšují a zmenšují (tj. i na jednom serveru už se dá leccos spustit, nepotřebujete farmu) – toto zažilo velký boom teď přes léto 2025, kdy se objevily i poměrně malé open-source modely, schopnostmi srovnatelné s trochu staršími uzavřenými.
V článku jsem se nedotkl otázky kvality vygenerovaného kódu – osobně bohužel nejsem na tuto problematiku expert. Přijde mi však, že to píše jako průměrný, možná i mírně nadprůměrný programátor – nejspíš díky tomu, že pro trénování bude použit výběr z kvalitních projektů. Občas je struktura nelogická, roztahaná (již popsaný problém, kdy se AI asistent snaží ošetřit úplně všechny možné výjimky), ale to lze dořešit dohledem a specifikací, jak to má být správně uděláno – nástroje pro AI programování mají možnost přidat pravidla, kterými se mají řídit, a do nich si tyto informace, plus třeba preferovaný styl kódu, brzy dopíšete. Celkově si tedy myslím, že situace na tomto poli nebude nějak zásadně horší, než kdybyste stejnou práci zadali průměrnému lidskému programátorovi.
Jaké zkušenosti máte s používáním AI pro programování vy? Jaké nástroje a jakým způsobem používáte? Podělte se v diskuzi.
