jako experiment to je zajimave.
ale na sitich uz se resi jak to jsou vyhozene penize, ze to hafo much a lidsky programator by za to dostal vyhazov :-)
Jenže za tu cenu by tým programátorů nepořídili. Ani z Indie. Takže ano, je to technologické demo, ale to nijak nesnižuje úspěch toho AI.
Vtipné je, jak to hujeři považují za úspěch, pesimisté za neúspěch a realistům to je jedno a hází prostě tou lopatou, co jim zaplatí :-D
Tak jeden programátor by něco takového dělal několik desetiletí. OK, možno jen let, než by jej odvezli na psychinu. Tady si šlo o něco jiného - ukázat, v jakém stavu je AI a jestli je už možno jí něco takového svěřit, nebo ještě ně. No a výsledek je, že ještě ne. A že to stálo prachy? Někdo si vyhodnotil rizika a řekl, že ty prachy na to dá. Tak kde je problém?
Tak autor je pracovníkem Anthropicu, tak předpokládám, že to bylo v rámci testování firemního produktu.
Přiznám se, že můj odhad opravdu kvalifikovaný nebyl. Máte nějakou konkrétnější představu, kolik člověkodnů může trvat, řekněme, ruční napsání kompilátoru jazyka C na jednu platformu v kvalitě, která by umožňovala nasazeni aplikace na produkční prostředí? Třeba "jen" pro mikrokontrolér? Bez knihoven, opravdu "jen" dobře otestovaný kompilátor?
Dobrá otázka. Možná je dobré si ujasnit zadání. Ono to totiž není "ruční napsání kompilátoru" ale spíše "tady máš naprosto všechny zdrojové kódy z celého světa, které jsme získali, kašli na licenci, klidně z toho použij cokoli a nějak z toho zamixuj výsledek"
Překladač od nuly a kvalitní je určitě práce na hodně dlouho, jenže nikdo to od nuly asi psát nebude. Kdybych to dostal na stůl, tak minimálně bych asi použil obdobu Yaccu a Lexu (dneska už je určitě něco lepšího), všechny možné a dostupné optimalizace (asi nad LLVM IR) atd. Určitě ne psaní od nuly (to by i té AI trvalo léta nebo spíše desetiletí nebo století stylem pokus-omyl).
Díky za odpověď. No jo, v dané době je dobré používat nástroje, které jsou v té době dostupné. Takže je asi opravdu nesmysl dnes psát kompilátor od nuly. A ano, yacc a lex mě také napadly. Holt, stará škola... Dnes už jsou zase jiné nástroje, dokonce jakýsi generátor generátorů - někdy před půl rokem jsem něco hledal a narazil na něj, bohužel si už jméno nepamatuji, jen že to bylo nějaké strašně složité. Možná jsem se měl zeptat AI, jak na to.
Ako myslite ze AI dokaze oklamat roky vyvoja v oblasti matematiky (to nie je iba o programovani) a napise len tak lepsi parser ako generator z BNF? To nie je o ziadnej novej a starej skole. To je o pristupe profik vs amater.
====
ale spíše "tady máš naprosto všechny zdrojové kódy z celého světa, které jsme získali, kašli na licenci, klidně z toho použij cokoli a nějak z toho zamixuj výsledek"
====
Autor v blogu (který je IMO velice poučný, zajímalo by mě, kdo z diskutujících si jej celý přečetl) uvádí, že modely neměly přístup k internetu, celý vývoj proběhl offline, nez jakýchkoliv dalších materiálů. Takže vzhledem k použitému Rustu se domnívám, že až tak moc "vykradených zdrojáků" tam nebude, protože rustích kompilátorů moc natrénovat nemohl.
Autor celkem detailně popisuje, jakým způsobem vývoj probíhal, jak si agenti (částečně) rozdělili role, jak to bylo především o obrovském množství testů (a failů). Jo, lidi by pracovali systematičtěji, ale uvidíme, jak to bude vypadat ještě za pár dalších iterací modelů. Osobně bych nebyl optimista, že to nebude mít zásadní vliv na práci lidských vývojářů.
Píše
====
This was a clean-room implementation (Claude did not have internet access at any point during its development); it depends only on the Rust standard library.
====
Takže měl k dispozici akorát natrénovaný model ve více instancích + rust knihovnu, bez ničeho dalšího. Žádné hotové implementace čehokoliv, na čem by mohl dál stavět.
Claude je GPT (předtrénovaný model), to neznamená "akorát", ale "všechno co šlo sehnat" (trošku přeháním, ale je to blízko pravdě).
Samozřejmě že všechno, co šlo sehnat. Někdo brání profesionálovi, aby přečetl všechno, co jde sehnat? Samozřejmě nemluvím o nelegálním přístupu k ukradeným zdrojům. Pokud někdo něco zveřejní, musí počítat s tím, že si to někdo/něco přečte a zaktualizuje si tím své synapse/parametry. A pak tu "znalost" využije v další činnosti. Ať je to člověk nebo LLM. Já v tom až tak velký rozdíl nevidím. V obou případech použije akorát znalosti získané učením. Já to nepovažuji za "obšlehnuté zdrojáky". Ale každý to vidí jinak, což je taky v pořádku.
"Pokud někdo něco zveřejní, musí počítat s tím, že si to někdo/něco přečte a zaktualizuje si tím své synapse/parametry. A pak tu "znalost" využije v další činnosti. Ať je to člověk nebo LLM."
Tak zaprve LLM si parametry nezaktualizuje a zadruhe clovek a LLM fakt nejsou to same.
> clovek a LLM fakt nejsou to same
Ale vyzera to tak ze nejaka cast mozgu naozaj funguje podobne ako LLM.
> Ta běží jednou
Moze bezat kolko krat chcete. Ale samozrejme pri beznom pouzivani sa uz neuci, vtedy sa uz iba pouziva.
Samozřejmě že to běží jednou, na všech těch vstupních datech, které jsou v daném čase k dispozici (je nepodstatné, zda trénink provádí samo LLM, nebo nějaké obslužné nástroje). Pak naučený model spustí, dají mu k dispozici znalosti ovládání svých agentů přes popisy v nějakých promptech (ani nemusí být lidsky čitelné, ale pořád jsou to návody), příp. nějaké programátorské postupy/prompty - tedy to co tvoří ten Claude Code. A dalším promptem tomu modelu s přístupem k pomocným nástrojům dali za úkol napsat ten kompilátor. Takže to co měl ten celý model k dispozici se pořád jenom to, co získal ve fázi učení + ty "vývojářské best practice" prompty. V čem se to liší od toho, co jsem napsal?
Nebo má Claude Code k dispozici nějakou lokální (bez přístupu na net) obrovskou databázi zkopírovaného ("obšlehnutého")/přechroupaného knowhow, kterou by přes RAG průběžně konzultoval? To bych se divil, protože tam už by si dost zahrávali s autorskými právy, ale třeba jo... Tak jak to je?
9. 2. 2026, 19:45 editováno autorem komentáře
Jak s touto diskusí souvisí velikost trénovacích dat? Nikdo tu nerozporuje, že se při tréninku (tj. ladění parametrů modelu) používá vše, co je v daný čas dostupné (ať při prvním tréninku, nebo někdy později při "dotrénování" - možná je desetinné číslo modelu verze dotrénování, nevím, ale není to zde důležité).
A to natrénování != obrovskou databázi zkopírovaného ("obšlehnutého")/přechroupaného knowhow, kterou by přes RAG průběžně konzultoval?
já nepsal natvrdo "obšlehnuté zdrojáky", ale ano, i tak by se to asi dalo hodnotit (jenže do těch modelů nevidíme, navíc současné modely nerady označují zdroje).
Pořád čekám, kdy se v IT objeví někdo, kdo na tom bude vydělávat po analýze zdrojáků (a teď se nebavím o morálce okolo celé genAI, to je na delší povídání někde u piva :-).
Rozumiete tomu ako funguje LLM a na akych udajoch je trenovana? To ze nema 'aktualne' pristup k internetu znamena ze nevidi posledne commity. Inac ma komplet nacitany cely github a translacia medzi jazykmi je to co LLM ide velmi dobre.
Propálilo to 20k USD (takže reálně 200k USD, protože AI firmy prodělávají 90%) a napsalo to překladač, co sice něco zkompiluje, ale má chyby, které vlastně nikdo nedokáže opravit, protože to nikdo nenapsal. Jo, a generuje horší kód než GCC s -O0 a tomu říkám úspěch :)
Nic proti ničemu - lidi pálí prachy na jiných věcech a taky jim to nevadí. Na druhou stranu to krásně ukazuje, že pro tyto věci je potřeba i trochu inteligence a ne jen trial/error/correction.
No povedzme si na rovinu ze v podstate rovnako to vyriesila aj ta AI iba to obalila do nezmyslov aby sa to nedalo zistit.
Plyne z toho dost děsivý závěr - jako lidstvo vyvíjíme globálně používaný nástroj, u kterého jen stačí, aby *nějak* zkompiloval *něco*.
Zcela se tu rezignuje na kvalitu, zcela se rezignuje na pochopení souvislostí a nějakou koncepci nedej Bože zodpovědnost. Já vím, že je to trochu přístup test-driven development, který je tu už dlouho, ale ta míra, s jakou se tu ignoruje způsob a postup, jak se k výsledku došlo a tudíž jeho architektonické/základní vlastnosti, to je fakt děsivý.
Vlastně to je další krok v mém oblíbeném prorockém filmu Idiocracy. Rostliny milují Brawdo, protože obsahuje elektrolyty. Co jsou to elektrolyty? To z čeho dělají Brawdo. Ale proč? Protože to milují rostliny. Už to nebude trvat dlouho a budeme kácející se mrakodrapy svazovat lanem k sobě. Autoři Idiocracy se sekli o 450 let :-(.
9. 2. 2026, 13:55 editováno autorem komentáře
Z pohledu starych mazaku co psali ve strojovem kode jsi taky jen takovy matlal, co vubec nerozumi tomu jak ty procesory pracuji, a pises priserny neoptimalizovany kod a dohani to za tebe kompilatory, kterym vubec nerozumis jak funguji.
(mozna zrovna ty rozumis, ale vetsina programatoru ne).
Cimz chci rict, ze mit nastroj ktery negeneruje dokonaly kod nemusi byt hned katastrofa a konec lidstva.
Navic, nikdo tu mozna ani na kvalitu nerezignuje. Treba ten projekt pojede dal a budou optimalizovat a optimalizovat.
Ten projekt byl hlavně experiment. Konec lidstva to nebude. Idiokracie ano. Idiokracie není konec lidstva.
No ale to přirovnání jaksi nesedí... Já nepotřebuju vědět jak přesně funguje kompilátor, dokud vím, že má nějakou míru korektnosti. Dokud můžu důvěřovat autorům kompilátoru, že jejich postupy jsou validní, tak mám stabilní základy. Jasně, občas to není ideální a občas vznikne nepředpokládaná kolize, ale výsledek není zcela nahodilý tak, jako je tomu u výsledků z AI bez revize. To je něco, co tu dosud nebylo. Porušuje to hned několik dosud uznávaných vlastností, které se od kódu požadují. Determinismus, korektnost, hromadnost...
Pekny a ted by me zajimalo dodatecne naklady na maintanance. Napr. pridej dalsi architekturu. Optimalizuj tuhle cast, je pomala, atd.
...což je mimochodem ten největší problém. Nabastlit nějak funkční aplikaci na zelené louce umí kdekdo. A to i leckterý matlal celkem za pár dnů. Na dlouhodobých projektech je to nejzásadnější spravovatelnost. Na druhou stranu je řada projektů, kde je to úplně jedno.
Ok. A v jakém parametru je výsledek lepší, než současné překladače? Je to rychlejší? Umí to lepší optimalizace? Je to spolehlivější? Umí to více architektur? Existuje alespoň jeden parametr, v čem je to lepší? Překladačů C bylo napsáno tisíce od studentských projektů, přes specifické překladače pro obskurní platformy až po kolosy jako gcc a llvm.
Zajímavé, že si zrovna vybrali úlohu, kterou někdo udělal tisíckrát. Stejně tak vám AI udělá pěkný webshop, nebo příklady na pohovor.
Už někdo viděl AI (založenou na LLM) vytvořit kód, který by nebyl slepeninou tisíckrát napsaných úryvků často plnou chyb a nesmyslů. Já teda ne a zatím vždy, když jsem chtěl po AI napsat něco jiného než, co už před ní někdo napsal tisíckrát, tak byl výsledek naprosté zoufalství. Často i triviální úlohy řeší komplikovaně a hloupě, plné bezpečnostních chyb.