Otázka je, kde se budou LLM trénovat, když tu nebude SO a podobné stránky s (relativně) rozumnými odpověďmi (ta moderace se nám sice nemůže líbit, ale udržuje kvalitu).
LLM mají všeobecně řečení "nevím"(nevědomosti) schované hodně hluboko. Nad tím mají několik vtstev vymýšlení, domýšlení, podpůrnosti, předstírání znalostí, klidně si i vymyslí neexistující zdroje k vytvoření důvěryhodnosti(Claude) nebo ověření u reálného uživatele(DeepSeek).
Je nutné tuto možnost "povolit(vynutit)" v roli nebo v promtu. Např.
"Chci podložené odpovědi bez domýšlení a předstírání znalostí. Při nejistotě použij vyhledávání, jinak napiš „nevím“"
Jedna z možností je, že LLM se zlepší natolik, že již nebudou pro trénink aktuální otázky s kvalitními odpověďmi potřebovat - dokážou si to zjistit přímo ze zdrojáků (nebo třeba z vlastních experimentů). Konec konců, už teď mi umí odpovídat na otázky ohledně kódu, o kterém se na stackoverflow nic nepíše (protože jsem ho napsal včera) - prostě tím že si ho to přečte.
jo castecne souhlas (zrovna modely pro zdrojaky trenujeme). Ale napriklad na otazku "budou fungovat heartbeat pingy v Kafce 4.0, kdyz klientska knihovna postavena na (placnu) librdkafka.so podporuje 3.8.0?" to proste z dokumentace nevycte, ze zdrojaku tedy to by musel byt genius. IMHO na toto dokaze kvalifikovane odpovedet jen autor nebo nekdo, kdo se v tom hrabe kazdy den.
Zdá se mi, že jsi to nikdy neviděl v činnosti. Zrovna včera jsem vytáhnul svůj dva roky odložený rozpracovaný kód a nechal AI ho prozkoumat, vysvětlit co dělá a co je potřeba dodělat. Asi před měsícem jsem si zase nechal vysvětlovat, co dělá disasemblovaný obfuskovaný smali kód a následně ho nechal AI i upravovat a tím si upravil opuštěnou android aplikaci. I když je to jen jazykový model, tak má tolik parametrů, že se to chová inteligentně. Když si s něčím neví rady, nechá si to vysvětlit nebo jí pomůže odkaz na dokumentaci. Pokročilé modely si ji dokonce umí sami dohlddat a pracovat s takto získanými i formacemi mimo sbůj standardní trénink.
Přijde mi, že tyto komentáře kromě lidí, kteří nikdy nezkoušeli AI netriviálně používat, dělají ještě lidi, kteří vidí "AI" jako jeden blob, nerozlišují slabší a silnější modely, příp. mají zkušenost primárně se slabšími (GPT-4o) a ne se state of the art (OpenAI o3, Clause 3.5 Sonnet a novější, Gemini 2.5 Pro).
Další limitací může být dobrý tooling. Např. nástroje, které umožňují AI přímo pracovat se zdrojáky (Cursor, Cline, Cody, etc.), odemykají o dost víc monžostí než prostý chat, kde člověk kopíruje věci tam a zpátky.
Můžeme sémanticky slovíčkařit o tom, co je "opravdová inteligence" či "opravdové porozumění", ale o tom, že nejsilnější modely umí řešit originální, netriviální problémy, které určitě nikdo v trénovacích datech neřešil, o tom není pochyb. Samozřejmě že ne vždy, ne zcela spolehlivě, ale to je jiná otázka.
Vzhladom na dnesne trendy je to vlasne jedno. Dnesne desktop aplikacie su Electron. Ten je prakticky vsade. Vrcholnym nastrojom na ui na desktope je hmtl+css+js/ts alebo React, nuz co potom chceme. Cely vyvoj a kam to smeruje sa neda ani pekne napisat. Az tak nejak cakam kedy to uz prdne. Potom je aspon sanca ze mozno vznikne nieco nove.Ale to co je dnes IT a SW development to je tragedia.