Ani jsem si neškrtl. Přesně tento typ zápisu úloh jsem vždy nesnášel kvůli její praktické nevyužitelnosti a jsem rád, že moji kantoři se tomuto typu matematických nesmyslů a zbytečností nikdy pořádně nevěnovali a po nás to nevyžadovali.
Podle mě důvodem proč dané AI jazykové modely selhávají je to, že tyto typy příkladů nikdo neučí, neřeší kvůli jejich nevyužitelnosti a nesmyslnosti, a tak nemají dostatečné množství příkladů na kterých se mohou učit(trénovat).
Nevím (aktuálně se řeší jestli obecné LLM umí šachy, model podobný LLM speciálně natrénovaný na šachy ano), komentoval jsem hlavně to "tohle vyžaduje Opravdovou Inteligenci".
Beru to jako názor. Ale nepřesvědčil jste mě.
Klíčové bude uvědomění si sebe sama.
Což ze své podstaty LLM nedá.
Je to stroj, který skládá slova/obrázky/figurky na šachovnici/ .... podle vzorce který okoukala jinde.
Ale odpovědi na otázky, které nejsou na vstupu, nedá. Alespoň ta verze kterou jsem zkoušel.
Začne leda halucinovat.
Možná ale....
Když bude mít halucinací velké množství.
A sebekontrolou chybné výsledky zahodí.
Zůstane jen jedna. Správná myšlenka. Pak to bude myšlení. A ne jen papouškování.
Bartolo: V čem se liší halucinace LLM od téhle vaší halucinace? Odpovědi na otázky, které nebyly v trénovacích datech, LLM samozřejmě zvládá. Ne na všechny, ale na mnoho ano. Princip uvědomění sebe sama neznáme pořádně ani u lidí, takže těžko můžete tvrdit, že nic takového LLM umět nemůže. Kde berete tu jistotu, že lidský mozek není také jen stroj, který skládá slova či obrázky podle vzorců, které se naučil v dětství?
Klíčové bude uvědomění si sebe sama.
Podle mě bude klíčové zavedení hromady rychlých zpětných vazeb. Na mnoha úrovních. Člověk je schopen se poučit sám ze svých vlastních myšlenek přímo během procesu přemýšlení. Tohle jsi možná myslel tou sebekontrolou, ale podle mě je prostě nutné mít ty zpětné vazby hodně rozprostřené. Mít jednu zpětnou vazbu až na konci je, podle mě, dost málo.
Člověk je schopen se poučit sám ze svých vlastních myšlenek přímo během procesu přemýšlení.
Něco takového už pokud vím GPT-o1 dělá. Tj. už nefunguje tak, že by jen generoval text pořád dopředu, ale nejprve to analyzuje zadání, pak generuje odpověď a na závěr odpověď validuje. Není to hromada zpětných vazeb, ale nějaké tam jsou.
Umělá inteligence byla definována mnoha různými zpusoby ale vždy ty definice mluvili o schopnosti řešit problémy, a/nebo učit se, a/nebo přizpůsobovat se a/nebo přesvědčit pozorovatele o své inteligenci. Nemyslím si( a to jsem z oboru) že tu kdy byla (široce uznávaná) definice inteligence která zahrnovala schopnost sebeuvědomění. Ostatně do tedka si věda není jistá co vlastně sebeuvědomění je a zda je vlastní psům, kočkám a ostatním tvorům. Myslím si tedy, že si pletete pojmy a nějaké své dojmy.