ChatGPT to dokáže velmi snadno i s tabulkami. Ty se mi sem ale nepodřilo překopírovat. Textový popis (ChatGPT 4o verze):
OnlyOffice ve srovnání s LibreOffice postrádá několik pokročilých nástrojů a funkcí, které mohou být pro uživatele Linuxu důležité. Chybí mu například samostatné aplikace jako Draw (pro práci s vektorovou grafikou a anotaci PDF) a Math (editor matematických vzorců). Nenabízí ani alternativu k Base, tedy nástroj pro práci s databázemi. Podpora maker je v OnlyOffice velmi omezená – na rozdíl od LibreOffice, které umožňuje skriptování v Basicu, Pythonu a JavaScriptu, OnlyOffice podporuje pouze jednoduchá makra v JavaScriptu. Také možnosti exportu (např. přímo do EPUB) a pokročilého nastavení tisku jsou v OnlyOffice zjednodušené nebo chybí úplně.
Z pohledu Linuxového prostředí OnlyOffice neposkytuje tak hlubokou integraci se systémem – jeho vzhled není tolik přizpůsoben GTK nebo Qt tématům, a méně spolupracuje s nástroji pro přístupnost (např. čtečky obrazovky). LibreOffice naopak těží z dlouholeté tradice vývoje na Linuxu, díky čemuž je lépe sladěno s prostředím a distribucemi. OnlyOffice se primárně zaměřuje na kompatibilitu s formáty MS Office a spolupráci v reálném čase, ale za cenu menší flexibility, přizpůsobitelnosti a slabší podpory otevřených standardů jako ODF.
Já na závěr dodám, že OnlyOffice umí mnohem méně věcí než LibreOffice, ale to, co umí, funguje z uživatelského pohledu lépe.
Problem s ChatGPT a jinymi AI je ze dodavaji nesmysly.
Mozna OnlyOffice nema samostatny program na upravu rovnic, ale ma normalni editor rovnic kdyz clovek pise dokument. A tenhle editor je lepsi nez ten v libre office, protoze pouziva mimojine normalni texovsky zapis, narozil od libreoffice ktery ma nejakou polozpatlaninu napul texu podobnou, ale napul jinou.
No a otazka jak je to s temi dalsimi tvrzenimi chatgpt, takze proboha vy*erte se na AI kdyz hledate informace. Neni to dobry zdroj informaci.
Obávám se, že jste trochu mimo současnou realitu. Je pravda, že LLM jsou generativní, takže informace kombinují. To jej jejich vlastnost, nikoliv nedostatek. Míra kombinování je kontrolována parametrem nazyvaným "teplota". U některých modelů se dá nastavit přímo, u jiných (ChatGPT) ji lze ovlitnit slovním popisem. ChatGPT lze nastavit tak, že u každé odpovědi hlásí "spolehlivost" se slovním popisem, proč je ta spolehlivost taková.
Příklad z praxe: Studenti nižších ročníků na lékařských fakultách v nedávné době začali spontánně používat AI jako zdroj studijních materiálů, protože jim dává rychlé odpovědi. Profesoři jim říkají, aby se učili z knih, ale mladá generace knihy skoro vůbec nečte. Aby nedošlo k úplné katastrofě, tak jsou studenti instruováni, aby alespoň hlásili rozpory mezi informacemi z přednášek a AI. Pokud vím, tak bylo hlášeno jen několik málo problémů, které se týkaly nejnovějšího výzkumu, který byl prezentován na přednášce. Jinak ohromné množství informací, se kterými ti studenti pracují je AI interpretováno správně, protože AI je na těch informacích dobře trénovaná. (OpenAI má přehled o tom, na co se uživatelé ptají, a tak tomu přizpůsobuje trénovací data.)
Pokračování v dalším příspěvku.
Co se srovnání OO a LO týče: ChatGPT si u otázek na aktuální situaci stahuje data z webu a ta analyzuje. Jedná se o "jednoduchou" analýzu, kde k chybám dochází většinou jen z toho důvodu, že se použije starší dokument. Menší nepřesnosti mohou vzniknout i při zkracování, kdy uživatel požádá o zkrácení jednostránkové odpovědi do jednoho nebo dvou odstavců.
Pokud s AI pracujete intenzivně, což je ve výzkumu už skoro standard, tak máte dobrý přehled o tom, v jakých situacích jsou odpovědi spolehlivé a kdy si AI často vymýšlí. Navíc nebývá problém výstup jednoho modelu (ChatGPT) vyhodnotit jiným modelem (Gemini).
Na závěr jen dodám, že přístup "AI si vymýšlí, nepoužívejte to" je už několik let mimo. K tomuto závěru lidé docházejí, když použijí volně dostupné AI modely (např. Copilot). Komerční modely poskytují mnohem kvalitnější odpovědi. Další problém je, pokud se uživatel začne vyptávat na "cutting edge research", tam se AI věřit nedá. Jinak v současné době platí, že všechny informace poskytované AI by měly být člověkem ověřené. Moje zkučenost je, že v jedné vygenrované stránce textu obvykle musíte opravit jen několik vět.
Proto jsem ve srovnání LO a OO uvedl, že výstup pochází z ChatGPT 4o, což je placená verze. Co se studentů týče: Někteří mají placenou AI. Často to funguje tak, že rodiče studentů medicíny jsou doktoři, takže finanční situace jejich rodin nebývá špatná. Ostatní studenti od nich ty informace přebírají. Jinak studenti univerzity májí přístup i ke komerčním verzím AI od Microsoftu. Ten ale není v současné době na špičce.
Co se rozdílu mezi zdarma a placenými verzemi týče: Analýza problému pomocí placené verze Deep Research od OpenAI někdy trvá 10-15 minut. Jedná se výpočetně velmi náročné úlohy. Proto je v základní verzi (asi 20 USD za měsíc) k dispozici jen 10 dotazů měsíčně. Víc dotazů má varianta za 200 USD za měsíc. AI je v současné době gigantický byznys a uživatelé jsou ochotni za to platit. Na YouTube je spousta příspěvků na téma: Analýza literatury pro dizertační práci mi dřív zabrala 2 měsíce tvrdé práce. Dnes to AI zvládne za půl hodiny.
Víc dotazů má varianta za 200 USD za měsíc. AI je v současné době gigantický byznys a uživatelé jsou ochotni za to platit.
Problém AI byznysu je, že uživatelé za to nechtějí platit. Když to Microsoft nabídl jako placenou věc navíc k Office 365, tak si to zaplatily nízké jednotky zákazníků. ChatGPT loni vygenerovalo na tržby 3 miliardy 5 miliard ztrátu. Jinými slovy na 3 vydělané dolary jejich byznys 8 dolarů vydal. A to mají v rámci dohody s Microsoftem výpočetní zdroje v Azure výrazně pod tržními cenami.
Proto jak Microsoft, tak Google přešel na strategii, že to dají všem a všem taky zdraží, protože samostatně za to nikdo platit nechtěl a ty gigantické investice se musí alespoň z části splatit.
Jinak AI samozřejmě nezmizí, jen asi dojde k menšímu splasknutí té bubliny a úpravě očekávání. Osobně pracuji s Perplexity Pro a placeným Gemini a jsou to užiteční pomocníci, ale zároveň mám dnes a denně na očích, jaké mají limity a jak hloupé chyby dokáží dělat. Je to OK, když si s tím děláte rešerše. Kosa na kámen narazí v momentě, kdy se to začne cpát do procesů, které vyžadují spolehlivost. Tam už nebude stačit, když to 9x udělá správnou věc a jednou blbost.
AI bublina je opakem extrému "AI je k ničemu". Realita je někde uprostřed.
Co se procesů, které vyžadují spolehlivost týče: To je velmi složitá problematika. Třeba v radiologii se v rámci experimentální psychologie dělají studie, které sledují a porovnávají chybovost doktorů a AI. Současná situace je taková, že AI má menší chybovost, pokud zpracovává podobná data, na kterých trénovala. Pokud se setká s něčím neobvyklým, tak může dělat ohromné chyby. Na druhou stranu i zkušený doktor může po dvanáctihodinové směně udělat kvůli únavě chyby i v jednoduchých případech. V praxi se to řeší tak, že doktor výstupy z AI musí kontrolovat. I to s sebou nese problém, protože čím více doktor jen kontroluje, tím více jeho mozek ztrácí schopnost patologie samostatně najít.
Obecně by se dalo říct, že chybovost AI lze snížit tak, že se nasadí model B, který kontroluje výstupy modelu A. Pokud model B není s výstupem spokojen, donutí model A k jinému výstupu.
To zní hezky, ale pokud model A generuje tisíce řádek kódu (Google prý takové modely interně používá), pak přeji mnoho štěstí s vývojem a trénováním modelu B, který ten kód umí spolehlivě kontrolovat.
Nejen při rozmachu Wikipedie, jsou aktuální stále. Hlavně v situaci, kdy řada středoškoláků netuší, že existuje i jiný zdroj informací, než právě Wikipedie (a dnes tedy navíc ChatGPT v neplacené verzi) a že má Wikipedie historii změn.
Wikipedie je stejně jako ChatGPT skvělý pomocník v určitých situacích, ale je naprosto nevhodná jako jediný studijní zdroj pro naprostého začátečníka. Výsledkem jsou pak pseudoodborníci ve stylu studentů, kteří se kdysi naučili za dvě odpoledne naprasit nějakou hýbající se webovku v Javascriptu a teď hledají způsob, jak v Javascriptu programovat Arduino a dotazovat SQL databázi. A odmítají připustit, že na to bude potřeba jiný jazyk, protože oni se už naučili tenhle a jiný nejsou ochotní ani zkusit.
ChatGPT se dneska používá podobně nekriticky a nestřídmě, což u lidí s obecným přehledem nezpůsobuje problémy, ale u naprostých začátečníků vede k tomu, co jsem viděl na letošní Soutěži v programování pro SŠ, kde v krajském kole se jeden účastník přiznal, že celý kód stvořil ChatGPT a on vůbec netuší, proč mu to přesto nefunguje. Důvod byl ten, že z kódu a komunikace s AI nedokázal určit ani to, že má do stejné složky se zdrojákem nakopírovat také soubor se vstupními daty. Poté, co ho tam organizátoři zkopírovali, fungoval projekt bez dalších chyb, jen študák nedokázal vysvětlit ani komentáře.
Souhlas s tím, co bylo řečeno o ChatGPT, ale dost nesouhlas s tou Wikipedií. Podle mě je Wikipedie právě pro začátečníka velmi vhodná, přinejmenším v anglické verzi, která má největší množství hesel a zároveň je i nejpodrobnější. Navíc jsou data ozdrojovaná a pokud ne, je na to (nebo jiné nedostatky) upozorněno hned v záhlaví stránky. A ano, historie editací může být podstatná a je důležité o ní vědět. A stejně tak je třeba u Wikipedie, jako u jakéhokoliv jiného zdroje, používat kritické myšlení a pokud možno si informace ověřovat i z jiných zdrojů (dle jejich důležitosti, často to ani nemusí být potřeba).
Jasně, že studenti to aktivně nehlásí. Statistiky se nevedou, prostě se jich zeptáte a oni vám odpoví.
AI je dostatečně přesná, když se ptáte na encyklopedické znalosti, protože současné modely používají pro trénink data z kvalitních knih a vědeckých publikací. Takže studenti v několika prvních ročnících jsou v bezpečí. Horší je to ve vyšších ročnících, kde se řeší i neobvyklé případy. Tam schopnost AI "generovat" tvrzení bývá problematická.
Někdy jsou její výstupy očividně chybné, ale někdy generuje tvrzení, která jsou jakoby samozřejmá, ale vědecká literatura je nezmiňuje. Například se zeptáte na vlastnosti gadolinia v určitých situacích. Dostanete perfektní odpověď, která se zdá být OK. Když se ale pídíte po zdroji, tak ve vědecké literatuře nic nenajdete. AI vás odkáže na dokumenty, které popisují chování ceria v těchto situacích a na další dokumenty, které popisují, že gadolinium se jako lanthanoid chová podobně jako cerium. AI si ty informace dala dohromady a usoudila, že gadolinium se v té situaci bude chovat jako cerium, a proto popsala chování ceria. Jenže tohle vysvětlení vám klasické modely jako 4o nesdělí. A pravdu se dozvíme, jen když někdo ty experimenty udělá. Prostě AI v současné době generuje tvrzení, o jejichž pravdivosti neumíme rozhodnout. Když se zeptáte specialistů, tak se podrbou na hlavě, řeknou že to dává smysl, ale ruku do ohně by za to nedali. Laik to může považovat za ověřený fakt.
Skolometsky otazky jsou vsude stejny a 100 let stejny, takze ty otazky nejdes ve vsech variantach a jazykovych mutacich, stejne jako odpovedi na ne.
I tak ti z AIcka typicky vyleze minimalne napul halucinace a napul zcela vseobecny blabol.
A pokud se jakykoli vyucujici s takovou odpovedi spokoji, mel by byl na minutu vykopnut. Za dve by jich tu nebylo 99 ze 100. Protoze opet naprosto typicky vyuka nijak neresi, jestli dotycny o veci neco vi, nebo necemu rozumi, ale vyhradne to, jestli je schopen vyplodit nejaky blabol. A AIcko mu presne takovy blabol doda.
Ostatne jsou davno zname priklady kdy to vpohode projde i jako diplomka.
Ja dneska chodit do skoly, poridim se pruhledovy "dioptricky" bryle s integrovanou kamerou ... a kdyby nahodou, tak "naslouchatko na hluchotu"... nascanujes zadani a do ucha/na display dostanes reseni.
To je váš expertní pohled. Jiný expertní pohled je publikován třeba zde: "Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models" (https://doi.org/10.1371/journal.pdig.0000198). Stručně: Skóre AI je blízko nebo nad hranicí úspěšnosti. Zdůrazňuji, že šlo o Licenční zkoušky, nikoliv o základní znalosti, které se učí v nižších ročnících. Autoři tvrdí: "without any specialized training or reinforcement". Já jen dodám, že článek byl publikován v roce 2023 a byl použit model ChatGPT 3.5. V té době studenti běžně používali specializovaný GPT model "Medical AI". V současné době se specializovaný Medical AI nepoužívá, protože ty informace jsou dostupně v rámci současných obecných modelů.
Co se blábolů týče: U základních znalostí dostanete v naprosté většině případů kvalitnější odpověď než od renomovaného profesora. Prostě proto, že kromě faktických znalostí je AI trénovaná i na tom, aby informace podávala ve snadno srozumitelné strukturované podobě. Už se s tím smiřte. A pokud tomu stále nevěříte, tak sem pošlete příklady, kdy tomu tak není.
Do jaké míry je AI vhodné pro výuku a jak by se mělo integrovat do zkoušení je námět na celý článek, ne-li knihu. To se stručně popsat nedá. Dá se o tom spekulovat, ale data z vědeckých studií zatím nejsou.
Co se brýlí a jiných pomůcek týče: Solidní VŠ to kontrolují. Někdy to jde i do takových extrémů, že ze zkoušky jsou vyloučeni studenti, kteří si do knihy napsali ktátkou poznámku. (Třeba matematicko-fyzikální tabulky jsou jako knihy u zkoušky povoleny, ale nesmí tam být poznámky.)
Tak já mám trochu anekdotických zkušeností s učením, a je to tak půl na půl.
U dětí a učiva základní školy naprostá spokojenost - Grok má trpělivost, a dá se přesvědčit tak, aby potřebnou látku podal způsobem, že dítě neuteče nebo se nezačne nudit, takže je mnohem lepší než já.
Co se týče VŠ, tak je tam opravdu velký problém s halucinacemi. Takhle, normální textbook témata to dokáže velmi trpělivě vysvětlovat až do konečného pochopení, a to i celkem pokročilá (SUSY apod.). Problém je, když se člověk začne neučebnicově zvědavě ptát, tam zahalucinuje naprosto běžně, což je velký problém. V porovnání s VŠ přednášejícím, který si obvykle (když má čas) rád popovídá.
Jako hodně typický příklad, co mi (pár měsíců zpátky) nezvládl nikdo, je nechat si vysvětlit Maxwellky nebo Speciální relativitu, a pak se zeptat, když je tu jistá podobnost mezi 4-vektorem a hyperkomplexními čísly, tak jestli by to nemohl zformulovat použitím kvaternionů. Odpověď byla vždycky naprosto mimo, místo aby prvky 4vektoru zkusil naskládat do kvaternionu, tak z toho halucinují nápady jako součet jednoho kvaternionu + i krát druhý čistě imaginární kvaternion (které si navíc plete s kvaternionickou imaginátní jednotkou i), plete dohromady skaláry a vektory... prostě jako totálně zmatený student u zkoušky.
Hloupé je, že na to, aby člověk poznal, že je to nesmysl, tak musí danou látku ovládat, což je obecně prostě špatně.
Souhlasím. S matematikou je pořád problém, ale zlepšuje se to. Pro studenty inženýrského studia připravuji jednoduché výpočetní úlohy s fyzikální tématikou. Dřív AI nevyřešila nic, ale nyní alespoň rámcově vyřeší všechny mé příklady. Někdy si dám práci s tím, že naformuluji úlohy, které současná AI vyřešit neumí. Jenže pak je neumí vyřešit ani studenti. (Hovořím o běžných studentech inženýrského studia, ne o talentovaných studentech matematiky nebo teoretické fyziky.)
Co se kvaternionů týče: s těmi jsem naposledy pracoval před skoro 40 lety, takže by mi teď nějakou dobu trvalo ten výstup zkontrolat Jestli máte náladu, tak se podívejte na chat s odpovědí zde (ChatGPT o3):
https://chatgpt.com/share/68654291-a03c-8011-8cc1-cd5e78f4f64f
Taky už si to po letech musím připomínat a znovuprojít učebnice, ale mám pocit, že tam má zjevnou chybu už v 3.2 Minkowski norm - násobení s komplexně sdruženým kvaternionem dá absolutní hodnotu na druhou, ne Minkowského normu (jednoduchý připad q =i ; q*=-i; q*q = -(i^2) = - (-1) = +1).
Koukám, že si to pamatuju dobře, Wikipedie se mnou souhlasí https://en.wikipedia.org/wiki/Quaternion#Conjugation,_the_norm,_and_reciprocal
Ale každopádně tohle už vypadá proti dřívějším verzím mnohem lépe, to zase musím uznat.
S normou kvaternionu máte pravdu, ale AI si to upravila a místo kvaternionů použila bikvaterniony (https://en.wikipedia.org/wiki/Biquaternion#Relation_to_Lorentz_transformations). Otázkou je, jestli to "vymyslela" nebo přebrala z literatury. Řekl bych, že zrovna tohle přebrala. U problémů spojených s netriviálním odvozováním se zdráhám AI věřit. Když jsem takové problémy řešil, tak jsem použil AI, aby problém naformulovala pro Wolfam (dřív Mathematica) a ta odvozování jsem po copy & paste dělal tam. Teď čtu, že ChatGPT integraci s Wolframem má, ale musí zapnout:
Availability. As of July 2025, the Wolfram GPT is in the “Explore GPTs” catalog, while the older “Plugins” tab is hidden for many accounts; your IT admin may need to re-enable it.
chatgpt.com
Session by session. Each conversation must be started with (or switched to) the Wolfram-enabled GPT; otherwise the model reverts to internal mathematics.
Rate limits & authentication. Heavy symbolic workloads (e.g., large integrals, 3-D PDEs) can exhaust free API quotas quickly.
Praktickou zkušenost s tím nemám.
Tohle je asi trochu šířeji k věci. Zkuste se podívat na linky níže. "AI" sice umí například sečíst dvě čísla nebo vyřešit Hanojské věže. Jenže to sčítání provádí v podstatě heuristicky, a vysvětluje ho tak jak sčítání popisuje učebnice, ne tak jak to opravdu počítal. A to přesto že dotyčný model byl nakrmen spoustou učebnic matematiky. Sčítat se z nich ale nenaučil, "nerozumí" textu. V druhém případě zaujmou ty puzzles, kde při zvýšení komplexity dojde k naprostému kolapsu. Zřejmě například řešení pro 11 disků v Hanojských věžích nebylo (dostatečně často) v tréninkové datové sadě, model nemá co zopakovat, a sám nic nevymyslí, protože jaksi nemyslí. Celá dnešní "AI" je autotype na steroidech. Samozřejmě má své použití, ale také dost zásadní omezení, o kterých je potřeba vědět.
https://transformer-circuits.pub/2025/attribution-graphs/biology.html#dives-addition
https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
Popisuje klasické fungování LLM. To je výborně vysvětleno třeba v knize od Stephena Wolframa (autor Mathematiky) "What Is ChatGPT Doing ... and Why Does It Work?" (Přečetl jsem ji.) Jenže takhle už současné pokročilé modely AI NEFUNGUJÍ !!! Přidal jsem tři vykřičníky, aby si to někteří lidé konečně uvědomili. Současné modely napřed určí, co mohou zodpovědět samy a co předají specializovaným aplikacím. Pak probíhají iterace mezi generativní AI a aplikacemi. Kdybyste používal model ChatGPT o3, tak byste to přímo viděl, protože se to vypisuje na obrazovku. Ten model třeba napřed prostuduje váš dotaz, pak napíše a spustí skript v Pythonu a výsledky skriptu dále analyzuje. Klidně se na to AI zeptejte. Dostanete stránku detailního popisu, co všechno současné modely umí.
Že současná AI "nechápe", co dělá, je snad jasné každému, to zde není třeba vysvětlovat. Změny se očekávají až s příchodem superinteligence. Optimistické předpovědi říkají 5 až 10 let. Pesimistické říkají nikdy.
Ano, dnešní LLM dovedou spustit skript v Pythonu. Jenže pokud "AI" nedovede vyřešit ani poměrně triviální problémy, a musí na to volat externí aplikace, tak jde prostě o berličku. Hrubým srovnáním je to na úrovni toho, kdybyste vy počítal 3+5 pomocí kalkulačky, a pokud narazil na slovo strýc, tak byste ho hledal ve slovníku.
Mimochodem když jsem naposledy zkoušel ChatGPT o3, tak v některých situacích ty skripty v Pythonu padaly, a jediným výstupem byla informace kde to spadlo :)
Mně přijde, že co se týče psaní kódu, se to právě poslední rok nějak zásadně nezlepšuje. Posouvá se to, ale ty zásadní chyby to má pořád zhruba stejně četné. A to mám zkušenosti s placenými modely. Takové placené Gemini si i dnes dokáže deklarovat proměnou a o pár řádků níže ji použít, ale jinak pojmenovanou.
Třeba oproti LibreOffice Online to má úplně jinou architekturu. LOO provozuje na serveru plnohodnotnou verzi LO, ke které se připojují tenké klienty v prohlížeči, na které míří jen bitmapy. Výhoda je v tom, že LOO díky tomu umí prakticky vše, co desktopové LO. Nevýhoda pak v tom, že je to náročnější na serverové prostředky a konektivitu.
OnlyOffice si dokumenty uloží v nějakém svém interním json formátu, který posílá tlustým klientům v prohlížeči, veškerá úprava dokumentů tak probíhá lokálně v prohlížeči a na server se posílají změny. Není to tak náročné na serverové prostředky a konektivitu.
Asi největší nevýhoda OnlyOffice je v tom, že je dělá firma napojená na Rusko. Hodně firem včetně třeba Nextcloudu s nimi kvůli tomu ukončilo spolupráci. Z pohledu nějaké softwarové suverenity a soběstačnosti je tak přechod z MS Office na OnlyOffice tak trochu z bláta do louže.
OnlyOffice je celkem ok. Hlavně má asi tu výhodu - pro lidi přecházející z M$O - že jejich UI vypadá hodně podobně.
Mě na OnlyOffice ovšem extrémně vadí to, že sice umí otevírat soubory formátu ODF, ale již je jako ODF neumí ukládat (bavím se o online verzi OnlyOfficu). Jinak řečeno - je to v podstatě nucený přechod z (opravdu otevřeného) dokumentového formátu ODF na microsoftí OOXML...