To nikdy nebude, protože člověk má jednak smysly a také ostatní lidi z různých oborů a různého věku. Aby někdo naprogramoval mě, o čem si dělají srandu na ABCLinuxu, tak by museli pečlivě otagovat úplně všechno, co mám ve své hlavě, což nejde, protože tohle nikdo neví a ani moji přátelé by to nedali kompletně. Takže AGI bez miliard neuronů a bilionů spojení nikdy nebude a stejně bude potřeba komunikovat s ostatními, aby vůbec něco pochopila.
Pokial to fyzikálne je možné (č oje) tak to bude... len záleží kedy.
A pak že je Evropa ateistická. Tak pevnou víru v technologie jako má Mlocik97 nemá snad ani papež v Krista. Bohužel u toho zapomíná na to, že mnohé věci, které jsou fyzikálně možné, nemusí dostat vůbec příležitost k realizaci... Čas je dost neúprosná veličina.
Viz můj comment nahoře, ono je to naopak. Pokud Vesmír funguje tak, jak si myslíme (De-Sitterovská geometrie a stabilní kvantové vakum), pak naopak ten neúprosný čas tomu pomáhá až do fáze, že pravděpodobnost čehokoli, co je fyzikálně možné, se blíží jedné.
tl;dr: Po relativně krátké době skončí Vesmír ve stavu rozpínajícího se prázdna o teplotě 10^-30K (teplota Unruhovy radiace). Což je strašně málo, ale není to nula. Prostor roste exponenciálně s časem, času máme k dispozici věčnost, samozřejmě že tam dochází k fluktuacím kvantových polí, kde občas vznikne něco (a čím složitější to něco je, tím klesá pravděpodobnost). Mno a vtip je v tom, že pravděpodobnost fluktuace, kde vznikne třeba mozek, nebo celá planetární soustava, je nesmírně malá, ale nenulová, přičemž máme k dispozici nekonečný čas.
https://en.wikipedia.org/wiki/Boltzmann_brain#In_single-universe_scenarios
Můj názor na AI, už v době dosu uměl Borland skvěle napovídat a špičky až do dnešní doby dosáhlo Delphi, kde to sice byly jen ručně psané templáře, ale bylo to bez chyby.
S Copilotem jsem sice napsal convertor do webp v Golangu, ale každý řádek jsem opravoval. Takže AI sice dobře napovídá, ale je lepší si to psát sám.
Ehm, copilot je doplnovac kodu. Nebud chrt a zaplat si na programovani claude a nainstaluj claude code. Ale nezapomen si otocit hlavu obinadlem, protoze ti upadme celist. S claudem jsem navajbil vytezovani faktur cesta ma pdf txt vrstvu - ma isdoc prilohu - uloz - prejmenuj podle variablu a ica fallback dic. Nema? Isoc? Ma embedovanej qr kod? Ma - precti ho vytvor isdoc. Nema embeded, preved na png detekuj qr fsktura kod - ma ? Precti uloz isdoc. Nema? Png posli s promptem ai modelu - vraci json uloz idsoc. Pro qr kody pro sichr pouzity dve knohovny ,- porovnsg vysledky - jedeme dal. Pak prochazi na radu ksicht pro ucetni - napojeni na ucetni system a nas obeh faktur ve firme ( workfwlow po vsech certech ) - navrat info na prijem faktur ze bylo zdigitalizovano a nasledne zauctivano. To ti nastroje zadarmo neudelaj. 80% jsem vymyslel sam a zbytek se sefem po brainsormingu. Platim si 100 usd flat clauda a nelituju. Lituju ze nemam kapacitu ho za den utahat jak taznyho valacha. Zacinal jsem v cursoru ale taky s modelem 3.5 sonet. Vlastni instrukce pro git, chovani, strukzura a ted uz jen sedim u ucetni a ladime. Par minut a opraveno - upraveno. Az bude cas , doladim bounding boxy a bude to top. Toz tak. Jsem spatnej prgac, nechci civet do kodu celej den.
To je dobre ze to napises sam, jiste za vikend. Nekterym jedincum ten vyvoj unika, ale to prijde. Pisalkove kodu jeste chvili budou potreba. Moje hobby kod nikdy nebyl, ted s claudem jsem ve svym zivlu. Jelikoz clauda mam asi necely tri mesice a s ai programuju nekde od ledna, tak to udelal skok jako blazen. Davam pisalkum kosu rok, max dva. Koderi se musi naucit velet trem instancim cloda a pak to pofrci. Ne, ze zmena barvy tlacitka potrva tejden. Nadsazka.
Na věci, které už v různých podobách napsalo mnoho lidí přede mnou, je Claude super. Ale jak v tom člověk programuje něco nového, unikátního (minimálně v kontextu Linuxu) a ještě low-level, tak to velmi rychle naráží na své limity. Zkoušíme to i na různé věci v balíčkování a tam to má zatím taky dost žalostné výsledky. Dneska kolega potřeboval najít, kde se používá v Qt balíčcích interní API Qt. Ve 30 ze 110 balíčků to našlo a pracovalo s tím dle instrukcí. U zbytku to napsalo, že to tam není. Stačil jednoduchý grep, který to v řadě z nich našel. Někdy to člověku napíše sofistikovaný program, který funguje na první dobrou, někdy to nezvládne sestavit jednoduchý bash příkaz. Šéf to nechal napsat aplikaci, která byla akcelerovaná přes Vulkan API. Byl z toho nadšený. A pak se ukázalo, že to vůbec žádnou akceleraci přes Vulkan API nemá, že to Claude jen deklaroval, zatímco v kódu nic nebylo, což šéf netušil, protože ten kód ani neviděl. :)
Ale jak říkám, na takové to každodenní programování ve firmách, kdy se musí spíchnout to, co už udělalo tisíc lidí přede mnou, je to vážně dobrý,
Ja jsem manažer vyvojarskeho týmu, takže já osobně s tím jen experimentuju, abych zkoušel, jak užitečné to pro vývojáře je, ale myslím, že náš tým toho v kontextu Linuxu dělá unikátního hodně. Naposledy jsme třeba implementovali podporu pro HDR, kterou pro Linux před námi nikdo nedělal.
Jinak platil by sis to, i kdyby to stálo místo 100 dolarů tisíc? Protože to jsou reálné náklady, které Anthropic na aktivní uživatele toho předplatného má a na kterou se to časem dostane, pokud nebudou chtít donekonečna prodelavat. Jako věřím, že jsou role, kde se to i tak vyplatí. My jsme spíš systémoví integrátoři. Hromadu času trávíme nad požadavky zákazníků a domlouvání s ostatními v upstreamu, jak se to má řešit. Nad samotným psaním kódu trávíme tak 20 % času. A kdybychom měli platit ty skutečné náklady, už to taková výhra není, že nám to pomůže u 20 % práce. Zvlášť když minimálně u našich problémů je to pořád dost nespolehlivé.
> Ehm, copilot je doplnovac kodu.
Neeee, copilot má i normálně chat mode/agenta. A zatímco doplňování je nějaké GPT-4o-mini (musí to být rychlé a levné), tak chat/edit/agent má "dospělé" modely. V placených verzích i ten Claude. Případně se dá nasměrovat na jiné API endpointy - já ho takto používám s firemním Gemini 2.5 Pro. A stejně tak jde používat s libovolným modelem třeba přes OpenRouter nebo ollamu (jako proxy na komerční model).
Osobně mě tihle command-line agenti moc neuchvátili - terminál mi na takovou věc přijde omezující. Pokud chcete grafické (a nestačí vám Copilot, byť s placeným "silným" modelem), tak bych doporučil https://www.augmentcode.com/. Mrzuté je, že i nejmenší verze je dost velká a tedy drahá - pro rekreační programování je 600 vyvolání agenta měsíčně zbytečně moc, já mám typicky něco jako 4 požadavky za hodinu.
Jojo, může Altman pábit jak chce. Na jeho případ zdá se pasovat ten bonmot o hřebíku a kladivu.
Ono je otázkou, co si vůbec představit pod pojmem human-level AGI. Když si vezmete, v kolika oborech má znalosti takový GPT4, tak už to je zřejmě dalece nadlidská kapacita... přitom postrádá řadu schopností biologických mozků - tyto fungují docela dobře, aniž by k tomu potřebovaly srovnatelně obrovský výpočetní výkon (a energetický příkon).
Jak tak po očku šilhám po alternativních či inovativních architekturách ANN, narazil jsem na autora jménem Charles J. Simon (a jeho Future AI Society). Viz YouTube kanály Future AI Society a AI Neuro Insight. Má podrobné znalosti neurobiologie mozku, zároveň je počítačový AI vědátor. Razí spiking ANN a skládá z neuronů zjednodušenou napodobeninu kortikálních sloupců. Píše si na to simulační software... Navrhl pár architekturních prvků / funkčních bloků, které umožňují implementovat schopnosti biologických sítí, nevídané u dnešních mainstreamových LM: průběžné učení, učení na několika málo případech, šetření energií u neuronů v neaktivním stavu... Prakticky z jednotlivých neuronů (nebo spíš sloupců? možná něco mezi) skládá menší demo sítě, a kóduje znalosti do grafů, prakticky na úrovni jednotlivých neuronů... Sám říká, že zdaleka nezná odpovědi na všechny otázky, ale má pár velmi dobrých nápadů / věcných postřehů. Nejvyšší čas, aby si vychoval nějakého nástupce :-)
18. 8. 2025, 23:08 editováno autorem komentáře
Mimochodem... následující nápad nemám ze své hlavy, nejspíš jsem to viděl jako gag v nějakém sci-fi filmečku, a možná nebyl jenom jeden (Stopařův průvodce / Marvin the paranoid android?): bylo by boží, mít osobního AI asistenta, který by mě častoval ironickým tónem, případně by se s ním dalo v tomto duchu debatovat :-)
Jak psal minulý týden Ed Zitron, s GPT-5 začíná enshittifikace generické AI. Nabalili hodně uživatelů, vyvolali velká očekávání, ale pořád je to na provozu stojí klidně 10x tolik, než to dokáže vydělat. Takže půjdou po nákladech, dotazy budou čím dál víc odbavovat levné, ale méně kvalitní modely, poroste nekonzistence atd. Dál ale budou tvrdit, jak se to posunuje dopředu a zlepšuje.
15. 8. 2025, 22:20 editováno autorem komentáře
Kód, na kterém se GPT 4.1 motala pořád dokola (OpenGL v androidu - kombinace souřadnicových systémů android vs vstup UV vs výstup NDC), dala GPT5 napoprvně správně. V podstatě všechny požadavky dala funkční na první dobrou a řešily se jen detaily. Za mě je GPT5 použitelný model, 4.1 sice odpoví rychle, ale s chybami. Ano, je to evoluce, ale docela skok.
15. 8. 2025, 23:10 editováno autorem komentáře
Asi už je tahle diskuse pasé, nicméně - v copilotu jsem si pro porovnání dal požadavek do Sonnet 4 a ... výsledek plný chyb - zapomínal, že přejmenovává proměnné, část jich nechal původních (samozřejmě ve výsledku dělal i jiné věci, přejmenování byl jen malý požadavek, aby to udělal najednou). To se mi v GPT5 nestává. Nicméně vzhledem k vysoké rychlosti odpovědi je možné, že copilot použil model jiný, kdo ví, jak jim to funguje.
Zpravicka vysla dnes ale vychazi ze starych informaci. Treba gpt-4o je po tlaku uzivatel zpatky. Jestli je petkovy model lepsi nez to co bylo doted - je a vyrazne a dela vyrazne min chyb ale v nekterych situacich dela porad hlouposti. Kod? Slusny vystup pokud nepisete neco exotickeho v necem exotickem, tady je proste dobre znat limity technologii. Ocekavat ze mi gpt5 napise bankovni appku je hloupost, ocekavat ze mi napise simple java/c/go/rust/ appku kter bude delat par zakladnich veci je realne. Diky AI jsem zacal “psat” aplikace o kterych bych v minulosti ani nesnil ze jsou technicky realizovatelne. Kdyz se podivam na cenu predplatneho tak mi openai zachranil tenhle rok neco malo pres $10k a vydelal neco malo pres $10k, bez AI bych byl na tom o $20k hur. Kdyz ho srovnavam s konkurenci (nebudu resit video a obrazky) tak v nekterych vecech je konkurence lepsi (treba claude napise java appku na prvni dobrou, deepseek poskytne specificke informace co se tyce cinskych standardi a dokumentace), google ai studio je skvele ke psani prototypu, ale pro denni pouziti (zpracovani dokumentu, posty, analyza kontraktu, nebo ukoly typu tady ti dam zip ve kterem jsou pdf, zpracuj z nich data, vyexportuj je do x souboru ktere zazipujes do jednoho zipu) nema openai alternativu.
Bodejť by vlažné nebyly. Protože Claude Sonnet tak možná dohnali a ani to není úplně jisté (mně Sonnet pořád dává podstatně lepší výsledky a i ty mají k dokonalosti daleko) a toho čtyřnásobného snížení halucinování jsem si ani nevšiml. Halucinuje pořád stejně, tedy pořád každou chvíli a o kdečem.
Vlastně jediné čeho jsem si všiml je méně osobní tón, což jsem ale měl stejně v rámci možností vypnuté instrukcí, aby vždy odpovídal věcně a stručně.
bylo by vhodne zminit tve pouziti, treba kdyz chci napsat neco lehkeho v java na prvni dobrou tak je claude skvela volba. Jakmile chci treba nahrat zip ve kterem jsou pdf ktera ma claude zpracovat tak to padne na tom ze zip neni podporovan... zatimco chatgpt nema s timhle problem a udela presne co po nem chci. Podle me psani kodu se stane jenom okrajovou zalezitosti pro AI, ja vidim spoustu moznosti mimo programovani...
16. 8. 2025, 02:21 editováno autorem komentáře
Když LLM instruujete, aby vždy odpovídala stručně, a nepoužijete reasoning model, zvyšuje se šance k halucinacím (např. méně šancí na autokorekci). Pokud je v rozptylu několik z jeho pohledu pravděpodobných možností, musí hned tipnout jednu. To proto, že předchozí vygenerované tokeny jsou součástí inference dalšího. Reasoning modely tím netrpí, pokud tedy skryté chain-of-thought odpovědi stručné nejsou.
Příklad přímé inference (trochu přitažený za uši):
Prompt: Chemická značka sodíku? Odpověz velmi stručně.
Odpověď: N
(protože Na i N budou mít blízkou pravděpodobnost)
Prompt: Chemická značka sodíku? Odpověz stručně a trochu vysvětli.
Odpověď: N je značka pro dusík. Značka pro sodík je Na.
Za velkou část tohohle průseru si Altman může sám svým lhaním. (Druhou část blog postu s mirage bych zatím vzal spíš s rezervou, ten paper mi zas tak průrazný nepřijde.)
https://garymarcus.substack.com/p/gpt-5-overdue-overhyped-and-underwhelming
Hodně se tady plete gpt5 a gpt5 ve webovém gui openai. gpt5 je skvělý model, který vtechnických záležitostech s přehledem poráží claude opus i gemini 2.5 pro a opravuje po nich chyby.
Něco jiného (na to byly ty negativní reakce) je webové gui s tím novým routováním do mini verzí a odstraněným výběrem modelu. Lidi nechtěli zpátky konkrétně gpt-4o, lidi chtěli zpátky možnost zvolit model.
Chápu, že pro lidi, kteří si tam jdou vygenerovat koťátko s houslema na divném místě je to naprosto nezajímavé, ale od mírně pokročilých je to bez volby modelu (výkon, reasoning, délka kontextu, ...) naprosto nepoužitelná věc.
btw. proto používám hodně různých API. Mám api od openai a anthropicu napojené do Msty.app (případně open webui) a tak můžu vše podrobně nastavit a platím jen co spotřebuju (což u mě vychází asi na desetinu ceny co by stálo předplatné openai+anthropic+gemini)
To není dobré přirovnání, AI (LLM) má spoustu užitečného (a už dnes úspěšného) využití.
Spíš bych to přirovnal ke "Cloudu". Obrovský hype, nejasný termín (spusta lidí v tom má guláš i dnes, a i na odborném fóru jako je zde), ale každý to musel mít.
Dnes si ze slova Cloud nikdo na zadek nesedne, ale jak SaaS tak PaaS normálně fungují a vydělávají.
"vykrik do tmy" je to jedine v pripade, ze ste nikdy nepouzili lokalnu LLM.
keby sa hned teraz zastavilo financovanie velkych LLM a vsetky spolocnosti, co to robia by skrachovali, tak to co vzniklo je rozhodne prinos, ktory prezije.
takze veta "AI sa neda dostat do plusu" je z podstaty veci nezmysel. Diskusia sa da viest akurat tak o tom, ci velke cloudove modely typu GPT-5 v datacentrach maju buducnost.
Dělají to proto, že mají hodně peněz a pro jejich management je větší strašák, že se toho nezúčastní a ono z toho nakonec něco bude, než to, že proinvestují velké peníze a ono z toho nic nebude. Abych parafrázoval jedno pořekadlo: "Za investování do AI ještě nikoho nevyhodili". Když z toho nic nebude, tak management investorům řekne: "Sorry jako, ale investovali všichni". Kdyby si v tom ale třeba Google nechal ujet vlak a ono z toho něco bylo, pro management byl to byl mnohem větší problém. A touhle logikou se v tom pálí astronomické sumy peněz.
Velká sedmička za poslední dva roky proinvestovala v AI 560 miliard a utržila 35. To je obrovský nepoměr i na novou technologii. To ekonomické rácio tam fakt moc není.
Já jsem vlastně rád, že existuje tolik lidí z IT oboru, kteří tyto moderní nástroje kvůli své slepé víry odmítají. Co se týče trhu práce, je velmi snadné je porazit :)
Nevím, jestli reagujete na mě, v tomhle je threading na Rootu naprd, ale já je rozhodně neodmítám. Denně používám to nejlepší, co je k dispozici: Claude Code, Cursor, Gemini, Perplexity... Rozhodně jsou to v mnoha ohledech užitečné nástroje, ale vzhledem k tomu, že je celkem intenzivně používám, znám i jejich limity. A hlavně mám povědomí o jejich ekonomické stránce. Nástroje, které používám, v součtu stojí do 100 dolarů (platí zaměstnavatel), ale aby byly ekonomicky udržitelné a ziskové, musely by stát 1000 dolarů měsíčně a to by byla úplně jiná diskuse o přínosu vs nákladech. A tahle realita nás dřív nebo později dožene, protože ani ty velké firmy nebudou peníze pálit donekonečna.
IMO to pro velké hráče dopadne dobře. (Ztrátovým) provozem modelů získávají další trénovací data, což ti malí nemají, nůžky se dál budou rozevírat. Určitě intenzivně makají na softwarovém snížení náročnosti provozu modelů a vedle toho hledají cesty efektivnějšího HW, navrženého přímo pro AI. A budoucnost AI vidím (pro lidi až nebezpečně) dobře.
Proč se pořád tak řeší trénovací data získaná provozem modelů? Vždyť za prvé z těch konverzací je zajímavá jen polovina obsahu, resp. ještě méně (většinou jsou odpovědi delší než dotazy), a i ta půlka je ovlivněná současnými modely – protože další otázky v konverzaci plynou z toho, co model odpověděl.
Za druhé toho obsahu získaného tímhle způsobem musí být velmi málo v porovnání s tím, co bylo vyprodukováno dříve a na čem se modely učí.
Dovedu si představit, že zaznamenané konverzace mohou sloužit k drobnému vylepšení, spíš co do UX – způsobu, jak uživatelé interagují s AI, než co do obsahu. Ale nemyslím si, že by to byla rozhodující výhoda.
Problém velkých modelů je, že náročnost na jejich trénování roste spíš exponenciálně, zatímco optimalizace spíš lineárně. A vstupují do toho i další negativní trendy. Teď jsem četl, jak v Ohiu vzrostla cena elektřiny kvůli spotřebě AI výpočetních center během tří měsíců skoro na dvojnásobek. To zatěžuje s celou ekonomikou i ta samotná centra.
Jinak AI má samozřejmě dobrou budoucnost. Už dnes pro ni existuje řada využití, kde efektivitou i při plném promítnutí nákladů dává smysl. Jen si myslím, že dojde k tomu vystřízlivění z hypu "do několika let tu máme AGI", který táhne ty obrovské investice.
Ona je otázka, jestli LLM je vůbec reálná cesta k AGI, a pokud ano, tak IMHO to bude vyžadovat posun v dostupnosti energie klidně o řád, což nepůjde bez nějakého zásadního průlomu v energetice typu fúzní reaktor.
>Teď jsem četl, jak v Ohiu vzrostla cena elektřiny kvůli spotřebě AI výpočetních center během tří měsíců skoro na dvojnásobek.
Drsná je i spotřeba vody k chlazení. https://www.bloomberg.com/graphics/2025-ai-impacts-data-centers-water-data/
Nerozumím tomu, jak se voda _spotřebovává_. To chladí jako Temelín, že to odpařují ve věžích? Normální chlazení jsou přece trubky, které se naplní, a pak se to v tom honí pořád dokola.
Dále lze na xitteru najít informace jako 1, 2 o tom, že číslo sice vypadá v absolutní hodnotě velce, ale jedná se o 1% toho co spotřebovávají uměle zavlažované zemědělské projekty.
(možná je to v článku napsáno a nevidím ho celý kvůli nějakému paywallu)
Evidentně ano, spousta se odpařuje do vzduchu https://dgtlinfra.com/data-center-water-usage/
Důležité jsou taky zdroje vody, pokud se ty datacentra chladí z rezervoárů pitné vody (předpokládám že v tom systému nechtějí nečistoty), může jít o diametrálně odlišný zdroj než budou brát farmy. Třeba jeden z příkladů tady je datacentrum vedle řeky, které bere vodu z města místo z řeky.
Tak to nevím, jak si ty náklady Anthropic počítá, ale četl jsem, že u těchto předplatných za 100 dolarů tam aktivní uživatelé v pohodě protočí tokeny za 800-1200 dolarů a Anthropic to musí těžce dotovat.
Že jsou náklady na trénování utopené, je pěkné, ale investoři je pořád budou chtít zpět. OpenAI a Anthropic už mají naakumulované ztráty v řádu desítek miliard dolarů. Pokrývají to buď vydáváním dluhopisů nebo přímými investicemi, ale pokud chtějí zůstat v byznysu, tak tohle budou muset investorům jednou vrátit zpět.
Slepě odmítat je to samé jako slepě věřit v AI. Nedávno jsem viděl zajímavé video, kde tvrdili, že pokud člověk neřeší malé problémy rutinně, tak nedokáže řešit ty velké. Ukazovali to na dnešním řízením a jak lidé ztratili s asistenty řízení schopnosti, které dříve dělali automaticky bez rozmyslu a nyní se musí na celé řízení mnohem více soustředit pokud asistenti nejsou. Takže možná že je dokážete porazit v práci s lopatou, ale oni vás porazí, pokud už vám lopata nestačí. Je třeba si také uvědomit, že přesně takový lidé co slepě používají AI budou první, kteří nebudou v budoucnu potřeba.
To ano, ale tady v tom jedou i ty velké firmy a pálí na tom obrovské peníze. Nicméně až se ten trh bude čistit, tak to bude první kosit ty firmy, které nemají žádný jiný zdroj příjmů a jako úplně první ty, které nemají vlastní model, ale jejich byznys model je dělat nadstavbu nad modely jiných, protože ti budou pod obrovským tlakem, jak se jim budou zvyšovat náklady za používání AI služeb, které se samy budou potřebovat přiblížit zisku. Takový Cursor je moc fajn produkt, ale byznysově velký špatný. Obrovské problémy mají už nyní. Další na řadě budou firmy, které mají vlastní konkurenceschopné modely, ale nemají žádné další zdroje příjmů: OpenAI a Anthropic. Jen Google, Meta a Microsoft si můžou do toho dovolit sypat peníze další roky a čekat, jestli se to ekonomicky zlomí nebo ne.
Já hodnotím ChatGPT-5 pozitivně. Oproti verzi 4 konečně umí odpovědět, že na otázku neumí odpovědět. Předtím vymýšlel zcela nesmyslné odpovědi. Nechci být hnidopich, ale Grok tohle uměl/dělal na mé testovací množině otázek, na které nelze odpovědět, už před měsíci. Takže opravdu, spíš zalepení díry za ostatními, ale žádná revoluce ve směru vpřed.
Poslednu dobu sa mi stava ze stretavam ludi co si uplne rozbiju Linux a to sposobom ze polozia otazku z problemom AI a odpoved len bez rozmyslania skopiruju a vlozia do terminalu. A nestastie je hotove, niekedy sa to uz ani neda zachranit a AI len trebe blbosti ze dokonca vytvori skript ktory uz naozaj vseko opravi. Ta nebeticne presvedcenie AI ze ma vzdy pravdu a ludska blbost ze tomu veri ma fascinuje. Ked ludia zacnu vsetky informacie vyhladavat len cez AI a nie vyhladavacmi kde musia nasledne citat weby a urobit si vlastny nazor sa im uz nebude chciet, ked dostanu naservirovanu jednoduchu odpovet aj na zlozite otazky...