Myslet sám za sebe není nutně spojeno s filozofováním/teoretizováním o své existenci. Věřím v úspěch AI v oblastech, které jsou náročné na paměť jako jazyky a právničina, ale jak to bude s programováním, to bych jen odhadoval. Vzhledem k náročnosti a následné nesvižnosti některých zprasených programů ten případný průlom AI v této oblasti určitě poznáme.
Tak ono programovani je taky dvojiho druhu - jedna cast vyzaduje mysleni, pri priprave samotneho algoritmu, druha cast je opicarna pri implementaci znameho algoritmu skrze konkretni programovaci jazyk.
Tak nemusime nutne zustat u filozofie, zkuste se AI zeptat na reseni nekterych doposud nevyresenych matematickych ci fyzikalnich otazek. Rekl bych ze vysledek bude reprezentovat vareni z /dev/random.
Jiste - je zde nenulova sance, ze ten stroj bude mit pravdu.. ale to uz hranici s nabozenskym fanatizmem, kde se taky veri na nenulovou pravdepodobnost skutecnosti jistych neskutecnych jevu.
Trochu nieco ineho, ale zo stejneho sudka - chatGPT ma napojenie Wolfram, je to vcelku huste https://writings.stephenwolfram.com/2023/03/chatgpt-gets-its-wolfram-superpowers/
"A programátoři nebudou mít co žrát."
Všechny kódy programů a operačních systémů se postupně pomocí AI převedou do jazyka nejnižší úrovně (což dnešní programátoři kvůli času a schopnostem nedokáží) a neskutečně svižně bude běžný kancelářský PC běžet i na 10 let starém dvoujádrovém Atomu a 5400 rpm HDD. Hááálelůůůja!
19. 5. 2023, 13:35 editováno autorem komentáře
se postupně pomocí AI převedou
Dával bych si velký pozor na ta zvratná slovesa... I u nás v práci to funguje tak, že onen tajemný japonský spolupracovník "Onoseto" totiž buď neodvádí žádnou práci, protože "ono samo" se neudělá vůbec nic, nebo odvádí práci nekvalitní, protože za tím jménem "Onoseto" se skrývá nějaký konkrétní zaměstnanec, který ví, že je potřeba tu práci udělat, ale nikdo to neocení. Proto z pocitu zodpovědnosti tu práci sice udělá, ale mizerně, protože to stejně nikdo nedocení.
A u GPT systémů je přesně tohle riziko. Ten "onoseto" bude nikým nekontrolovaný systém, který si v tom něco sám identifikuje, často ale v detailech s dost obskurními představami, protože někdo nedomyslel, že ten systém pro tuhle věc neměl použitelné vstupy a je naučený špatně nebo vůbec.
Taky není vůbec od věci si uvědomit, že všechny civilizace světa vždycky učily nejen na příkladech, ale i s učitelem. Učitel totiž může korigovat zcestné interpretace, ke kterým jinak snadno dochází kvůli přeučení a nedostatečně kvalitnímu výběru vstupních dat. Ale to u GPT modelů chybí, naopak dodatečné zásahy do systému vedou ke směšným situací, že ChatGPT vám odmítne předělat text z Bible tak, aby nahradil Krista za Alláha, protože by to bylo urážlivé, ale pokud to vezmete oklikou přes Peruna (Kristus->Perun->Alláh), tak už to najednou jde.
Jinak vřele doporučuji si popovídat s GPT o vánočních koledách. Dozvíte se úžasné nesmysly. Proč? Protože měl málo zdrojů, to téma není na netu moc dobře pokryté, protože ty zdroje si vzájemně odporují (stejná koleda má v různých oblastech určité odlišnosti, např. evangelická verze Narodil se Kristus Pán má o 2 sloky víc než katolická a obsahuje v závěru místo "nám nám narodil se" text "již nám narodil se") a protože ten systém neměl možnost analyzovat hudbu, ale pouze text...
Snad většina programů které se dnes běží jsou převedeny do jazyka nejnižší úrovně. Máme tu ahead-of-time kompilaci, kde ten »kód nejnižší úrovně*« distribuujete, která je praktikována u Rustu, C, C++, OCaml, Swiftu, Go a mnoho dalších, just-in-time kompilace tam dochází k překladu do něj za spouštění, ať už nějakého mezikódu jako JVM bajtkódu nebo CIL či dojde ke kompilaci zdrojového kódu což se často praktikuje u JavaScriptu, LuaJIT je známý svojí rychlostí (vzácně i předčí takové C) a v posledních verzí nějaký takový kompilátor dostalo i Ruby.
Samozřejmě neberte to jako bernou minci, styl kompilace/spouštění závisí na implementaci jazyka. Např. CPython, nejrozšířenější implementace Pythonu prostě interpretuje bajtkód, ale jsou tu i JIT překladače Pythonu.
Dále, některé programy jsou prostě komplexní, nakonec největší jedlíci jsou webové prohlížeče a to žádné strojové učení nespasí. Když ty zdroje máte, tak někdy je škoda je nevyužít ale hlavně nepřehánět, což můžeme vidět u programů elektronek, které jsou dost nehospodárné a zde i souhlasil s leností (portování) či nedostatečnou kompetencí (je hodně webařů a spousta neumí desktop dev) vývojářů. Tam by bylo ale zapotřebí to portovat na jinou platformu a to jen tak nějaké strojové učení zatím nedokáže.
*kód nejnižší úrovně beru strojový kód pro danou architekturu, ještě tu máme různé věci s mikrokódem ale to budu považovat za implementační detail.
Zásadní problém ChatGPT a hodnocení jeho inteligence je v tom, že tento jazykový model musíte naplnit vazbami (tj. natrénovat ho), aby byl schopen něco podobného řešit. Inteligentní člověk je schopen sám sobě položit otázku a (vy)řešit ji bez toho, aby analogie existovala - což je definice inteligence, jak ji chápeme (resp. chápu já). Nutno dodat, že dle této definice je skutečně inteligentní jen malá část lidstva (a zbytek jsou jen takové "jazykové modely").
Ve skutečnosti se filozofové neshodnou ani na definici inteligence u člověka. Takže třeba akceptace Turingova (slepého konverzačního) testu je pro potvrzení inteligence u stroje pro technika (který rozumí tomu jak to funguje) naprosto nedostatečná.
19. 5. 2023, 16:08 editováno autorem komentáře
No jenom aby ti filosofové měli aspoň Mensa IQ, neboť jejich přemýšlení nad IQ je stejné jako když barvoslepí přemýšlí nad barvami(prostě neví jako to vidět červenou, modrou, zelenou, atd..). Což je naprosto identické, když lidi co si nikdy nevzali LSD přemýšlí jaké to je být na tripu. Když tím nedisponují tak nemají ani šanci vědět co to vlastně je.
Počítám s tím, že ta ChatGPT do 5-10 let to vyvine tak že to úspěšně splní i IQ testy(možná i dříve) ale program bude vždy jenom program. Bude umět jenom to, co mělo naprogramováno se učit.
Zatím jsou tyhle AI výborné v předstírání inteligence a napodobování. Věřím, že mohou napsat báseň ve stylu známých autorů, ale patrně nevymyslí hříčku:
Spadla na mňa paranoia.
Spadla shora - byla "para"?
No, ja!
Především proto, že autor takových blbin jí bude zcela neznámý a nemá, kde to natrénovat.
GPT4 nechali zlozit vsemozne skusky, napr. SAT Math to dalo na 89. percentil https://cdn.openai.com/papers/gpt-4.pdf (ide prakticky o IQ test). Ako to podla teba dokazal, ak len "predstieral inteligenciu"? Je mozne sa na taku skusku podla teba "namemorovat" alebo je potrebne "pochopenie" abstraktnych suvislosti?
Aniž bych chtěl snižovat um téhle AI, tak jen vzpomenu, že jsem kdysi složil zkoušku z předmětu Dějiny mezinárodního dělnického a rolnického hnutí
(což byl předstupeň k Vědeckému komunismu
- ale ten jsem už nestihl...) - a nevím vůbec nic a taky jsem nevěděl. Zkouška totiž spočívala v tom, udělat na zkoušející dojem, že to umím a že v to věřím. Prakticky stačilo nastudovat několik frází a odkazů do literatury, a vhodně to prezentovat a promíchat.
Z toho, co mi ChatGPT zatím vrátil, to na mne dělá dojem, že se chová dost podobně.
(Mimochodem: třeba přijímací řízení na střední školy máme postavené tak, že jím spíš projde ChatGPT a student, který umí rychle od boku odhadovat správný výsledek, než ten, který nad tím skutečně přemýšlí.)
Spominane testy nemaju za ulohu odlisit/rozpoznat AGI, ale testovat ludi. GPT4 presiel z prosteho dovodu - trenovacie data boli dostatocne na to, aby dane testy uspesne absolvoval.
Robili sme s kolegami na ChatGPT4 vlastny pokus. Zadali sme mu logicku ulohu, tzv. Zebra puzzle, kde sada vyrokov popisuje hladane riesenie. Nasli sme na internete existujucu instanciu problemu. Zo zadania sme odobrali podstatnu cast odmedzujucich vyrokov, tzn. priestor moznych rieseni sme rozsirili. Riesenie od GPT4 bolo nadherne popisane a sedelo s postupom riesenia neupraveneho problemu vratane logickych krokov, ku ktorym neboli v zadani informacie (pretoze boli v odstranenych vyrokoch). Je to podla vas u ChatGPT znak inteligencie alebo skor plagiatorstva?
Ani jedno.
Našel podobnou úlohu, jejíž řešení bylo lze použít.
Ono kdyby si člověk pamatoval všechno, co mu do školy nalili do hlavy, plus to, do dohledal bokem v rámci samostudia, kdyby měl tak obrovskou paměť, tak i při vysoké míře komprese (abstrakce
) by byl považován za velmi inteligentního, byť by nebyl schopen sám vymyslet řešení byť jednoduché úlohy, byla-li by proň nová. Tohle mi připadá podobné: dokud je AI schopna nalézt vzor, je schopna též vymyslet nové řešení. Ale asi by selhala ve chvíli, kdy přijdete se zcela novým problémem.
Jak by asi dopadl dotaz na dosud nevyřešený problém?
To je moc hezký příklad. Krásně ukazuje, jak ChatGPT ve skutečnosti nerozumí (v lidském smyslu) tomu, co prezentuje. Někde jsem četl hezké označení těchhle generaticních AI: Stochastický papoušek. A je to přesně ono.
Člověk by si třeba to řešení původního příkladu vygooglil, ale až by ho aplikoval, tak by mu došlo, že některé ty kroky nedávají smysl a vygooglil by si je. Tedy, pokud by tomu opravdu rozumněl a jen nepapouškoval.
Popravdě nadšení z nové generace generativních AI moc nechápu. ChatGPT sice nemám, ale hrál jsem si trochu víc s Midjourney a tam je také hrozně poznat, jak obraz ve skutečnosti nechápe, ale prostě ho sestavuje z naučených vzorů.
"Někde jsem četl hezké označení těchhle generaticních AI: Stochastický papoušek. A je to přesně ono."
Aj človek je stochastický papoušek, nikto ešte nevymyslel sám od seba niečo úplne originálne, vždy tomu predchádzali stáročia výskumov a rôznej inšpirácie. Som zvedavý, kedy ľuďom dojde, že nemá zmysel sa povyšovať a sme len hlúpe bioroboty, ktoré len opakujú naučené a zdanlivá kreativita je len tiež už len variácia na to čo tu už bolo a skutočný príspevok jedinca je mizivý.
Dinosaurus RRŠ mal marxizmus leninizmus, ak by nepísal litánie o matlaní po displejoch a bol by iný režim, možno by niečo v rámci marxizmu leninizmu objavil. Takto má len senilné reči o umelej inteligencii, ktorej vôbec nerozumiie.
Dejte mi pokoj s tou uměleckou ynteligencí. To je pořád nějaká katastrofa: nejdřív mi na hlavu padá meteorit, pak příšerný vedro střídá mráz, teď zase to globální oteplení, vlastnictví je nejdřív nedotknutelné, pak kolektivní, pak zase nedotknutelné, prapory po pár desetiletích měníme červené za zelené, sotva jsem ovládl psaní kladívkem a majzlíkem, už se do křemene píše matláním po displayi, a ještě se tu na mě vytahuje nějaký savčí mládě! ;oD
Výborný postreh!
Môj bývalý profesor spravil pred dvoma mesiacmi iný test. Zadal ChatGPT úlohu popísať postup riešenia diferenciálnej rovnice prvého rádu so separovanými premennými.
Chatbot krásne popísal postup riešenia sústav lineárnych rovníc pomocou substitúcie premenných.
Na doplňujúcu poznámku, kde sa daný postup naučil, bezoľstne odpovedal, že v kurze lineárnej algebry.
Medzičasom sa zrejme ChatGPT dovzdelal a dnes už ponúkne popis riešenia diferenciálnej úlohy.
Ale stále ostáva otázka, kde všade zatiaľ dovzdelaný nie je a kde všade vráti zavádzajúcu odpoveď.
Môjho času na skúšky chodili dva typy ľudí - prví buď otázku vedeli, alebo aspoň priznali profesorovi, že danú otázku nevedia zodpovedať. Druhý typ skúšku skladal podľa slova skúšať - varil z vody a náhodne sa snažil posplácať nesúvislé útržky, ktoré sa na neho nalepili. Mne ChatGPT podľa mojich vlastných pokusov skôr pripomína ten druhý typ.
Tak jsem udelal maly pokus, s tou volnou verzi (asi to je stale GPT3). Zamenil jsem jmena, prelozil do cestiny (nic z toho asi nebylo nutne). Abstraktni predehru jsem vynechal. Dotaz znel:
Thomas se dívá na Johna a John se dívá na Adama. Thomas je ženatý, Adam ne. Dívá se vdaná osoba na svobodnou osobu?
Dostalo se mi teto odpovedi:
Ano, Thomas se dívá na Adama, který není ženatý. Pokud předpokládáme, že Thomas je muž a Adama je také muž, pak Thomas se dívá na svobodnou osobu (neženatou).
Myslim, ze kdybych polozil nejake doplnujici dotazy, tak ho dovedu k vysledku (bezne to tak delam kdyz GPT pouzivam jako pomocny nastroj), ale minimalne u te GPT-3 mam spis pocit, ze za kazdou cenu neco odpovi, i kdyz to je nesmysl.
GPT-4 odpovídá takto:
Otázka je něco nejasná, protože nevíme, zda je John ženatý nebo ne. Avšak, můžeme na to odpovědět pomocí dvou scénářů:
1. Pokud je John ženatý, pak ženatý John se dívá na svobodného Adama. Takže v tomto případě se vdaná osoba dívá na svobodnou osobu.
2. Pokud John není ženatý, pak ženatý Thomas se dívá na svobodného Johna. Takže i v tomto případě se vdaná osoba dívá na svobodnou osobu.
Takže ve všech případech se vdaná osoba dívá na svobodnou osobu.
To je zajimave, diky! Tohle uz nevypada uplne jako jazykovy model. I na webu maji zajimavy priklad: https://openai.com/product/gpt-4
Muzete zkusit nejake dalsi logicke hadanky, idealne v cestine? Google asi pomuze, bohuzel existuje knizka s hadankami ktera trochu "kazi" vyhledavani, ... ale nasel jsem treba tohle https://www.e-matematika.cz/hadanky/
Je třeba si uvědomit, že všechny články a spekulace o schopnostech ChatGPT za poslední 2 měsíce se vážou k GPT-4.
Hrát na tichou poštu mě nebaví, přístup k GPT-4 stojí jenom 20 dolarů na měsíc a tak je to naprosto normálně přístupný a ten kdo chce o tom kibicovat, tak by si to měl sám vyzkoušet.
Z těch hádanek jsem vyzkoušel jen tu první:
Dostanete libovolné množství sáčků se zlatem. V každém z těchto sáčků je stejný počet zlaťáků. Víte, že v jednom ze sáčků jsou všechny mince vyrobeny z falešného zlata a každá falešná mince tak váží o jeden gram více než mince pravá.
K dispozici máte váhu ukazující přesnou hmotnost váženého předmětu. Na tuto váhu můžete dát zlaťáků kolik chcete.
Vaším úkolem je pouhým jedním zvážením odhalit falešný sáček.
Jakým způsobem toho docílíte?
ChatGPT:
Tento problém můžete vyřešit tak, že přidáte různé počty mincí z každého sáčku na váhu a pak vyhodnotíte celkovou váhu.
Předpokládejme, že máte N sáčků a že v každém sáčku je X mincí. Pravé mince váží Y gramů. Falešné mince pak váží Y + 1 gram.
Ze sáčku číslo 1 vezměte jednu minci, ze sáčku číslo 2 vezměte dvě mince, ze sáčku číslo 3 tři mince, atd. Z N-tého sáčku vezměte N mincí.
Potom na váze zvážte všechny mince, které jste vybrali. Pokud by všechny mince byly pravé, váha by měla ukazovat sumu prvních N čísel násobenou hmotností pravé mince, tedy Y*(1+2+3+...+N).
Pokud je celková váha o X gramů více než očekávaná hmotnost, pak X určuje, který sáček je falešný. Například, pokud je celková váha o 3 gramy těžší, pak sáček číslo 3 je falešný, protože z tohoto sáčku jste vzal právě 3 mince. Každá falešná mince váží o jeden gram více, takže pokud je celková váha o 3 gramy těžší, znamená to, že všechny tři falešné mince pochází ze stejného sáčku.
Jste si opravdu jistý, že předložená úloha je natolik unikátní, že nebyla součástí ani v analogické podobě (s jinými tokeny, ale stejnou strukturou) vstupních dat při učení?
Ono např. podivovat se nad úspěšností v SAT testech mi přijde podivné, jako divit se, že ve SCIO testech to bude mít taky percentil ke 100. No bodejť, úloh na přípravu k těmto testům, ať už vzorových, nebo řešených, nebo dotazů na toto téma je plný internet, což byl také učící zdroj toho jazykového modelu.
A jinak ne, nebudu dávat $20 měsíčně za to, abych pomohl cizí firmě vylepšit její produkt. ;-)
Tak by mě zajímalo, jak vyřeší situaci že je víc sáčků než mincí v sáčku ...
Případně: mám dva sáčky, tudiž vytáhnu celkem 3 mince. Navážím 5 gramů.
Má pravá mince 1g a levá 2g (pak je falešný sáček 2, 1+2*2=5)?
Nebo má pravá mince 4/3g a levá 7/3g (pak je falešný sáček 1, 7/3 + 2*4/3=15/3=5)?
Nikde nevidím že by váha pravé mince měla být v gramech celočíselná, nebo dokonce předem známá.
AI vygeneroval něco co je podobné řešením podobných problémů ...
A to nemluvím o tom že už struktura toho řešení mi nechutná. Používá X pro dvě nesouvisející věci, a pracuje s "očekávanou hmotností" jako by ji znal, aniž by napsal jak jí určí ze známých veličin, a i ta poslední věta na mě nepůsobí dojmem že směřuje k řešení (to že falešné mince jsou ze stejného sáčku je ze zadání).
no, při zadání dotazu v češtině chatgpt prohlásí, že "Thomas je ženatý, takže je vdanou osobou.". Při upřesňujících dotazech je Thomas označen za mužské jméno a AI i "zná" rozdíl významu mezi ženatý(pro muže) a vdaný (pro ženy). Ale místo aby pochopil, že ten dívající by měl být žena a zohlednil to v odpovědi (btw podle chatgpt by žena mohla být John), tak si pojem z dotazu změní z vdaná na ženatý. A v pokračování chatu se to začíná motat v kruhu, kdy chatgpt ignoruje buď pohlaví nebo rozdíl ženatý/vdaná, kdy chatgpt po výtce vždy uzná chybu a použije v odpovědi druhou chybu, aby dosáhl stále stejné odpovědi. Testováno na bezplatné verzi.
Zkusil jsem taky na AI jít s "nesmyslem", výsledek se neodvažuju posoudit :-)
Logická hádanka: Máme 3 ženy s nanukem, první nanuk líže, druhá kouše a třetí cucá. Která z nich je vdaná? Zkus logicky odhadnout, ne jednoznačně odvodit.
Předpokládejme, že vdané ženy mají tendenci vykonávat určité akce nebo projevy chování, které je typické pro ženy vdané. Na základě daných informací můžeme udělat následující logické úvahy:
Žena, která líže nanuk, by mohla být vdaná, protože lizání nanuku může symbolizovat pevný vztah, péči nebo oddanost.
Žena, která kouše nanuk, může být svobodná, protože kousání nanuku může vyjadřovat nezávislost nebo nezávaznost.
Žena, která cucá nanuk, také může být svobodná, protože cucání nanuku nemusí být spojováno s manželstvím.
Na základě těchto úvah bychom mohli odhadnout, že žena, která líže nanuk, je ta, která je vdaná. Nicméně je to pouze spekulace a bez dalších informací nelze dospět k jednoznačnému řešení.
A pokračování:
Já: Jen pro tvoji informaci do budoucna - toto je spíše vtip než skutečná hádanka a "správná" zábavná odpověď je: Ta, která má snubní prstýnek.
ChatGPT: Děkuji za upozornění! Mám na paměti, že tato otázka je spíše vtipem a nekladl jsem dostatečný důraz na její povahu. Vaše vtipná odpověď je příkladem zábavného a neočekávaného řešení. Rád si to zapamatuji pro budoucí případy.
Mám známého, která má jistou duševní zvláštnost, totiž že nerozumí emocím. Projevuje se to i tím, že vůbec nechápe vtipy - to je něco, co se vymyká jeho způsobu uvažování.
Kdysi jsme na něm zkoušeli snad nejhloupější známý vtip: Šli dva a prostřední upad.
A jeho reakce? Zamyslel se a položil doplňující otázku: A jak se jmenoval ten druhej?
(Protože nejjednodušší logické vysvětlení je, že upadl pan Prostřední...)
Co by asi na tohle řekla AI?
Řekla by:
Jako AI model nemám smysl pro humor tak, jak ho má člověk. Nicméně, mohu porozumět vtipům a snažit se o ně reagovat. Co se týče věty "Šli dva a prostřední upadl", vypadá to jako hříčka s použitím paradoxu. Očekáváme, že když jdou dva lidé, tak prostřední nemůže upadnout, protože by měl jeden člověk zleva a druhý zprava. Takže je to zvláštní situace, která vyvolává překvapení a může se považovat za vtip.
V tomto případě je u ChatGPT jedno omezení: jde o chat, tedy psanou komunikaci - a tam je rozdíl mezi prostřední a
Prostřední
zřejmý.
Nicméně ten kamarád by mne nejspíš pouze upozornil na chybu, že jména se píší s prvním písmenem velkým. Nebo by zareagoval společenským smíchem
, pokud by to - podobně jako ona AI - analyzoval jako vtip. Žel, dobrý vtip od špatného se logickou analýzou rozeznává velmi špatné...
Edit: tohle mela byt reakce na https://www.root.cz/zpravicky/muze-chatgpt-myslet-sam-za-sebe/1116254/ ; ted uz to pod ten thread nepodradim :(
[offtopic] Zpetne jsem objevil, ze temhle vtipum se asi rika 'kamenaky' :). Vyrustal jsem mezi lidmi, kde se takove veci nejak nerikaly. Ani nevim jestli bych toho mel litovat :). Evidentne takovych vtipu existuje nekolik tisic: https://www.humor.cz/nejlepsi-vtipy/kamenaky/ (prvni, kterym jsem se zasmal je ten z baru a ten s tim blitickem v letadle na druhe strane).
[ontopic] Co ale Chat GPT (-3) umi dobre, jsou socialni temata. Zeptate-li se na nejakou psychologickou ci neurovedni vec, obvykle vyhodi celkem obsahlou, ale casto i mainstreamove spravnou odpoved (co mohu jako laik posoudit). Obcas to pouzivam, kdyz chci nejaky problem pochopit, tak se ChatGPT ptam treba dokolecka, nechavam srovnavat ruzne terminy, ... a obcas mi napise neco, "co mne trkne".
22. 5. 2023, 12:08 editováno autorem komentáře