Hlavní navigace

Siri, Cortana či Alexa jsou vlastně hloupé, říká vývojář Facebooku

7. 3. 2018

Sdílet

Tomáš Mikolov

Tomáš Mikolov přes tři roky působí ve výzkumném týmu Facebooku v jeho centrále v Silicon Valley. Přišel tam z podobné pozice v Googlu a předtím byl také na stáži v Microsoftu. Zabývá se zejména strojovým učením a zpracováním jazyka.

Hlavním Mikolovým tématem je takzvaná vektorová reprezentace slov, pomocí které lze zlepšovat například automatické překlady, rozpoznávat řeč nebo nevyžádanou poštu v e-mailu. Technika vektorové reprezentace slov také ukázala, že překlady lze realizovat i bez slovníků a znalosti jazyka.

Tvrdí, že jsme se ve výzkumu umělé inteligence za poslední desítky let vlastně o moc neposunuli. V dnešním rozhovoru pro Lupa.cz mluví také o digitálních asistentech nebo o tom, jak velké firmy často ztratí schopnost inovovat.

Našli jste v článku chybu?
  • Aktualita je stará, nové názory již nelze přidávat.
  • 7. 3. 2018 11:40

    Přezdívka: * (neregistrovaný)

    No, osobne mi to zase prijde tak ze si nejakej frajer stejne jak Dolph na Lzive.cz definoval co je AI a jak ma vypadat. Chapu ze se nekam dostal, ale rict ze sme se neposunuli od doby kdy se zpracovavali jen presne prikazy az do dnes kdy mame strojove uceni mi prijde kratko-zrake. Driv fungovalo spolehlive snad jen cteni SPZ za poziti OCR, protoze se slozite naprogramovalo, ktere tvary ma program v obrazu hledat, spolehlivost pak vychazela z toho jak dokazal autor implementovat ruzne deformace techto tvaru apod. Dnes zjednodusene receno, vezmu miliony vzorku ruznych veci a jsem z obrazku schopen vytahnout SPZ, barvu auta, pocet pasazeru(za predpokladu ze je videt dovnitr), jak bylo aktualne pocasi apod. Toto zaroven koliduje s tim tvrzenim ze neni mozne(nebo se pozivaji techniky kde se s timto nepocita) aby se AI naucila neco noveho a nezapomnela neco stareho. Priklad je treba Google Photos. Snad museli tu AI ktera mi umoznuje vyhledat auta v mych fotkach, zvirata, hory apod. naucit na milionech fotek jak vypadaji hory, jak vypada pes, auto apod. nebo ji to ucili najednou? Nicmene jde o uhel pohledu, mohu rict "Umi rozpoznat objekty na obrazku" coz tvrdi to ze umi jen jednu cinnost nebo mohu rict "Umi rozpoznat psa a taky umi rozpoznat kocku a taky umi rozpoznat jejich barvu" coz je zase definice vice dovednosti(hlavne v porovnani rozpoznani obrazu pred 10ti lety).

  • 7. 3. 2018 13:27

    MarSik (neregistrovaný)

    Jenže konvoluční neuronové sítě na zpracování obrazu jsou známé dlouho. Co se změnilo je dostupnost výkonného hardware pro paralelní výpočty. Algoritmy jsou (obecně) stejné jako před 20 lety, ale můžeme si dovolit počítat složitější a větší sítě.

    To co popisujete ohledně rozpoznávání objektů na obrázku se jmenuje feature detection a ano, učili to všechno najednou. Stav přeučení sítě také opravdu existuje (to zapomínání nebo zkomolení).

  • 7. 3. 2018 14:41

    Přezdívka: * (neregistrovaný)

    Souhlasim, ale i ten HW je pokrok, ktery nam umoznil treba to ze jedna sit uci druhou apod. To co jsem popisoval bylo prirovnani, ktere melo tento pokrok zvyraznit. Take nic z toho nemeni fakt ze ten clovek si definoval sve vlastni hranice co neni a co uz je AI a co je hloupa AI a co je chytra. Myslim si ze pokud neprijde nejaka HW revoluce tak se algorytmy pro neuronove site moc nezmeni, maximalne se zrychli uceni nebo vyhodnoceni apod. Ty principy vsak zustanout a jedine co do budoucna bude revoluce je to ze se poradne a jednoduse vyresi to "preuceni".

    Navic pokud chceme vychazet/porovnavat podle lidskeho mozku pak ani nevidim duvod preuceni resit. Dejme tomu v telefonu ci robotovi budeme mit nekolik neuronovych siti (rozpoznani obrazovych dat, rozpoznani zvuku, atd) pak uz staci i "hloupy" program ktery jednotlive site propoji tak ze telefon bude treba schopny syntetickym hlasem rict co prave natacite pres fotak. Pokud to budeme chtit dostat na vyssi divci, tak misto toho "hloupeho" programu pouzijeme dalsi neuronovou sit(ted me akorat nenapada na co by to bylo dobre).

  • 7. 3. 2018 15:16

    Niemand (neregistrovaný)

    S odpuštěním, připadá mi, že byste nevěřil ani nevinnému dítěti, že je císař nahý. Představy o tom, jak by měla opravdu vypadat inteligence a co to inteligence je, nemusí být pro každého úplně stejné, ale člověk nepotřebuje nic takového přesně definovat, aby dokázal chápat intuitivně a myslím si, že v článku zmíněné představy o tom, jak by měla umělá inteligence vypadat, aby dokázala působit lidsky, jsou docela srozumitelné a podle mého názoru i reprezentativní. Pokud bych měl já sám přiblížit, jak bych si představoval opravdovou inteligenci, která se dokáže učit komunikací s člověkem, uvedl bych například toto. Pokud bych dal AlphaGo (dnes už to asi nepotřebuje ale řekněme předtím, než bylo vytrénováno na úroveň alespoň danového hráče) přečíst Umění války od mistra Sun Tzu, dokázal by si něco z toho vzít a použít to pro zlepšení své hry. Například, "pokud chceš zaútočit od severu, zaútoč nejprve menším oddílem z jihu". Nebo třeba naopak některé principy/přísloví z go by dokázal aplikovat na jiný obor, například umění rétoriky. Jenže takového provázání různých oborů není dnešní AI schopno a právě to je myšlenka článku. AI vytrénované pro hru go, nedokáže nic z toho uplatnit třeba pro hraní šachů nebo třeba použít naučené principy pro sepsání studijní příručky jak hrát go lépe. Pokud by se mělo AI AlphaGo naučit hrát warcraft, bude se muset kompletně přeučit, nepoužije nic z toho, co se naučil o go a ještě navíc bude naučené vědomosti o go oslabovat, protože to pro hraní warcraftu nebude potřebovat a bude to považovat za zbytečná neuronová spojení, která mu s řešním aktuálního problému nepomáhají.

    Jak já to vidím a co jsem vyčetl i v článku, současná AI se neumi chovat lidsky přirozeně, protože nedokážou využít naučené věci z jednoho oboru pro obor jiný a to souvisí s tím, co je zmíněno v článku a to je učení se od lidí prostřednictvím komunikace. Například vést filosofický rozhovor s někým (klidně i sám se sebou) a poznání, ke kterému dojde, využít v něčem úplně jiném.

  • 7. 3. 2018 23:21

    MMN (neregistrovaný)

    Proč by měla umělá _inteligence_ působit lidsky? Typický člověk je úplně blbý, chytrá menšina schopná oprostit se od stereotypů je považována zbytkem společnosti za divnou či dokonce „nelidskou“.

  • 8. 3. 2018 5:55

    Niemand (neregistrovaný)

    "Typický člověk je úplně blbý ..."
    Na tom se neshodneme. Mohu-li za slovo "typický" použít substituci "průměrný", pak takový člověk nemůže být "relativně hloupý" (mohu-li tak nahradit slova úplně blbý), protože se bude nacházet ve středu gaussovy křivky distribuce inteligenčního kvocientu ve společnosti. Mám dojem, že buď slovům "typický člověk" nebo slovům "úplně blbý" přisuzujete jiný význam, než opravdu mají. Pokud budete chtít pokračovat v této diskusi dále, bude nutné definovat, co si představujete pod pojmy "typický člověk" a "úplně blbý".

  • 7. 3. 2018 17:18

    y, (neregistrovaný)

    Pokud chcete hledat nejake paralely mezi lidskou I a AI, tak selzete. Nejblizsi prirovnani bych nalezl az pokud bych v lidske I dosel ke konci autistickeho spektra, kde se nalezaji lide excelujici v reseni velmi komplikovanych a velmi specifickych problemu a neschopni ci neoochotni se adaptovat na okoli ci ignorovat nedulezite detaily. Jedinou paralellu vidim v urcite emergentnosti chovani ale to bych nenazyval inteligenci.
    Jinak NN jsou vice mene jen komplexni reaktivni agenti a jejich vykon/presnos­t/fitness klesa velmi strme a velmi rychle k nule, pokud jsou nuceni existovat mimo ty vymezene pracovni podminky (definovane trenovaci sadou).

  • 7. 3. 2018 17:23

    y, (neregistrovaný)

    Pro mne soukromne (jako pro cloveka ktery se tim zivi) je paradoxne mnohem bliz urcite inteligenci (G)EM algoritmus a jeho odvozeniny, jelikoz dokaze najit struktury v raw datech bez nejakych dodatecnych informaci od ucitele.

  • 7. 3. 2018 17:06

    Petr Soukup

    Ne ne, AL je pořád v plenkách a není vůbec inteligentní a má velmi omezené použití. Jen opravdový odborník co je nad věcí si to dovede přiznat. To je vzácnost, které je třeba si vážit. Ostatní se posledních 20 let motají v kruhu, jen mají nyní lepší hardware a více peněz, tedy i nějaké další výsledky, ale co se teorie týče, pokrok nic moc. To je třeba si přiznat, kdo si to nepřizná, bude se dále motat v kruhu.

    Nebo jinak. Co se týče teorie. Co přesně se dnes používá a před 20 lety jsme to vůbec neznali? Nechcete něco na téma nových objevů napsat článek? Věřím že moc toho nebude.

    Děsím se toho, až autonomní auta budou způsobovat nehody jak na běžícím páse, protože jsou prostě příliš hloupá.

  • 7. 3. 2018 23:05

    JD (neregistrovaný)

    Autonomni auta zpusobovat nehody budou. Bezpochyby!
    Povazoval by jste napriklad 10 mrtvych denne vinnou AI za prijatelnou cenu za prechod na plne autonomni rizeni?
    A co takhle 100 mrtvol denne?
    A to je presne momentalni trend od lidi co autonomni rizeni prosazuji. Jinak receno AI bude ridit mizerne, presto se snadno muze stat, ze lepe nez clovek protoze napriklad netrpi slepotou z nepozornosti (invisible gorilla).
    Lide za volantem totiz zabiji pri dopravnich nehodach pres 3200 lidi kazdy den.
    To jen jako namet k zamysleni.

  • 8. 3. 2018 8:16

    Pozor (neregistrovaný)

    Autonomi auta jeste nemusi znamenat AI. To bude stejne nejspis nejaky velmi pokrocily automat, ktery budou neznali lide interpretovat jako AI (na zaklade dojmu), stejne jako pro "krovaky" letadlo jsou nebeske sane boha ktery k nim sestoupil .... ostatne v provozu neni zadna velka inteligence potreba, tam je potreba dodrzovat pravidla, mit tuny presnych rutin reakci.Ano, kusi to byt znacne sofistikovane, ale AI vlastne ani neni potreba, auta si nepotrebuji nezavisle vykladat, neco rozvijet nebo snad vymyslet ....

  • 8. 3. 2018 11:58

    Y, (neregistrovaný)

    Nemůžu úplně souhlasit, v oblasti ML a AI se toho děje spousta, akorát si teď většina inzenyrsteji orientovaných lidí a podniků našla nové blyskave kladivo, které jim umožňuje nerozumet problemu, který řeší (což někdy je prostě realita a někdy amaterismus/ší­lenství těch lidí, když mysli, ze nukleární elektrárnu lze řídit pomocí neuronovky) a jednak se můžou svézt na hype. A druhak nepodceňujte problémy spjaté s trenovanim - backprop na papíře je jedna věc, ale stabilizace a eliminace katastrofickeho zapominani a podobných problémů je stále otevřený problém (jak vědecký, tak inzenyrsky).

  • 7. 3. 2018 12:30

    Petr Soukup

    Moc pěkný rozhovor. Konečně článek na téma umělá inteligence bez namyšlených PR superlativů.

    Velmi zajímavé je svědectví jak velká část výzkumníci v Google a jinde se často chovají jako alchymisté Rudolfa druhého, nějakou svojí novou zaručenou cestou, z které se nakonec vyklube už něco známého a nedokonalého.

    Dobré osvěžení poté co jsem četl mnoho podivných článků na téma jak AL již brzy ohrozí podstatnou část pracovních míst, lidé budou nahrazeni roboty. Připadá mi, že tyto báchorky pomáhají šířit hlavně humanitně zaměření lidé, kteří vůbec netuší jak primitivní současná AL v mnoha ohledech stále je.

  • 7. 3. 2018 17:25

    nemo22 (neregistrovaný)

    Ano primitvna dnesna AI v zasade je, minimalne z pohladu inteligencie. Na druhu stranu aj na to aka je primitivna a nedokaze s informaciami komplexnejsie pracovat, uz teraz su niektore vysledky minimalne zaujimave a ukazuju ze dnesna spolocnost nieje moc dobre pripravena ani na tu dnesnu AI a nie este na nieco pokrokovejsie. A tym nemyslim len socialne/mentalne ale aj legislativne.

  • 7. 3. 2018 17:32

    nemo22 (neregistrovaný)

    Ako tu uz bolo spomenute v zasade dnesna AI pouziva zaklady a teorie ktore boli popisane uz v 80tych rokoch. Iste nejaky vyvoj nastal ale hlavne to co umoznilo aplikovat tieto teorie do reality je pokrok vo vykone hw za posledne roky a tam ma clanok, respektive vyvojar pravdu.
    Co je ale trochu zvlastne az znepokojive ze prakticky v ziadnom clanku o AI (teda hlavne tych co ju ospevuju) sa malo kedy spomenie ze samotna AI nikdy nebude 100% uz len z principu ucenia sa a teda nutnosti robit chyby. Chapem ze asi by sa moc dobre nepradavalo auto kde by bolo v popise ze autonomne riadenie fungje povedzme na 95% alebo 98%, ono chyby nastavaju aj v pevnych algoritmoch, respektive pri ich implementacii ale toto je nieco celkom ine.
    Staci sa pozriet na nedavne prihody buraciek Tesly kedy auto napriklad z nejakeho dovodu nevyhodnotilo cervene hasicke auto ako prekazku.

  • 8. 3. 2018 6:03

    Niemand (neregistrovaný)

    Mě spíše děsí představa, že si autonomní auto bude v kritické situaci vybírat koho "sejme". Například že by si vybralo staršího muže na protější straně přechodu, který se choval podle pravidel silničního provozu, aby ušetřilo nezodpovědného puberťáka, který zahleděný do mobilu vstoupil na přechod přímo před auto už na červenou. http://moralmachine.mit.edu/

  • 8. 3. 2018 8:56

    Pavel Stěhule

    Do té situace by se automat vůbec neměl dostat. Pokud by automat se dokázal rozhodnout, koho sejme, tak určitě mnohem dříve by dokázal diagnostikovat hrozící riziko a přizpůsobil rychlost, trajektorii. Primární strategie by měla být minimalizace rizik - tudíž na automat asi pojede spíš jen v relativně bezpečném (dálnice) nebo pomalém provozu (město). Dovedu si představit, že by se komplet doprava automatizovala - ale nedovedu si moc dobře představit kombinovaný provoz - minimálně do doby než se auta dokáží propojit a informovat se vzájemně, případně o situaci před sebou. Lidé i auta něco snesou a minimum následků jde na úkor dodavatele. V případě nějakých automatů jakýkoliv škrábanec by šel na úkor dodavatele řízení - a nevidím, že by do toho někdo reálně šel - něco jiného je o tom mluvit a tahat peníze z investorů.

  • 8. 3. 2018 9:31

    Niemand (neregistrovaný)

    Samozřejmě, že ideální je se do takové situace vůbec nedostat a já vůbec nepochybuji o tom, že auto se bude snažit krizové situaci předejít. Ale můj příspěvek se týká něčeho jiného, můj příspěvek je o tom, jak se auto zachová, když se do takové situace přesto dostane ...
    https://www.root.cz/zpravicky/opticke-klamy-pro-umelou-inteligenci/
    http://blog.hysteria.sk/hackovanie-ai/

  • 8. 3. 2018 10:17

    Pavel Stěhule

    Vždy si můžete připravit model situace, kde nenajdete dobré řešení - viz např. použití rychlobrzdy ve vlaku. Jejím správným použitím můžete zachránit hromadu životů (i když ne třeba všechny). Jejím nesprávným použitím můžete několik lidí ve vlaku zabít, a určitě hodně i těžce zranit. V zabezpečovací technice (a automatika v autech bude muset splňovat stejné nároky) se jakmile dostanete do nějakého nepředvídaného stavu, okamžitě přepínáte do bezpečného stavu - což se bere jako jediné akceptovatelné řešení. I když i to může mít další důsledky. Nic jiného se asi nedá vymyslet - a bez podobné filozofie by se nemohlo jít do komplexnějších dynamických systémů (které jsou efektivní, ale zároveň postrádají robustnost).

  • 8. 3. 2018 10:43

    Niemand (neregistrovaný)

    Jenže problém, na který upozorňuji, má lepší řešení, než ta, která se vám zobrazí na moralmachine.mit­.edu. Zkuste si ten test udělat (třeba i opakovaně s různými náhodnými situacemi) a uvidíte sám. Ty výsledky jsou silně neoliberální. Je to jistě věc na hlubší debatu, než je praktické a rozumné vést v diskusi pod zprávičkou. Ovšem pokud například vaše bezpečnost v autonomním autě bude záviset na tom, kolik vezete pasažérů, (a proto by třeba hypoteticky v budoucnu řidič autonomního auta, pokud pojede sám, raději na ostatní místa posadil nějaké figuríny, aby simuloval více lidí v autě a tím zvýšil pravděpodobnost svého bezpečí pro připad krizové situace) tak si myslím, že je něco fundamentálně špatně.

  • 8. 3. 2018 11:14

    Pavel Stěhule

    Ti lidé řeší koncepty, a celkem jasně upozorňují, že některé situace nelze vyřešit - že jakékoliv řešení je špatné. A jediné možné řešení je nedostat se do této situace. Tam prostě nejsou alternativní řešení - viz Vaše přidání si do auta figuríny - kdyby, hypoteticky to mělo nějaký efekt, tak samozřejmě velice brzo by všichni měli v autě figuríny, a jste zase na 0. Na to, aby se taková pravidla mohla zavést, tak by se musely zrušit všechny stávající standardy ohledně bezpečnosti - což si nedovedu představit.

  • 8. 3. 2018 11:30

    Niemand (neregistrovaný)

    Jenomže my se právě teď nacházíme v době, kdy se zavádějí nové standardy. Například v oblasti autonomních aut se zavádějí nové zákony. Ale změny ve společnosti se dějí v mnohem širším měřítku, například virtuální měny, sdílená ekonomika, diskutování na sociálních sítích a hatespeech, ochrana soukromí e-privacy, seznam blokovaných dezinformačních webů, kvůli kterým vám nemusí dojít email, atd ... Právě v této době se dějí změny, které ustavují nové standardy a některé předchozí ruší. Myslím si, že právě teď je doba vhodná pro to, aby se takové věci probíraly.

  • 8. 3. 2018 12:45

    Pavel Stěhule

    Buďte v klidu, a rozhlédněte se kolem sebe - vidíte funkční virtuální měny nebo funkční sdílenou ekonomiku? Je to spíš dojem, než že se zavádějí nové standardy nebo nějak měnil svět. Mnohem více se o mluví než dělá, žijeme v době marketingu.

  • 9. 3. 2018 10:16

    SB (neregistrovaný)

    Ano, to je pochopitelně koncepčně chyba, protože zařvat má ten, kdo to posral. Mimochodem upozorňuju, že to tak nefunguje na silnicích ani dnes, je běžné, že čechozmrd zabije nevinného. Z toho pohledu by paradoxně mohlo dojít robotickým řízením k zlepšení.

  • 8. 3. 2018 8:21

    j (neregistrovaný)

    Zadny auto nebude nikdy schopny nahradit ridice, pokud se zcela zasadne nezmeni infrastruktura. Je to proste nerealny.

    Duvodu je spousta - uz jen to, ze ridici zcela vedome porusujou predpisy (denne a neustale) protoze kdyby to nedelali, tak nikam nedojedou. Vsude u silnic se ti valej zapomenuty znacky, na silnicich zustava prechodny znaceni atd atd ... coz by stroj respektoval a prave tim te zabil.

    Naprosto bezne v nasich podminkach je na dalnici trebas omezeni, ale vztazeny jen na jeden pruh, takze v tom druhym/tretim/... si muzes valit tech 130 klidne az ke zuzeni ... ktery neni nasledne nijak ukonceny, takze dalsich 200km muzes jet vlastne predpisovych 60. Coz je presne to, co udela stroj.

    O technickych ficurach, jako ze auto vidi prekazku tam, kde zadna neni, zato ji nevidi tam, kde je ani nemluve. Vsechny tyhle veciciky fungujou jen nekdy a za idealnich podminek, prestavaj fungovat v desti, mlze, snehu atd atd.

  • 11. 3. 2018 10:12

    Ondra Satai Nekola
    Zlatý podporovatel

    Že stoj nezvládne intelektualní výkon čověka je jen primitivní wetismusm.

Byl pro vás článek přínosný?

Autor zprávičky

Petr Krčmář pracuje jako šéfredaktor serveru Root.cz. Studoval počítače a média, takže je rozpolcen mezi dva obory. Snaží se dělat obojí, jak nejlépe umí.