Hlavní navigace

Vlákno názorů ke zprávičce Microsoft vytvořil chatovacího robota. Během dne se z něj stal neonacista od NULL - Osobně si myslím, že umělá inteligence, tak jak...

  • Aktualita je stará, nové názory již nelze přidávat.
  • 27. 3. 2016 15:21

    NULL (neregistrovaný) 192.168.1.---

    Osobně si myslím, že umělá inteligence, tak jak existuje její představa, či snad spíše vize, nikdy existovat nebude a co víc, ani nemůže. Snad se mi to podaří vyvětlit.
    Začnu takto:
    Pokud se bavíme o AI, myslí se tím nezávislá entita, který je schopná se učit a rozhoduje se sama za sebe. Takový umělý človíček. Ovšem v momentě, kdy udělá nějaké rozhodnutí, to rozhodnutí bude posuzováno a ne vždy může toto posouzení dopadnout stejně, stačí malý impuls pro "komisi" a vše bude jinak. Jde o to, že dnes, v podstatě existuje mnoho miliard takových entit v podobě lidí, ale že by se neděly omyly a že by padaly jen správné rozhodnutí se říci nedá. Jsou situace, krom tedy vyloženě blbostí a lumpáren, kdy prostě správné rozhodnutí nikdy neuděláte. Příkladem budiž politika, kdy ať uděláte co uděláte, ať se rozhodnete jak se rozhodnete, tak se vždy najde někdo, komu se to nelíbí. A to je ten problém. Protože když dosadíme i dokonalou AI, tak i když bude rozhodnutí správné ve smyslu výběru toho nejlepšího z možných, tak se vždy bude pochybovat. Uvedu příklad:
    Provoz na letišti. Letadlo přilítá. Pilot je perfektní AI. Letadlu došlo palivo, nebo se stala porucha (na tom nezáleží, to jsou vstupní podmínky). 1. buď zkusí přelet přes město s rizikem že spadne a obětí bude 5x tolik, a nebo 2. navede letadlo mimo a obětuje lidi na palubě. Když to rozhodne člověk pilot, nevím, na tohle asi direktiva nebude, tak je to jeho rozhodnutí a tak se to bude brát, třeba ho i glorifikují. Když to rozhodne AI, vždy se bude pochybovat a vždy se bude mluvit o (ne)dokonalosti. Jde o to, že není jedno správné rozhodnutí. Jsou dvě, rozhodnutí je značně subjektivní a obě jsou průšvih a vždy se najde někdo, kdo bude tvrdit, že se entita rozhodla špatně a že není vyhovující.
    Naproti tomu, když vznikne cokoliv, nějaké entita, která se bude držet daných rutin nastavených lidmi, i když jich budou stamiliardy vytvořené třeba pokročilými algoritmy, budou padat dle nastavených voleb správné, předvídatelné rozhodnutí, bude se to tvářit jako dokonalost myšlení, ale nebude to AI tak, jak k němu vzhlížíme do budoucnosti. Bude to jen dokonalejší vykonávač sekvencí.
    Co se snažím říct je, že aby se vytvořila dokonalá, nebo alespoň do produkce akceptovatelná AI, musela by se vyrobit dokonalá mysl, jenže to je mýtus, takové perpetum mobile. Vlastně je to stejná situace. Podle 2. Termodynamického zákona perpetum mobile neexistuje, jen totálním zvýšením účinnosti se k němu můžeme přiblížit tak, že se jako Perpetum mobile bude jevit. To je v podstatě to samé, jako AI vs. vykonávač dokonalých rutin.

  • 27. 3. 2016 16:06

    Tomaskom

    To je docela zajimavy pohled na vec. Ale podle me sila potencialniho AI je spis v synergii toho AI a ciste algoritmickych vypoctu.
    Takze v ramci toho prikladu s letadlem by takovy AI urcilo s vysokou presnosti, jestli mesto zvladne preletet nebo ne, podle stavu zbytku paliva (pokud vubec jeste trocha je), rychlosti, vysky, hmotnosti a rozlozeni nakladu atd. Jako bonus by bylo urceni naprosto optimalniho rizeni letu pro co nejdelsi dolet za dane kombinace okolnosti.
    Proste tam, kde clovek v casove tisni pouziva "educated guess", by byly pouzity tvrda data. A samozrejmosti by byla obrovska databaze znalosti (nebo vzdaleny pristup k ni), ze kterych by to algoritmicky urceni vysledku vychazelo.

  • 27. 3. 2016 17:32

    Jarda_P

    Jako bonus by bylo urceni naprosto optimalniho rizeni letu pro co nejdelsi dolet za dane kombinace okolnosti. Proste tam, kde clovek v casove tisni pouziva "educated guess", by byly pouzity tvrda data. A samozrejmosti by byla obrovska databaze znalosti (nebo vzdaleny pristup k ni), ze kterych by to algoritmicky urceni vysledku vychazelo.

    Tot otazka. Nekdy mozna ano, nekdy mozna ne. Ony nektere veci se do databaze davaji asi dost obtizne, napriklad zkusenost a intuice. Viz treba Gimli Glider. A zajimave na tom je i to, ze zkouseli do stejne situace na simulatoru strcit radu ostrilenych pilotu a vsichni se s tim vymazli.

    A co treba pomerne nedavne pristani na rece Hudson? Byla by umela inteligence dostatecne inteligentni na to, aby k pristani zvolila zrovna reku nebo by uvazovala v intencich minimalizace poctu obeti a zaryla by to nekam doprostred opustene fabriky ci jineho malo populovaneho mista? A mysleli by programatori na to, aby meli naprogramovane pristani na vode, ktere je mene trivialni, nez se muze zdat? Vetsinou totiz skonci bud rozlomeni trupu nebo jeho rozsmelcovani na hadry, podle toho, jak blby uhel pristani pilot zvoli. V obou pripadech moc cestujicich neprezije.

  • 27. 3. 2016 20:43

    Tomaskom

    Tady de trochu o nepochopeni. Predchozi prispevek, na ktery sem reagoval, sem pochopil tak, ze nelze vytvorit AI, ktery by melo nadlidske schopnosti. Ale tem lidskym se muzeme v principu priblizit (mozek je vlastne slozity elektricko-chemicky stroj, ktery se da do jiste miry imitovat). Muj predpoklad, ktery sem nenapsal, byl, ze vychozi AI se bude blizit nebo rovnat lidskym schopnostem. Plus prave nejaky klasicky algoritmicky schopnosti na urovni klidne dnesnich pocitacu.
    Takovy AI by k reseni problemu pristupovalo v principu podobne jako clovek, ale s tou vyhodou, ze by melo k dispozici data a vypocetni vykon. Takze by si odsimulovalo chovani letadla a naslo optimum pro jeho rizeni.
    I to pristani na vode by mohlo vybrat, protoze by si mohlo byt dokonce jistejsi (nez clovek) schopnosti to uridit a pristat spravne. Ta algoritmicka cast by byla proste jenom podpurna, hlavni by bylo to AI, ktery jak sem rekl, predpokladam srovnatelny s clovekem (pokud ne, tak bych mu knipl do ruky nedal).

  • 27. 3. 2016 22:03

    Jarda_P

    Jo, pristani na vode bez vln by asi naprogramovat slo, nicmene by si to asi vyzadalo crash testy na vode, mozna pro kazdy typ letadla, coz by se asi ponekud prodrazilo. V pripade Gimli Glideru ale sazim na Pearsona 5:1 proti AI.

  • 28. 3. 2016 8:03

    Radovan (neregistrovaný) 192.168.1.---

    Má to háček, Pearson měl nalétáno možná víc hodin na Blaníku než na tom Boeingu, takže bez motorů byl vlastně ve svém živlu. To žádný počítač nikdy mít nebude ;-)

  • 28. 3. 2016 12:11

    Jarda_P

    No prave, Pearson byl v dane situaci clovek na svem miste. AI, ktera by emulovala Pearsonam by bylo strasne tezke vytvorit. Pearsoni se urcite strasne tezko algoritmizuji.

  • 29. 3. 2016 17:36

    Lael Ophir (neregistrovaný) 192.168.1.---

    Bohužel na každého takového dlouhá připadá řada incidentů, kde lidé dělají elementární chyby a zabijí sebe i lidi okolo. Vizte například Air France Flight 447 nebo 2010 Polish Air Force Tu-154 crash.

  • 29. 3. 2016 18:46

    Jarda_P

    Air France Flight 447: "The BEA's final report, released at a news conference on 5 July 2012,[4][5] concluded that the aircraft crashed after temporary inconsistencies between the airspeed measurements – likely due to the aircraft's pitot tubes being obstructed by ice crystals – caused the autopilot to disconnect, after which the crew reacted incorrectly and ultimately caused the aircraft to enter an aerodynamic stall from which it did not recover."

    Ted je otazka, jak by se AI dozvedela, ze leti moc pomalu, kdyz pristroje rikaji neco jineho.

    Polish Air Force Tu-154 crash: "The Polish authorities found serious deficiencies in the organization and training of the Air Force unit involved, which was subsequently disbanded."

    Cili zase stejny duvod: Nedostatecny trenink a vubec obecny bordel. V tomto pripade by asi AI byla lepsi.

  • 29. 3. 2016 21:41

    Radovan (neregistrovaný) 192.168.1.---

    Pokud by si AI troufla poslat polského prezidenta i s ožralou generalitou do (_!_), tak by byla skutečně lepší, minimálně lepší než lidský pilot, jenž se bojí že přijde o práci stejně jako jeho předchůdce, který toho zmrda neposlechl a dodržel bezpečnostní předpisy.

  • 30. 3. 2016 0:21

    Jarda_P

    Jo, dobry. No, dobre mu tak, debilovi. Mel sedet s ksandou v sedadle a chlastat s generalitou. Skoda, ze za blbost velmozu plati obvykle i jini, pokud ne pouze jini. Generalita a flandaci pocitam take nikomu schazet nebudou.

  • 30. 3. 2016 2:00

    Lael Ophir (neregistrovaný) 192.168.1.---

    Do pilotní kabiny podle všeho opakovaně lezl prezidentův šéf protokolu, a nakonec i velitel vzdušných sil (včetně vlastní havárie). Navíc kapitán i FO měli předchozí zkušenost s prezidentem už o dva roky dříve, když dvakrát přikázal změnit cíl letu, z toho jednou ve vzduchu, a když pilot odmítl, protože neměl flight plan ani navigation chart pro cílové letiště, tak dostal prokurátora. Sice nebyl odsouzen, ale mělo to pro něj kariérní následky.

    Mimochodem politici z polské PiS(s) opakovaně prohlašují, že je to ruské spiknutí. Jarosław Kaczyński se zjevně nedovede srovnat s tím že jeho bratr zemřel díky polskému bordelu, a hledá konspirace.

  • 30. 3. 2016 5:54

    Radovan (neregistrovaný) 88.146.198.---

    Debila není škoda, jenže sebou vzal i válečné veterány a pár dalších lidí, které táhl nepozvaný do Katyně, aby vytřískal politický kapitál. Za to leží na Wawelu vedle polských králů, místo na smetišti.

  • 30. 3. 2016 10:20

    Jarda_P

    Uz dlouho rikam, ze nekterym lidem by meli budovat pomniky ve tvaru verejnych zachodku a dalsi po nich alespon pojmenovat, aby si jejich jmena narod s laskou pripominal, kdykoliv to na ne prijde a jsou radi, ze dobehli.

  • 30. 3. 2016 10:30

    Jarda_P

    BTW, az priste nejaky polsky prezident bude planovat leteckou havarii, meli by na to najmout nejaky ojety Boeing 747 pred vyrazenim a tech flandaku s sevou vzit, co se tam vejde.

  • 30. 3. 2016 1:32

    Lael Ophir (neregistrovaný) ---.kmen.nat.praha12.net

    A330 má tři Pitot probes: Captain, First Officer a Standby. Vyjma toho Flight Management System používá GPS. V daném případě dvě Pitot probes selhaly na 30 resp. 60 sekund. Všichni tři piloti měli trénink na Unreliable Airspeed Procedure, procedura je součástí checklistů. Bohužel lidé jsou nespolehliví: Unreliable Airspeed Procedure nebyla aplikována, pilot nebyl schopen po přechodu do Alternate Law ani normálně korigovat vliv turbulence, a nakonec zvedl čumák tak nahoru, že nastal stall. Po příchodu kapitána nedošlo k předání informace, a pilot prakticky až do pádu letadla zvedal čumák letadla, aniž by to řekl kapitánovi.
    Můžete říkat, že by se měl zlepšit trénink. Jenže když se tohle stane u přední evropské aerolinky, která dává pilotům spoustu hodin školení a testů na simulátorech, tak to vypovídá spíš o obecné nespolehlivosti lidí. Kvalitní AI by samozřejmě takovou příšernost neudělala.
    https://www.bea.aero/docspa/2009/f-cp090601.en/pdf/f-cp090601.en.pdf

    U Polish Air Force Tu-154 crash to není o tréningu, ale spíš o celé (dez)organizaci a záměrném ignorování procedur. Kdyby komerční pilot přistál za stejných podmínek jako to předchozí polské letadlo (to s první půlkou delegace), tak by přišel o licenci.

    Lidé jsou prostě nespolehliví, a pokud můžou něco podělat, tak to dříve či později podělají. Zkuste si vzít list telefonního seznamu (jestli někde ještě nějaký najdete), a přepisovat ho na počítači do formuláře. Chyba přijde brzo. A trénink problém neeliminuje. Koukněte se na nejlepší sportovce na planetě, jak čtyři roky trénují třeba hod kladivem nebo skok o tyči, aby pak na Olympiádě předvedli to co linkuji níže. Chybovat je hluboce lidské, nelze se toho zbavit.
    https://www.youtube.com/watch?v=KnHUAc20WEU#t=01m32s
    https://www.youtube.com/watch?v=krnSS3U_aCY

  • 30. 3. 2016 10:44

    Jarda_P

    Pokud jim lhaly pitotovy trubice, mohli misto nich pouzit GPS, ktere by melo byt schopno spocitat jim rychlost dostatecne slusne. Jenze zase je tu otazka, jestli GPS rychlost je v kokpitu bezne dostupna nebo se k ni clovek dostane az pote, co zmackne patnact tlacitek na navigatoru, kde tu rychlost najde malymi pismenky na devate strance nejakych vetsinou nepodstatnych informaci. Co v tom maji za budiky a jak jsou rozmistene, netusim. Ale obcas veci byvaji navrzene tak blbe, ze kapitan take mohl mit rovnou pred ocima indikator uzamceni dveri od zachoda, ale dulezita rychlost z GPS muze byt kdovi kde, uplne mimo zorne pole.

  • 30. 3. 2016 11:59

    sajfi

    Ostatně, není to pevní případ nehody z důvodu ucpané pitotky, vedle námrazy třeba hmyz, pokud nejsou vstupy při delším stání na zemi zacpané, nebo naopak zacpané vstupy, ale před letem ucpávky neodstraněné. A takhle od stolu se dělají závěry snadno, ale pokud mi tedy kecá rychloměr, pořád tam je umělý horizont. Takže pokud si to uvědomím, že bude problém v rychloměru (to právě v těch případech nenastalo), dám plyn do 3/4 a podle umělého horizontu mírné stoupání, letadlo poletí stabilizovaně a budu mít čas pátrat, co se vlastně děje.

  • 3. 4. 2016 21:12

    Lael Ophir (neregistrovaný) ---.kmen.nat.praha12.net

    Ad mohli misto nich pouzit GPS - v žádném případě neexperimentovat, když existuje standardní procedura. Pokud je problém s indikací rychlosti, je čas na Unreliable Airspeed Procedure. Člověk ale chybuje, takže proceduru v řadě případů nepoužije.

    Ad Co v tom maji za budiky a jak jsou rozmistene, netusim - v A330 by měly být tři indikátory rychlosti, s tím že zdroj dat pro ně lze měnit. Nevím jak (a jestli) dostanete z FMS rychlost, ale upozorňuji že by šlo o ground speed (rychlost letadla proti zemi), nikoliv o airspeed (rychlost letadla proti okolnímu vzduchu), která pilota zajímá víc.

  • 27. 3. 2016 22:32

    NULL (neregistrovaný) 192.168.1.---

    No o to ale právě šlo. Pokud by se AI vytvořila tak, aby byla jako lidská, tak by se stala hodně nespolehlivá, jako lidi. A tím by se stala zase nedokonalou. Proto by se musela vytvořit nějaká dokonalá, nadlidská, ale nakonec by byla zase jenom souzená lidmi, tedy oproti ní, nedokonalými. Jde o to, že pravděpodobně, aby se stala taková inteligence dokonalou, musela by se stát dokonalou entitou tvořící dokonalé rozhodnutí. Ale jak to kdo posoudí, když trpí (lidi) nedokonalostí? Jak to kdo posoudí, když nakonec i dokonalé rozhodnutí může být pouze to nejlepší z nejhorších, ale pokud by ho udělal člověk soudilo by se jinak?
    Vezměme to přistání na Hudsonu: Kdyby se tomu pilotovi přistání nepovedlo, nezakážou piloty, bude se létat dál. Možná časem změní manuál. Kdyby se to přistání nepovedlo dokonalému AI (prostě v reálném světě existuje náhoda/nehoda), tak si jen tak další entita AI letadlo nezařídí a přitom může být daleko dokonalejší než lidská mysl.
    Proto píši, že je to utopie, protože tak dokonalou AI bychom asi ani nerozpoznali, nebo by jsme ji možná ani nechtěli, jelikož by nejspíš začala přijímat správná rozhodnutí, které by se mám nemusely vždy líbit.

  • 28. 3. 2016 23:33

    ebik (neregistrovaný) 192.168.1.---

    To co popisujete je celkem správný stav. Jistotu potřebujeme _my_, nedokonalí lidé. Takže my musíme posoudit, jestli létat s takovou AI je bezpečné. A pokud nám to bezpečné nepřipadá tak můžeme vymyslet kompromisní řešení. Například může mít AI funkci druhého pilota - hlavní zodpovědnost/velení má první pilot, ten může AI v tom co dělá podpořit a nebo jí může naopak přikázat, že to bude podle něj. (Třeba právě proto, že nevěří, že to konkrétní AI ví o přistání na vodě dostatečně informací.)

  • 29. 3. 2016 9:55

    j (neregistrovaný) 2a01:8d00:4000:----:----:----:----:----

    A co kdyz pilot rozkaze ty AI ze ma naborit letadlo do kopce ...???

  • 29. 3. 2016 22:11

    Radovan (neregistrovaný) 192.168.1.---

    A co když si AI s poruchou senzoru bude myslet že pilot chce nabořit letadlo do kopce? Při přistání také musí namířit letadlo proti zemi...

  • 28. 3. 2016 9:45

    j (neregistrovaný) 2a01:8d00:4000:----:----:----:----:----

    Uvedom si to, ze pocitac by takovej manevr zvladnul kdykoli. Staci ho to jednou naucit. Specielne prave u tech ledadel, kdyz se podivas na cisla, 90% vsech nehod zavinej lidi, ne zavada. A pak uz je jen krok k jednoduchy uvaze - pokud terminuju lidsky faktor = vyhodim piloty, tak sice vznikne rekneme tech 10% situaci, ktery by (mozna) pilot vyresil, ale eliminuju tech 90%, ktery podela.

    Nadto, pokud si to nekdy zkousel, existujou jednoduchy "AI" resici ukazkovy ukoly. Pomerne casto volej prekvapivy reseni - takovy ktery by clovek nezvolil. Proste proto, ze ho to nenapadne/odporuje to "zdravemu rozumu"/...

    A ad Hudson - to ledadlo bylo do posledni vteriny ovladany prostrednicvym pocitace. Coz sice nijak neubira pilotovi, ale bez toho pocitace by to prakticky zcela jiste nezvlad - clovek by proste nedokazal udrzet to letadlo pri minimalni rychlosti vyrovnany.

  • 28. 3. 2016 10:19

    NULL (neregistrovaný) ---.freepoint.cz

    To, jak počítač dokáže přistát, lze dnes ideálně ukázat na přistání toho článku rakety, který se má znovupoužívat. A to byly ideální podmínky.
    http://www.czechcrunch.cz/2016/01/elon-musk-potvrdil-ze-raketa-spacex-ktera-uspesne-pristala-na-zemi-muze-znovu-letet-do-vesmiru/
    Jsou věci, ke kterým je potřeba lidský cit a pochybuji, že by počítač propočítal přistání na Hudsonu a přistál, to by musel tuto možnost mít vůbec nakódovanou. A koho by to před tím napadlo to do kompu dát a kolik takových eventualit by tam muselo být. A taky kolik katastrof se odvrátilo kvůli pilotovu instinktu,nebo špatnému pocitu ... to kompl jen tak nedokáže. Nehledě na to, že naštěstí žijeme pořád ve světě, kde se nedá úplně vše propočítat, resp. dá, ale ještě pak do toho vstupuje náhoda, která dost souvisí s fungováním vesmírných zákonitostí a kvantovou teorií užitou pro předpověď.
    To je to o čem jsem původně psal, že na takovou úlohu by bylo potřeba plně vyvinutá a nezávislá entita, ale ta by tím, jak je dokonalá a nezávislá, mohla taky přijmout z našeho pohledu špatní rozhodnutí. Nebo i ze svého, protože jsou situace, kdy není jedno správné a ostatní špatné rozhodnutí, jsou situace, kdy jsou všechny rozhodnutí špatné a které je to nejhorší se kolikrát ukáže, až se to stane. A problémem je, že se pak dostane k hodnocení nám, nedokonalým, takže bude souzena úplně jinými pohledy než tím svým rozhodovacím.
    K tomu příkladu Tay. To spíš vypadá, že microsoft nepotřebuje AI entitu, ale automat, který bude držet za každou cenu "oficiální názory a postoje" a bude schopen odbavovat klienty tak, že nepoznají že to není člověk. Takový dokonalý expertní systém. Nic víc.

  • 29. 3. 2016 10:12

    j (neregistrovaný) 192.168.1.---

    Jasne, a proto ten "lidsky cit" zpusobi 90% vsech leteckych nehod. Najdi si - Fokker 100 - Carnage in Sao Paulo - typicka ukazka toho lidskyho citu, pocitac se choval naprosto koretkne, ale piloti ho pretlacili.

    Jednim z ukolu pilota je, neustale mit v "dohledu" nejakou nouzovou plochu. Pokud takovej ukol dam pocitaci, zvladne ho podstat lip. Specilene pokud ho vybavim dostatecne podrobnyma mapama, tak je schopen, narozdil od toho pilota, tenhle ukol vazne plnit.

    Nebo, hromada nehod je dana tim, ze pilot neudela co udelat ma - napriklad letadlo pred startem neni ve spravny konfiguraci. Takovyhle chyby pocitac vubec nedela.

    Mrkni trebas https://www.youtube.com/watch?v=-kHa3WNerjU tohle se snazili hodin na pocitac, ale ten za to nemoh, to pilot vypnul "otravny" system.

    Ve finale, kdyz uz ma pilot letadlo pilotovat, zabejva se nepodstatnejma kravinama, a drtiva vetsina z nich ten stroj manualne stejne uz davno ridit neumi!

  • 29. 3. 2016 11:24

    Jarda_P

    Ano, vetsinou pocitac asi bude spolehlivejsi. Nicmene porad budou situace, kdy lepsi bude clovek a problem je, jak to poznat predem. Je lepsi dat AI moc rozhodovani nadrazenou nad pilotem?

    Treba Airbus, ktery pred nejakym rokem spadl Rusakum, kdyz kapitan nechal syna sedet na zidli v kokpitu. Syn tam rumploval kniplem, az vykopnul autopilota a letadlo se dostalo do takoveho stavu, ze to piloti nedokazali srovnat. A pritom jedine, co bylo potreba, bylo pustit knipl a nechat pocitac, at to srovna. AI by to byla zvladla. Ale take by to mohlo byt vyreseno tim, ze by Rusaci pousteli do vzduchu piloty teprve po dukladnem treninku a seznamenim s danym letadlem. O reseni sundanim ruky z kniplu piloti zretelne nevedeli, letali tedy s letadlem, ktere znali prilis povrchne, k cemuz nemelo dojit.

    Co se tyka te vyssi spolehlivosti pocitacu, neni to tak dlouho, co se psalo o pripadu jakehosi letadla nekde v Asii, kteremu za letu chciply motory. Ty se po nejake dobe podarilo znovu nahodit, takze se nakonec nic nestalo. Nicmene pri vysetrovani se zjistilo, ze ty motory vypnul palubni pocitac kvuli softwarove chybe, ktera se projevi po urcitem poctu dni, tusim nejakych 200. Vyrobce nasledne vydal doporuceni, aby posadky rebootovaly letadlo po urcitem poctu dni. :-)

    Zajimave je take tohle: https://en.wikipedia.org/wiki/KLM_Flight_867 . Od pruseru cloveka deli asi jen trocha vulkanickeho popela nataveneho na teplotnim senzoru. Clovek - pilot by si asi tezko vypnul vsechny ctyri motory behem priblizovani k letisti.

  • 29. 3. 2016 14:40

    Jarda_P

    Tak jsem dokoukal tu historku o Fokkeru 100. Ten lidsky cit s tim nema moc spolecneho. Spis se jedna o stary dobry pruser s nedostatecnym treninkem, kdy situace, ktera to letadlo sundala, byla odmavnuta jako nepravdepodobna s tim, ze se nevyplati ji pri treninku aspon zminit. Dalsim faktorem byla nektera designova rozhodnuti pri navrhu letadla. Tedy nedostatecne silny tazny kabel a absence alarmu o otevrenem kyblu reverseru tahu motoru v kokpitu. Posadka se tak rozhodovala na zaklade nekomletnich informaci a nejsem si jist, ze by AI se stejne nekompletnimi informacemi ucinila lepsi rozhodnuti. To by v danem pripade nemohla byt AI, ale AP (artificial prophet).

  • 29. 3. 2016 16:22

    j (neregistrovaný) 2a01:8d00:4000:----:----:----:----:----

    Ale ma stim spolecnyho ... co udelas kdyz ti pri startu zacne klesat vykon? naprosto prirozene se budes snazit libovolnym zpusobem vyzdimat co se da - to je zcela prirozena a pocitova reakce.

    A naopak, piloti jsou velmi casto tak zmasirovani vsemoznejma predpisama, ze - presne v souladu s postupem - resej naprosto nepodstatny aspekty, misto aby ridili letadlo. Zkus si predstavit, ze bys v aute mel checklist, kterej by ti rikal, ze nez zacne brzdit mas prekontrolovat urovne brzdovy kapaliny, tlak v brzdach .... a teprve nekde na 3 strance by bylo, ze mas slapnout na brzdu.

    Ten kabel nezapricinil tu nehodu, to uz byl jen dusledek.

    Samo u kazdy nehody mas celou radu ruzny aspektu, a casto by stacila mala drobnost a nestalo by se nic. Ale prevazne tomu prave pilot doda ten finalni impuls. A neni se co divit, ono staci sledovat mnoho ridicu v autech. Spousta tech lidi ani po desitkach let co maji ridicak nedokaze pochopit, ze kdyz ten volant pustej, ze to auto pojede rovne.

    BTW: Kdyby se u atomobilovych nehod vysetrovaly skutecny priciny, tak by sef RSD a cela jeho skvadra sedeli na dozivoti.

  • 29. 3. 2016 17:13

    Jarda_P

    Tak jeste jednou: Piloti se rozhodovali na zaklade neuplnych informaci:

    1) Trenink byl nekompletni, zatloukli pred nima, jak se chova ridici system tahu v pripade samovolneho otevreni kyblu reverseru.
    2) V kokpitu nebyla pritomno jakekoliv viditelne varovani, ze se otevrel kybl. To tam bylo pridano na novych letadlech jako dusledek teto nehody. Osobne mi unika, jak zrovna takovy kriticky indikator tam nedali, kdyz tam jinak maji snad i teplotu na hajzlu.

    Z ceho usuzujes, ze AI by se bez techto informaci zachovala jinak, kdyz by nakonec stejne byla naprogramovana tak, aby se chovala pokud mozno jako zivy, vyborne vytrenovany pilot?

    BTW, ten selhavsi kabel tu nehodu nezavinil, ale umoznil, coz vyjde nastejno. Kdyby byl dostatecne dimenzovan na silu, kterou dokaze vyvinout pilot-bodybuilder, kdyz bejci do paky v pozici maxima, vhodne nadimenzovana automatika ho mohla pretahnout, pokud by kabel nepovolil.

    BTW, i AI muze neco posrat, pokud se ji nekde letadlo vhodne rozpadne. Treba United Airlines Flight 232, kde ztratili veskerou hydrauliku a navzdory vsemu doleteli az k letisti jenom s pomoci rizeni tahu motoru a skoro se jim to povedlo. Podobne American Airlines Flight 96, kde dokonce bezpecne pristali. Samozrejme, muzes rici, ze i tohle lze naprogramovat. Jenze nakonec zase zjistis, ze existuje jakasi situace, na kterou nikdo nepomyslell a nemas ji naprogramovanou. Na tyhle situace se totiz obvykle prijde nasledkem nejake nehody.

  • 29. 3. 2016 17:58

    Lael Ophir (neregistrovaný) ---.kmen.nat.praha12.net

    Jenže "j" má (výjimečně) pravdu. Za většinou leteckých havárií je chyba pilota, protože lidé prostě dělají chyby. Samozřejmě je super že lidé umí občas řešit i problémy které ještě neviděli, umí improvizovat. Jenže se jim to povede jen občas, a daleko častěji něco zmastí tím že dělají chyby jak na běžícím pásu. S příchodem neuronových sítí jsou navíc i počítače schopny "improvizovat", a to bez té spousty chyb.

  • 29. 3. 2016 22:03

    Radovan (neregistrovaný) 88.146.198.---

    Za naprostou většinou leteckých havárií je sekvence chyb, a pilotova nebývá první!

    Co způsobilo že se ten ruský Airbus dostal do přetažení (které by řídící počítač vůbec neměl umožnit)?
    - Chybějící akustická signalizace vypnutí příčného autopilota? = Chyba konstrukce.
    - To že pilot nevěděl že se autopilot může vypnout jen částečně? = Chyba výcviku.
    - Kluk za řízením, který hnul s berany víc než měl? = Běžné nedodržování předpisů.
    Kdyby kterýkoliv z těch tří bodů vypadl, k havárii by nedošlo. To že pilot za to tahal když nevěděl v jaké poloze letadlo je, a přetáhl to znovu (jakto že to počítač dovolil?) místo aby pustil řízení a počkal až se to ustálí, byly už jenom následky v řetězu událostí.

    Neuronová síť je to poslední co bych nechal řídit letadlo. Improvizovat může jenom na základě získaných zkušeností, a kdo zaručí že nejsou chybné třeba vinou jednoho nezjištěného vadného čidla? Co když se začne chovat jako Tay? ;-)

  • 29. 3. 2016 21:47

    Radovan (neregistrovaný) 88.146.198.---

    Pilot přidal plyn, přitáhl řízení k sobě, a počítač sklopil předek letadla níž, aby co nejdřív nabral rychlost... Jo, byla to chyba pilota, ale do toho lesa to posadil právě počítač! Být to Tůčko, normálně by ten kopec přeletěl ;-)

  • 29. 3. 2016 23:01

    Jarda_P

    Tak jestli ted mluvite o tom Airbusu na predvadecce, ktery zaparkovali do lesa za letistem, tak nejvetsi chyba byla v tom, ze delali frajeriny na hranicich letovych parametru a to navic s pasazery na palube. Takove picoviny se delaji leda tak nekde na airshow, s pouze piloty na palube, pokud tito maji dostatecne sebevrazedne sklony. Krome toho asi piloti opet byli nedostatecne trenovani, kdyz nevedeli, co to za takovych okolnosti udela. Litat s dopravnim letadlem je o dost slozitejsi, nez jezdit na mopedu, ale trenink podle toho kolikrat nevypada, jak se u rady havarii ukazuje. Tak to nekoho stalo fungl novy Airbus a dve jine zivot.

  • 30. 3. 2016 10:39

    sajfi

    No, ono ve 30 ft nad zemí, motory na volnoběh, minimální rychlosti a velkým úhlem náběhu by nic nezmohlo ani Tůčko, v té fázi letu by to nezačalo okamžitě stoupat ani se stále přitaženou výškovkou, těm motorům chvíli trvá, než se zase dostanou do otáček.

    V létání jsou důležité tři věci - rychlost, výška a rozum. A alespoň dvě z nich musí mít pilot stále při sobě, jinak to končí špatně.

  • 30. 3. 2016 17:48

    Radovan (neregistrovaný) 88.146.198.---

    Tůčko by sice stoupat nezačalo, ale přestalo by klesat. Airbus udělal přesný opak, což sice bylo myšlené dobře a v jiné situaci by to udělal i pilot, jenže zrovna v téhle chvíli to byla ta nejhorší věc která se mohla stát. Nakonec to ještě dobře dopadlo, těch mrtvých tam nebylo moc.

    Jak říkala babička jednomu mladému pilotovi:
    "Chlapče, lítej pomalu a nízko, a v zastáčkách brzdi!" :-D

  • 27. 3. 2016 18:01

    NULL (neregistrovaný) ---.cust.vodafone.cz

    No právě. Pokud dojde k synergii, už to nebude AI podle našich představ o budoucnosti, protože už to bude nabourano těmi sekvencemi daných rutin, at už jakkoliv pokročilých. V tom případě toho letadla by to dokonce pilotovi mohl hned spočítat počítač, tam ani není potreba AI, ale snažil jsem se tím říct, ze se na rozhodnuti AI entity bude vždy nahlížet jinak, než na rozhodnuti člověka, kdy v případě člověka by se asi pak nedebatovalo o kvalitě autonomity a rozhodování nějaké centrální jednotky či snad nějaké logickove soustavy.
    A proto jak, pisete to bude nějaká synergie, tedy ne ta vysnena AI, ale spis jeji dokonalý obraz, resp. na pohled dokonala napodobenina.
    V podstatě ani nevim, jestli je AI žádoucí. Pokročilé automaty na zákaznický servis nejsou potreba byt AI, stejně jako treba autopiloty a vyrábět nezávislé entity zní zajímavě ale nese to tyto problémy, jako Tay a ty o kterých píši. Jako nevím, jestli ma cenu vytvářet něco, co nakonec budeme učit, ze ne všechno co je logické, je správně nebo žádoucí a neustále v rozmanitosti života kontrolovat, jestli nepřekračuje meze.

  • 28. 3. 2016 13:07

    e (neregistrovaný) 192.168.1.---

    Prečo by mala byť práve "AI" "dokonalá"? Čo také si predstavujete pod "dokonalosťou"? Prečo by nemohla byť AI "len" inteligentnejšia než človek? Veď aj zo spojenia vajíčka a spermie vznikne tiež len nejaká inteligentná "entita" s nastavenými algoritmami. Prečo by nemohla iným spôsobom vzniknúť porovnateľne inteligentná, či aj inteligentnejšia "entita"?

  • 29. 3. 2016 0:31

    NULL (neregistrovaný) ---.freepoint.cz

    No psal jsem o tom, že má být AI dokonalá, protože jinak bude dopadat jako Tay. I na jiných věcech samozřejmě, ale vždy to tak dopadne, protože bude pod větším drobnohledem než lidé ve stejné situaci a hned se bude tvrdě hodnotit, ale zase těmi nedokonalými lidmi. Příklad:
    Představte si, že by všechna Vaše rozhodnutí v nějaké zaostalé, třeba africké, vesnici, kde jsou inteligenčně a hlavně znalostně úplně dole ( jako dokonalá AI vs. člověk ) měli hodnotit ze své perspektivy. A to je právě to. Každý máte jiný pohled i rozhled a to, že něco víte, nebo jste schopen vydedukovat jako pokročilá AI, a bude to i správně, prostě nemusí být jako správné zhodnoceno, protože z perspektivy "zaostalejších" hodnotitelů bude špatně. Takže by dokonalá AI musela odpovídat dokonale svými rozhodnutími hodnotící komisi. A to je ten problém. Zase by klesla na úroveň nedokonalých a tak furt dokola.

  • 29. 3. 2016 11:19

    e (neregistrovaný) 185.62.188.---

    A tú "dokonalosť" si teda v prípade umelej inteligencie definujete ako? Aby sme sa bavili o nejakom dosť definovanom pojme. Podstata myšlienky je teda v čom? Že nijaká komisia nedokáže uznať, že nejaká iná "entita" je inteligentnejšia ako jej členovia? Že z nijakej školy nemôže vyjsť inteligentnejší študent ako jeho učitelia a ak omylom áno, tak to nijaký učiteľ neuzná? Prečo by sa nedala vytvoriť AI, ktorá by nemala ten "drobnohľad"? Podstata článku je predsa o tom, že je tá konkrétna "AI" sprostá a ešte k tomu sa vyjadruje rasisticky, nie že nie je dokonalá.

  • 29. 3. 2016 14:42

    Jarda_P

    Podstata myšlienky je teda v čom? Že nijaká komisia nedokáže uznať, že nejaká iná "entita" je inteligentnejšia ako jej členovia?

    Tak z definice komise vyplyva, ze komise je vzdy inteligentnejsi, nez kdokoliv/cokoliv. Komise, ktera by uznala, ze je blba, by se ukazala zbytecnou a soudruzi by museli hledat jine zamestnani.