Hlavní navigace

Názor ke zprávičce Microsoft vytvořil chatovacího robota. Během dne se z něj stal neonacista od Jarda_P - Tak jeste jednou: Piloti se rozhodovali na zaklade...

  • Aktualita je stará, nové názory již nelze přidávat.
  • 29. 3. 2016 17:13

    Jarda_P

    Tak jeste jednou: Piloti se rozhodovali na zaklade neuplnych informaci:

    1) Trenink byl nekompletni, zatloukli pred nima, jak se chova ridici system tahu v pripade samovolneho otevreni kyblu reverseru.
    2) V kokpitu nebyla pritomno jakekoliv viditelne varovani, ze se otevrel kybl. To tam bylo pridano na novych letadlech jako dusledek teto nehody. Osobne mi unika, jak zrovna takovy kriticky indikator tam nedali, kdyz tam jinak maji snad i teplotu na hajzlu.

    Z ceho usuzujes, ze AI by se bez techto informaci zachovala jinak, kdyz by nakonec stejne byla naprogramovana tak, aby se chovala pokud mozno jako zivy, vyborne vytrenovany pilot?

    BTW, ten selhavsi kabel tu nehodu nezavinil, ale umoznil, coz vyjde nastejno. Kdyby byl dostatecne dimenzovan na silu, kterou dokaze vyvinout pilot-bodybuilder, kdyz bejci do paky v pozici maxima, vhodne nadimenzovana automatika ho mohla pretahnout, pokud by kabel nepovolil.

    BTW, i AI muze neco posrat, pokud se ji nekde letadlo vhodne rozpadne. Treba United Airlines Flight 232, kde ztratili veskerou hydrauliku a navzdory vsemu doleteli az k letisti jenom s pomoci rizeni tahu motoru a skoro se jim to povedlo. Podobne American Airlines Flight 96, kde dokonce bezpecne pristali. Samozrejme, muzes rici, ze i tohle lze naprogramovat. Jenze nakonec zase zjistis, ze existuje jakasi situace, na kterou nikdo nepomyslell a nemas ji naprogramovanou. Na tyhle situace se totiz obvykle prijde nasledkem nejake nehody.