Podle me to ale je o necem jinem, nez ze skoci chodec do cesty.
Co tato jiz nekolikrat zminena situace.
Autonomni auto jede ve svem pruhu. na chodniku je chodec. proti se vyriti magor. Auto rozhoduje mezi celni srazkou s rychle jedoucim vozidlem nebo uhybny manerv smerem na chodnik kde jde chodec. V obou pripadech bude poskozena osoba nevinna. Muze za to magor jedouci vysokou rychlosti, ktery vyjel ze sveho pruhu.
Chodec muze jit jen po krajnici, nebyt protijedouciho vozu mimo svuj pruh automat by se chodci vyhnul a nic by se nestalo. Co v teto situaci?
Dle mého názoru autoauto nesmí NIKDY záměrně ohrozit jiného člověka. To by přece bylo porušení zákona robotiky. Navíc co když se pak idiotovi úspěšně vyhne a zabije toho chodce? Jednoznačně to bude vina toho majitele autopilota, to že jel někdo v protisměru nebude relevantní. Jak se posoudí, že zabití chodce odvrátilo situaci která nenastala?
Myslím že autopilot by měl prostě zabrzdit a připadně se snažit uhnout/natočit tak, aby minimalizoval následky.
.
Nejsou. Ale pokud stroj nějakým aktivním krokem zabije člověka, tak to společnost nerozdýchá, zejména pokud dojde k chybě a bude reagovat na neexistující nebezpečí. Stejně tak nerozdýchá, když si stroj bude na základě nějakého algoritmu vybírat, koho zabije. Navíc pro toto rozhodování nemá automobil dost informací a ani mít nemůže a rozhodování o vině případně menší škodě nebude fungovat (napálí to do protijedoucího auta, aby se vyhnul dítěti a v protijedoucím autě zabije tři děti o kterých neví). Jediné společensky přijatelné řešení imho je, že automobil zvolí akci, která neohrozí nikoho, nebo zůstane v pruhu a zkusí to ubrzdit .
"Dokonalou" AI bude vždy posuzovat "nedokonalý" člověk, nebo celky z lidí složené - až po populaci. Je to tedy to samé, jako kdyby měla třeba tlupa šimpanzů nebo psů posuzovat dokonalost rozhodnutí svého ošetřovatele a stanovit, jestli je dost "dokonalý" - v podstatě nemožné. Pokud ale AI nebude dokonalá, nebo bude jenom tak dobrá aby to člověk posoudil, tak zase není o nic lepší, bude dělat chyby a nebude možní ji nasadit.
Druhé hledisko je to, že rozhodnutí, které udělá člověk a dopadnou špatně, tak se prostě nedá nic dělat, je to člověk, dělá chyby a pokud nic fakt neposral, tak je to prostě nehoda nebo osud. Pokud tohle udělá/podělá AI, okamžitě začneš hodnotit její dokonalost - viz. 1. odstavec. Nehledě na to, že převzato z politiky: "Ať uděláš jakékoliv rozhodnut/čin, vždy někoho z oobčanů nasereš . . . " a to platí i pro tozhodování AI.
Proto podle mne mají spíše smysl expertní systémy a vysoce propracované algoritmy řízení, než uplatnění opravdové AI ve společnosti. Ale systém, který má předem definované i miliony rozhodnutí podle daného schématu není AI, jenom dokonalý "automat" a ten smysl má.
Ovážné a hlavně těžko průkazné. Už vidím automobilku, která pustí do světa auta, jejihž statistiky třeba nedání přednosti v jízde protijedoucímu vozidlu budou stejné jako u lidí, když z "blbého" falšování emisí byla celosvětová aféra.
K zamyšlení je, jak by vůbec autonomní auta mohla dělat stejné chyby jako člověk - viz 1. odstavec - buď program na odbočení vlevo má, nebo ne. A i kdyby občas selhal ( třeba zanesená čidla), tak by takové věci měly být zjištěny v rámci kontroly při jíz dě nebo před ní a jen těžko a velmi těžko by se i tak ta chybovost mohla rovnat lidské - protože prostě není.
No, ale nechal jsem se unést - v první řadě je totiž důležité, kdo to řekl . . .