AI je stroj. Pokud stavím stroj, stavím ho tak, aby plnil účel - tj. maximálně efektivně prováděl činnost, pro kterou byl navržen. Pokud to znamená, že např. někomu po vyhodnocení nedá hypotéku - je to jen věc zhodnocení, zda je stroj nastaven správně - tj. efekticně vybírá klienty s přijatelným rizikem. A to se dá v delším časovém okně snadno změřit. Takže ano, ať AI klidně diskriminuje, pokud to bude ku prospěchu jejího cíle. A ten cíl určuje její provozovatel typicky podle ekonomických hledisek, politická korektnost ho obvykle moc nezajímá.
Pokud stavím stroj, stavím ho tak, aby plnil účel - tj. maximálně efektivně prováděl činnost, pro kterou byl navržen.
Problem je, ze rada AI algoritmu nenajde globalni maximum, ale pouze lokalni maxima. Z pohledu ekonomickych ukazatelu mohou false negatives byt zanedbatelne, z pohledu lidi, o kterych je takto rozhodovano, je to ale zminovana diskriminace, ktera muze mit dopad na jejich skutecne zivoty.
Lokálního optima čeho?
Jak se podle tebe učí lidi z HR? Napovím: opět jen statisticky.
> Z pohledu ekonomickych ukazatelu mohou false negatives byt zanedbatelne, z pohledu lidi, o kterych je takto rozhodovano, je to ale zminovana diskriminace, ktera muze mit dopad na jejich skutecne zivoty.
Přijal bys někoho, o kom na 99% víš že je neschopný jenom proto, že by jinak neměl kde bydlet?
Lokálního optima čeho?
Kdyby sis precetl prispevek, na ktery reaguju, bylo by ti to hned jasne. Cituji: A ten cíl určuje její provozovatel typicky podle ekonomických hledisek
Přijal bys někoho, o kom na 99% víš že je neschopný jenom proto, že by jinak neměl kde bydlet?
Ale takto problem vubec nestoji.
Problem je ten, ze kdyz si umela inteligence (nebo to tvoje statisticky naucene HR) odvodi, ze treba z Bruntalu nikdy nezamestnali dobreho programatora, tak pak nezamestnaji sebelepsiho programatora, ktery pochazi z Bruntalu. Z pohledu statistiky a ekonomiky takove rozhodnoti muze byt nevyznamne, protoze misto neho najdou horsiho programatora z Budejovic a v konecnem dusledku se to ztrati. Ale takove rozhodnuti bude suboptimalni pro firmu a diskriminacni vuci tomu cloveku.
Ale já ho četl. A stále mi to není jasné. Lokálního optima čeho?
Ale jo, je to totéž. Ty víš, že 99% programátorů, kteří se k tobě hlásí z Bruntálu jsou neschopná individua. Proto máš 99% jistotu, že ten další, který se ti odtamtud přihlásí je také neschopný. (Přirozeně to nefunguje, pokud jsou tvůj vzorek populace 3 lidi, nebo pokud zapomeneš kritérium "Je z Bruntálu" očistit od vlivu dalších faktorů.) To, že je tu to jedno procento je hezké, ale nikoho ve skutečnosti nezajímá. Pro firmu se objektivně vyplatí to jedno procento ztrát ignorovat.
30. 7. 2019, 01:25 editováno autorem komentáře
Změřit se to nedá. Mohl byste to porovnávat, ale to byste musel mít dvě skupiny ve stejném prostředí, nikdo by nesměl vědět, zda za konkrétním výběrem stojí AI nebo člověk, a hlavně – musel byste to měřit správně. Pokud byste dokázal správně měřit všechny relevantní ekonomické vlivy, dostal byste Nobelovu cenu za ekonomii.
Politická korektnost je právě způsob, jak se mohou lépe rozhodovat i ti, kteří na to nepřijdou vlastním rozumem. Zaměstnávat někoho s horšími kvalifikačními předpoklady jenom proto, že je muž, není ekonomicky přínosné – ovšem spousta lidí na to nepřijde a je potřeba jim poradit politickou korektností „při přijímání zaměstnanců nerozlišujte, zda jde o muže nebo o ženu“.