Jak psal MartinX, AI je skutecne diskriminace. Pokud budu HR, tak ta diskriminace (rozliseni) rozdeluje soubor na 2 mnoziny: prijmout, vs neprijmout uchazece.
Teoreticky je jedno, jestli tuto cinnost (diskriminaci) provadi stroj, nebo clovek. Clovek muze udelat to same co stroj, ale pomaleji. Navic muze udelat chyby, coz v pripade HR muze znamenat prijmuti cloveka, ktery je lempl.
To co ale nekomu vadi, je ze v pripade AI nedostanou lemplove sanci, kdezto v pripade chybujiciho cloveka ano.
Cili mame tu 2 zajmy:
- stat - chce aby dostali uchazeci sanci bez ohledu na jeho minulost - nekde bude, nebude pachat trestnou cinnost, atd...
- firma - chce efektivne nabirat zamestnance, kteri po dlouhe roky budou dobre pracovat a prinaset firme zisky a nebude fluktuace.
Myslim si, ze je nefer chtit po nekom, at uz clovekovi nebo stroji, aby delal zamerne chyby. Na druhou stranu je pekne nekomu sanci dat a dat si praci s jeho rozvojem. V pripade AI k tomu nedojde.
Za prve, AI sa dopusti diskriminacie len nad takymi udajmi ake jej date. Ak jej vypis z registra trestov neponuknete tak nebude podla toho rozhodovat. Takze rovnako to bude s rasou pripadne farbou koze.
Za druhe, nikto nepovedal ze AI musi davat iba ANO/NIE. Moze davat aj odporucania na dlhsiu skusobnu dobu, castejsie kontroly vykonnosti, odporucania na kontrolu specifickeho KPI, pripadne kludne dotycneho zamestnanca aj leadovat v osobnostnom rozvoji. Fanzii v oblasti AI sa medze nekladu.
Rasa alebo farba koze sa da urcit aj zo sekundarnych chrakteristik ako bydlisko alebo trebars preferencia urciteho typu hudby. Kam by zaradila AI uchadzaca o zamestnanie, ktory ako bydlisko uvadza Lunix IX (v CR napriklad Chanov) ? Zakladnym principom AI je jej schopnost ucit sa a teda dynamicky menit svoje spravanie na zaklade suborov dat, ktore spracovava a prislusnej spatnej vazby. A to co sa AI nauci sa sice da ovplyvnit ale v principe sa to neda explicitne nastavit.
Vsak o to ide, ak bude mat skutocne horsiu vykonnost (ak sledujeme uchadzacov o pracu) a bude ich v tej vzorke viac, tak AI moze vytvorit kriterium "byva na Luniku IX - nevhodny uchadzac". Na prvy pohlad to bude vyzerat ako diskriminacia etnika prevazne zijuceho na Luniku IX, pricom informacia o etniku uchadzaca v povodnych datach nikde nie je. Moze to mat ale aj opacny efekt, ak budu ti, co byvaju na Luniku IX "pracanti" tak to zvysi sance aj ostanym obyvatelom tejto lokality.
Vsetko je to o trenovacich datach a spatnej vazbe, obavam sa ale ze tam bude po prvych "diskriminacnych" vysledkoch dochadzat k "antidiskriminacnym" manipulaciam (mozno to bude povinne zo zakona, ako je povinne zo zakona nezohladnovat dlhsi vek dozitia zien pri vypocte ceny zivotnej poistky). Potom ale nasadenie celej AI bude stracat zmysel.
Skuste AI nasadit na vypocet ponuknutej vyplaty. Napr.: Dvaja 35 r.kandidati, muz a zena. Obaja maju tu istu vysku s rovnakym vysledkom. Obaja potom pracovali v rovnakej firme na rovnakej pozicii (mozno su aj manzelia). Kym chlap ma 10 rokov praxe v odbore, zenna len 5, lebo bola poslednych 5 rokov na materskej v dvomi detmi a do prace sa vratila pred menej ako polrokom. Vyhodnoti pre nich AI rovnaku politicky korektnu vyplatu? Bude rozhodnutie tej AI spravodlive z hladiska zamestnavatela, ktorh chce vyssim platom odmenovat skusenejsich zamestnancov? (resp.z hladiska muza, ktory ma 2x viac praxe?) Je treba upravit AI na politicky korektne alebo riesit, ze ci ma byt normalne, aby aj muzi chodili castejsie na matersku (a tam mimo ineho vyrovnali tuto statistiku)? A bude stale politicky korektne, ak budeme hlasat, ze o polrocne dieta sa otec postara rovnako dobre ako matka a male dieta potrebuje otca rovnako, ako matku? (cize napr. aj pri rozvode by malo 50% deti koncit u otca)
Riesime problem rovnosti a politickej korektnosti v jednej oblasti zivota ale odmietame priznat potrebu riesit obdobnu nerovnovahu v inej oblasti (alebo priznat, ze ista miera nerovnovahy je vo vsetkych obalstiach v poriadku).
Dalsim aspektom je, ze bez ohladu na doporucenie AI bude mat v mojom teame vacsiu sancu biely rocker nez hispanec s dredmi. Nic proti hispancovy nemam, naozaj. Do teamu si ale budem hladat cloveka s ktorym si budem co najlepsie rozumiet aj po ludskej a kulturalnej stranke, aby sa mi s nim co najefektivnejsie spolupracovalo. (Pokial prave nepotrebujem tu diverzitu.)
Co vím, tak asi první malér s "diskriminujícím AI" nebyl zde zmíněný Amazon, ale právě nějaké hodnocení úvěrů a tam se právě stalo přesně to, na co se naráží. Totiž vznik "diskriminace menšiny" na základě nepřímých dat, barva pleti atd v kritériích nebyla, tomu se v dnešní době vyhýbá každý sám od sebe. Jenže se ukázalo, že "chytrá učící se AI" na podobné věci přijde celkem spolehlivě sama...
No a tady jsme v bodě, který podle mne nemá řešení... Omezovat vstupní data ještě více už moc nejde, tím se likviduje celý přínos této technologie. Nařizovat doplňková kritéria je problém u "opravdové AI", kde vlastně nevíme, podle čeho přesně rozhoduje a algoritmus se vyvíjí - snaha o vylepšení může vést k dalšímu učení a obcházení.
Přišlo by mi asi tak nejsmysluplnější nechat jet AI naplno a její výstupy pak pustit do "jednodušší AI (či dokonce prostého programu), který udělá kontrolu na "politicky citlivé klienty se špatným skóre" a pokud procento poleze nahoru, tak proces stopne a vyžádá si manuální kontrolu. Jen je tu otevřená otázka, co se stane v případě, že to procento bude tak vysoké, že se proces fakticky sesype :-(
Preco ? Lebo je taka politicka objednavka, tam kazda racionalita konci. Bohuzial, na vyssie uvedenom priklade so zivotnymi a aj inymi poistkami sa to uz v praxi realizuje:
https://peniaze.pravda.sk/poistenie/clanok/21988-rovnost-muzov-a-zien-zdrazi-poistky-aut/
vznik "diskriminace menšiny"
Nikde se tomu algoritmu barva pleti nezadávala, proto nešlo o diskriminaci afroameričanů, ale o diskriminaci lidí bydlících v Bronxu. Proč je nefér snižovat něčí šanci získat hypotéku kvůli tomu, že bydlí v ghetu? A pokud skutečně není fér zohlednit místo bydliště při žádosti o hypotéku, neměli bychom ani zvyšovat šanci získat hypotéku Pražákům, a tudíž by ta adresa měla zmizet ze seznamu vstupních dat. (Ve skutečnosti jediný důvod, proč dát adresu do vstupních dat je právě toto.)
Nebo když to řeknu jinak:
To, že afroameričani častěji bydlí v ghetech, a lidé z ghet jsou horší ve splácení hypoték sice znamená, že afroameričan bude mít menší šanci dostat hypotéku, ale postiženi touto "diskriminací" budou pouze afroameričané bydlící v ghetech.
No ale z hlediska ryze ekonomického to je naprosto správně - pokud se černoch posune do "lepší čtvrti", tak je daleko větší pravděpodobnost, že patří k těm úspěšným a není důvod ho znevýhodňovat, zrovna tak ale naopak u bělocha žijícího v problémové čtvrti je také pravděpodobnější, že bude "loser".
Pokud se AI naučí rozhodovat takto, tak má prostě ekonomicky pravdu a banka přidělující úvěry podle ní bude daleko méně riziková a nejspíš i ziskovější...
Celá debata je o tom, že v dnešní době se takto striktní pohled bere za nevhodný a tak výsledky AI nevyhovují a řeší se, jak je "znásilnit"...
Já to v předchozím příspěvku nechtěl úplně hodnotit, snažím se jen popsat stav...
Jestli to je krátkozraké nebo ne záleží na konkrétní úloze, která se řeší a taky kdo to řeší (asi by měla dost jinak chodit AI hypobanky a jinak státu) - někde bych i s krátkozrakostí souhlasil, ale v jiných případech (třeba zrovna u úvěrů) si myslím, že striktnější postup je nejspíš správný i dlouhodobě.
Rozvoj sociálně vyloučených lokalit není problém soukromé firmy.
O to se má starat stát.
Pokud stát chce, abych zvýhodňoval méně schopné uchazeče, nebo problémovější skupinu žadatelů o hypotéky, kterým bych kvůli jejich vzdělání a místu pobytu práci nebo hypotéku nedal, tak ať mi za to zaplatí.
A nezapomínejme na to, že je velice rasistické, když Google nabízí internshipy ve Švýcarsku místo aby si svou pobočku postavil v Kongu a nabízel internshipy tam.
@bez přezdívky
Oni je nejspíš splatí, většina populace, minimálně v ČR bude generovat práci a tím výplaty do konce života - jak to vím? Přestože nedostanou úvěr stejně budou platit nájem celý život, jenom jim pak zbude kulové a projetky na které banka lukrativně půjčí budou generovat zisk z těch nájmů i po několik generací a ve velkém. O mnoho výhodnější.
Banka si totiž vybere jenom ty totálně nejméně rizikové klienty a pouze množství které pokryje potřebu jejich zisku z tohoto odvětví, protože soukr. banka hledá nejlepší poměr, nehledá jak zajistit veřejnou službu pro úvěrování všech kteří se vlezou do kritéria. A tím taky nemusí mít tak vysokou jistinu pro objem financí se kterými operuje, za které ručí (v EU tuším 10%).
Důvod že by to většina nesplatila je tedy mylný.
29. 7. 2019, 16:02 editováno autorem komentáře
S temi vstupnimi parametry, to je prave ten problem, protoze pouziji i to o cem nevite, co jste sam neposkytl. Dobry priklad je take poskytnuti hypoteky. Asi bychom se vsichni divili, kdyby nam banky prozradily, na zaklade ceho posuzuji. Parametry jako znacka/trida mobilu, misto bydliste.
Takze si vlastne myslim, ze ta diskuse ani neni o umele inteligenci, ale o tom jaka data pak pouziji, kde je ziskaji, apod. a jestli je to legalni.
> To co ale nekomu vadi, je ze v pripade AI nedostanou lemplove sanci, kdezto v pripade chybujiciho cloveka ano.
Problém je, že "umělá inteligence", "rozhodl počítač" je příliš lákavá výmluva, než aby se jí nepoužívalo. Kdo se s tím potom bude hádat, že? A tomu počítači je úplně jedno, jaká data dostane: když bude v trénovací množině 8× Jan, který bude 8× hodnocen jako "nevyhovující", jakou šanci bude mít Jan Marenčík?
Pod čarou: je otázkou, jestli je chování počítače skutečně inteligentní, nebo jen nápodobou inteligentního chování. Osobně si myslím, že počítač není opravdu inteligentní a hodně se mi líbí termín Imitace Inteligence, který jsem potkal v Cestě šamana (V. Mahaněnko), což je celkem pěkná fantasy o životě v herním světě, kterému vládnou různé II.
> když bude v trénovací množině 8× Jan, který bude 8× hodnocen jako "nevyhovující", jakou šanci bude mít Jan Marenčík?
Třeba opravdu existuje nějaký zvláštní proces, jehož výsledkem je, že mají lidé se jménem Jan horší výsledky na dané pozici. Pokud se to potvrdí i na rozsáhlých validačních datech, kterou možnost byste si vybral: popřít to a pak se nechat sežrat nadřízenými/akcionáři/státem („péče řádného hospodáře bla bla“), nebo se tím řídit a pak si poslechnout jak diskriminujete?
> Třeba opravdu existuje nějaký zvláštní proces, jehož výsledkem je, že mají lidé se jménem Jan horší výsledky na dané pozici
Ne. "Umělá inteligence" žere data a prdí jiná data. Ale počítač sám nerozhodne, která data jsou pro vyhodnocení účelná a která ne. A tak ta "inteligence" formálně "správně" rozhodne o přijetí (resp. nepřijetí), ale rozhodne tak díky datům, která - posuzovat je člověk - nemají/nemají mít vliv.
> Ale počítač sám nerozhodne, která data jsou pro vyhodnocení účelná a která ne.
Rozhodne (pokud všechno dobře funguje; bylo popsáno mnoho papíru o tom jak to dělat a jak to může selhat, ale bavíme se o hypotetické zrovna-dobře-udělané „AI“), a je to dost zásadní vlastnost mnoha metod strojového učení, protože jinak by ses na komplikovanějších datech beznadějně přeučil.
> ale rozhodne tak díky datům, která nemají vliv
Pokud premisa byla, že Janové jsou nevyhovující, a je to statisticky signifikantní (po provedení korekce na mnoho proměnných a dalších potřebných statistických zpracování), tak to prostě má vliv.
Samozřejmě pokud máte 8 z 8 příkladů u jevu, který se běžně vyskytuje, tak to nic neříká, ale současně správně udělaný (nepřeučený) model by na takovýto náhodný šum neměl brát ohled.
> posuzovat je člověk
Osobně si teda myslím, že lidský personalista to přeučení chytne taky a na rozdíl od umělého modelu se to dá mnohem hůř testovat a řešit. (příklad jednoho takového wtf)
> ale rozhodne tak díky datům, která nemají mít vliv
To je jiná, pokud něco nechcete zahrnout, můžete to na vstup modelu nedávat (což se někdy dá udělat triviálně (třeba u toho jména), jindy je to dost složité, ale IMHO furt to není horší než když to vyhodnocuje člověk)
28. 7. 2019, 22:57 editováno autorem komentáře
Jan Hrach: Umělá inteligence se rozhoduje na základě údajů, které jí poskytneme – neřekne si o další data, protože podle všeobecného poznání by také mohla mít vliv (ta současná AI – skutečná AI by to umět měla). Hlavní problém popsaný v článku je ale v tom, že ta umělá inteligence zpravidla nevyhodnocuje podle našeho skutečného cíle, ale podle toho, jak to vyhodnocovali dříve lidé. Takže nerozhoduje podle toho, kdo bude nejlepší zaměstnanec na dané pozici, ale podle toho, koho by jako nejlepšího asi vybrali personalisté. No a pokud personalisté vybírají podle pohlaví, bude to dělat i umělá inteligence.
Nedávat něco do modelu nestačí – jak je psáno v článku, pohlaví odhadne umělá inteligence třeba podle jména nebo podle školy, rasu odhadne podle bydliště.
Pak je samozřejmě ještě druhá úroveň toho rozhodování. Všichni víme, že křestní jméno zvolené rodiči nemůže mít přímo vliv na zaměstnání. Ale je klidně možné, že může způsobovat nějaké předsudky, které se projeví např. ve škole, dotyčný bude mít horší vzdělání – a to bude mít vliv na zaměstnání. Dovedu si představit, že něco takového mohlo po 2. světové válce fungovat se jménem Adolf. V jiných případech to tak funguje a má to významný vliv – pohlaví, rasa, etnická příslušnost… Z hlediska jedné firmy, krátkodobého pohledu a co nejrychlejšího rozhodování pak samozřejmě dává smysl přijmout člověka, který má vystudovanou školu konkrétního typu. Jenže většina absolventů takového oboru budou třeba muži – takže i ta firma bude přijímat víc mužů. Tím se ale jenom potvrzuje ten stereotyp, a spousta žen, které by jinak byly lepší než muži na té škole, se pro tu školu nerozhodnou. Takže jako společnost na tom tratíme, protože na té škole bude studovat nezanedbatelné množství lidí, kteří jsou pro daný obor horší, ale budou tam proto, že jsou muži. (V některých oborech je to i opačně, ale tenhle případ je častější.) Stereotypy často mají pozitivní zpětnou vazbu, a pak pro narovnání prostředí nestačí jenom srovnat podmínky, ale je potřeba aktivně proti těm stereotypům působit.
Tohle je ale podle mého názoru mylný pohled. Pokud dojde skutečně na systémy, kde lze mluvit o učícím se AI, tak se postupem času mohou od prvotního stavu dost odchýlit - učit se. Podobně jako personalisté bude možná vybírat na začátku, ale postupem času se může posunout hodně jinam (a také se to děje).
Pokud by se software jen tupě držel vzoru, tak to není AI - její podstata je právě v té možnosti učení a postupné změny...
To mimochodem nemusí vůbec znamenat diskriminaci, v extrémním (leč zcela možném) případě, kdy by šéf HR byl vyložený rasista a takto ovlivňoval své podřízené se velmi reálně může stát, že AI naopak začne procento přijímaných "barevných" zvyšovat, proto nenajde reálné negativní korelace a tak se od svého vzoru odchýlí.
Problém je ale v tom, že realita je obvykle spíš opačná a při nemilosrdném vyhodnocení kritérií bude naopak AI "rasističtější" než lidé a z toho jsou idealisté totálně v depresi...
@Tomas Hruby
"Problém je ale v tom, že realita je obvykle spíš opačná a při nemilosrdném vyhodnocení kritérií bude naopak AI "rasističtější" než lidé a z toho jsou idealisté totálně v depresi..."
Pořád se to točí všechno kolem Vašeho výše citovaného textu a teď prostě přišlo i na AI protože čistě neosobně ukázala to co se pořád pod nějakými výmluvami a pseudodůvody přehlíží. Viz. např. text Filipa Jirsáka výše.To je život, ono se ty lži stejně zase někde projeví ... a tzv. AI nám prostě jenom nastavila zrdcadlo ...
"Na druhou stranu je pekne nekomu sanci dat a dat si praci s jeho rozvojem. V pripade AI k tomu nedojde."
Kolik bezdomovců propuštěných z vězení zaměstnáváš ve své firmě na vývoj webových stránek? To je pouze moralizující kec, a nějaký abstraktní ideál, kterým se nikdo neřídí. Rozvojem zaměstnanců se zaměstnavatel zabývá pouze pokud si spočítá, že se mu to vyplatí.
29. 7. 2019, 00:39 editováno autorem komentáře