Hlavní navigace

Názor k článku Chceme nediskriminující umělou inteligenci, ale sami to neumíme od anonym - "Protože data, ze kterých k učení docházelo, byla...

  • 29. 7. 2019 0:00

    bez přezdívky

    "Protože data, ze kterých k učení docházelo, byla taková, že mapovala často technické pozice, na které se častěji hlásili muži, došlo k tomu, že systém právě gender označil za jeden z výběrových parametrů a uchazeče, z nichž vybíral CV pro přijetí (nebo pro další kola výběrového řízení) hodnotil tak, že ženám dával záporné body. Rozlišení genderu přitom mohlo probíhat pomocí analýzy školy uchazeče, nebo pomocí ženského tvaru v některých činnostech."

    Ten příklad z Amazonu se tu popisuje špatně. Nechápu, že si toho nikdo nevšiml.
    Aby se statistický systém naučil tohle, musela pravděpodobnost přijetí životopisu korelovat s pohlavím žadatele! Pokud pro muže bude šance na přijetí 40% a pro ženu bude šance na přijetí také 40%, tak se algoritmus nemá důvod učit, že muži jsou perspektivnější než ženy. Ten algoritmus pouze okopíroval způsob rozhodování HR, kteří sami o sobě měli tendence méně nabírat ženy.