Hlavní navigace

Názor k článku Chceme nediskriminující umělou inteligenci, ale sami to neumíme od thr - Co vím, tak asi první malér s "diskriminujícím...

  • 27. 7. 2019 7:26

    thr

    Co vím, tak asi první malér s "diskriminujícím AI" nebyl zde zmíněný Amazon, ale právě nějaké hodnocení úvěrů a tam se právě stalo přesně to, na co se naráží. Totiž vznik "diskriminace menšiny" na základě nepřímých dat, barva pleti atd v kritériích nebyla, tomu se v dnešní době vyhýbá každý sám od sebe. Jenže se ukázalo, že "chytrá učící se AI" na podobné věci přijde celkem spolehlivě sama...

    No a tady jsme v bodě, který podle mne nemá řešení... Omezovat vstupní data ještě více už moc nejde, tím se likviduje celý přínos této technologie. Nařizovat doplňková kritéria je problém u "opravdové AI", kde vlastně nevíme, podle čeho přesně rozhoduje a algoritmus se vyvíjí - snaha o vylepšení může vést k dalšímu učení a obcházení.
    Přišlo by mi asi tak nejsmysluplnější nechat jet AI naplno a její výstupy pak pustit do "jednodušší AI (či dokonce prostého programu), který udělá kontrolu na "politicky citlivé klienty se špatným skóre" a pokud procento poleze nahoru, tak proces stopne a vyžádá si manuální kontrolu. Jen je tu otevřená otázka, co se stane v případě, že to procento bude tak vysoké, že se proces fakticky sesype :-(