Hlavní navigace

Potřebujeme pravidla pro vývoj umělé inteligence?

Michal Černý

Evropská komise začátkem dubna představila návrh pravidel pro vývoj umělé inteligence, kterými v podstatě otevírá téma společenské regulace tohoto fenoménu. Nejde přitom o první pokus téma regulace otevřít.

Doba čtení: 6 minut

Sdílet

Skutečnost, že technologie mohou být pro člověka nebezpečné, je dobře známá a současně působí téměř banálně. S douškem, že vývoj nelze zastavit by se mohlo na první pohled zdát, že věda a výzkum se žádnými regulativy příliš spoutávat nenechají. Pokud bychom se ale podívali podrobněji, tak například zbrojní průmysl nebo oblasti bioetiky podléhají poměrně silným regulacím, které jasně stanovují, co se v nich zkoumat smí a co nikoliv.

Oblast umělé inteligence má to štěstí (nebo tu smůlu), že je natolik mediálně oblíbené, že se dostává do centra zájmů politiků často v ne zcela očekávaných souvislostech. Její významnou devizou je také skutečnost, že její dopady (byť většinou ne zcela reálné) si dovede většina lidí představit na základě sci-fi filmů či literatury. Není proto překvapivé, když se ve společnosti objevují hlasy, které říkají, že bychom umělou inteligenci, respektive její vývoj měli určitým způsobem regulovat.

Pro samotnou Evropskou komisi je vývoj umělé inteligence a její implementace do nejrůznějších oblastí lidského života velké téma a za tímto účelem zřídila několik pracovních skupin, které se mu věnují, ale také na samotný rozvoj a výzkum investuje nemalé prostředky. Vzhledem k tomu, že je nyní po volbách, lze obtížně predikovat další vývoj ve vztahu ke komisi nebo rozpočtu, ale lze očekávat, že žádné dramatické změny v této oblasti očekávat nelze.

Proč říci ne regulaci

Důvody proč regulaci vývoje AI odmítnout jsou poměrně jasné. Především většina zdrojů na její vývoj jde ze soukromých zdrojů, jde o jednu z oblastí výzkumu, ve které se daří privátním prostředkům a bylo by zřejmě nevhodné do toho prostředí nějak regulativně vstupovat. Jakým způsobem by bylo možné omezovat vývoj AI v privátní oblasti v současné době není možné jednoduše nahlédnout, ale zřejmě by to bylo možné jen s největšími obtížemi.

Druhý důvod je spojený s konkurenceschopností – nelze očekávat, že by například Rusko nebo dokonce Čína k nějaké regulaci přistoupily a EU, pokud by byla jediným subjektem, který provádí regulaci vývoje by byla ekonomicky, a především technologicky hendikepovaná. Z hlediska rozvoje konkurenceschopnosti něco takového nedává touto optikou valný smysl.

V neposlední řadě pak lze říci, že pokud má vývoj systémů alespoň částečně otevřený a modulární charakter, je velice těžké o nějaké regulaci systematicky uvažovat, neboť není zřejmé, koho by ve vztahu k vývoji zasáhla. Každou jednotlivou komponentu, modul či knihovnu je možné využít různě.

Hlasy pro

Existují ale také opačné hlasy. Například Amy Webb, profesorka New York University a zakladatelka Future Today Institute tvrdí, že AI znamená výrazné posílení pozic korporací, které mají přístup k velkému množství dat a tím mají také velkou moc. V tomto ohledu jsou pak lákavé pro autoritářské režimy nebo obecně pro vlády, protože v nich vidí nástroj globální strategické výhody. Nejsilnější zbraní USA nebudou zřejmě atomové zbraně, ale Google, Amazon, Microsoft, Apple či Facebook. Jejich možnosti z hlediska manipulace s uživateli, sdílení dat s vládami nebo naopak vypojení komunikační a informační infrastruktury jsou značné.

Webb navrhuje, aby došlo k regulaci sociálních sítí a především k otevření diskuse o tom, co se děje s uživatelskými daty. Zajímavým krokem je pak názor, že by společnosti měli akcentovat udržitelný rozvoj před krátkodobými cíli, což ostatně v Evropě zdůrazňuje také José van Dijck. Skutečnost, že by firmy masově upřednostnili veřejné blaho (navíc obtížně definované) před ziskem, který od nich očekávají akcionáři se zdá být velice nepravděpodobná. Současně je ale třeba říci, že velká část klíčových hráčů zdůrazňuje, že třeba oblast sociálních sítí nebo obecně ochrany osobních dat by měla být regulována.

Evropská komise se nyní rozhodla, že otevře širší diskusi ohledně omezení vývoje AI, kterou by ale chtěla diskutovat také s USA, Kanadou či Singapurem, v budoucnosti pak na platformě G7 či G20. Současně je ale jasné, že cesta k regulaci nebude snadná. Pokud by se na ní ale shodly USA a EU, mohla by mít šanci například tím, že by jejich technologie mohly využívat jen státy či korporace, které budou etická pravidla dodržovat také.

Unijní pravidla

Evropská komise podpořila vznik sedmi pravidel, která se snaží rámovat jisté etické zásady vývoje systémů s umělou inteligencí (celý dokument má asi 40 stran a je to zajímavé čtení). V zásadě nejde o nic překvapivého, protože tyto zásady dobře odpovídají základním myšlenkovým vzorcům v oblasti celé konstituce informační společnosti:

  • Možnost řízení a dohledu ze strany člověka
  • Robustnost a bezpečnost
  • Ochrana soukromí a dat
  • Transparentnost
  • Rozmanitost, zákaz diskriminace a rovné zacházení
  • Společenský a environmentální prospěch
  • Odpovědnost

Jistě není bez zajímavosti, že zatímco některé principy jsou spojené s primárně programátorskými zásadami, když vyžadují, aby systémy s AI byly vytvářené transparentním, robustním a bezpečným způsobem, který nabídne možnost systematického testování a analyzování, tak další jsou zcela obecně etické či společenské a poslední bod je legislativní.

V současné etice se vedou velké spory o to, zda je technika hodnotově neutrální (například kladivo není ani dobré ani špatné, hodnotu můžeme přisuzovat lidskému činu, podle toho, zda někomu rozbijeme hlavu nebo zatlučeme hřebík) a je třeba říci, že většinový diskurs se začíná klonit k tomu, že i technika má svou etickou strukturu, kterou není možné odvodit od jediného zodpovědného programátora. Otázka, kdo bude zodpovědný za chyby či problémy (anebo naopak beneficia) spojených s AI je tedy legislativně i eticky nesmírně zajímavá.

První bod seznamu pak jasně odkazuje ke skutečnosti, že má být člověk nadřazený AI a měl by mít možnost ji sledovat a hlídat. Otázkou je, co si pod tímto bodem představit, pokud budou systémy spojené s AI dostatečně rozsáhlé, je možné spíše uvažovat o jiných technických formách dohledu. Každopádně primát člověka je zde jasně přítomen.

Osobně za nejzajímavější považuji požadavek na nediskriminaci, rovné zacházení a společenský či enviromentální prospěch. Jakkoli jde o kategorie, které možná na první pohled působí hodně obecně, je možné v nich vidět zásadní etické mantinely. Je třeba otázkou, zda bude možné vytvářet systémy na tvorbu kontextuální reklamy nebo třeba socialboty.

Skutečnost, že AI je masivně nasazováno například do oblasti HR je ale neoddiskutovatelný fakt a je třeba hledat cesty, které budou směřovat k tomu, že například principem „objektivního hodnocení“ nebudou vytvářena taková pravidla, která by nějakou skupinu osob systematicky znevýhodňovala. Nedávná kauza spojená s Amazonem například ukazuje, že ženy by mohly být cílem takové AI diskriminace poměrně snadno.

Jak žít s technologií

K otevřené problematice hodnot se dostaneme podrobněji příště, ale rádi bychom zde zmínili ještě jednu motivaci. Celý zájem o AI je totiž spojený s otázkou, co budeme dělat, pokud – nebo lépe až – bude AI lepší než my v netriviálním množství činností. Hledání etických pravidel jejího vývoje je tak motivován tím, že se snažíme hledat pravidla, která by vedla ke kolaborativnímu „soužití“ člověka ve světě techniky. Otázkou je, zda se nám to může reálně podařit nebo zda je podobná snaha odsouzená k neúspěchu, který bude dán námitkami, které jsme v úvodu článku nastínili.

Každopádně se zdá, že AI bude první technickou doménou v oblasti informatiky, kterou se někdo pokusí systematicky regulovat více, než jen v oblasti zpracování dat (tedy GDPR a podobná nařízení) nebo v oblasti zneužívání monopolního postavení na trhu. Nesporně zajímavé je i ono zaměření se na vývojáře a vývoj, nikoli na produkt. Co konkrétního to přinese, uvidíme v nejbližších měsících.