Pojem umělá inteligence je zatížen obrovským množstvím nejasností, mj. už určitou vágností samotných pojmů. Co prohlásíme za „umělé“ (člověk s čipem v hlavě, možnosti klonování a genetických modifikací…) a co za „inteligentní“?
Turing se konstrukcí svého testu snažil otázku „mohou stroje myslet“ převést z oblasti filozofických a lingvistických spekulací na exaktnější úroveň. Jinak řečeno, za myslící podle něj prohlásíme počítač tehdy, když jeho chování nebudeme schopni rozeznat od chování člověka.
Motivací pro vývoj umělé inteligence existovala už v polovině 20. století celá řada. Jedná se jistě o obrovskou teoretickou výzvu. Zkoumání inteligence umělé nám zřejmě dokáže mnoho říct o inteligenci vlastní. Dalším důvodem je prostá radost z konstrukce stále dokonalejších mechanismů, která historicky sahá minimálně ke Golemovi. A nikoliv v poslední řadě zde jsou motivy ryze praktické: Řadu úkolů musí plnit inteligentní bytosti, nicméně lidem se do nich příliš nechce (jsou např. stereotypní, nebo naopak nebezpečné). Zde bychom velmi rádi viděli myslící stroje, byť jsou možné i jiné cesty – např. roboti řízení na dálku prostřednictvím „lidského“ rozhraní, cyberwaru.
Imitační hra
Ve své původní podobě vychází Turingův test z tzv. imitační hry, ve které jde o to odlišit dva lidi podle pohlaví. Pozorovatel, na jehož pohlaví nezáleží, má proti sobě např. ženu a muže, který předstírá, že je žena. Trojice lidí spolu nepřijde samozřejmě do fyzického kontaktu, sedí v oddělených místnostech a zprostředkovatel mezi nimi přenáší popsané lístky. Turing pak problém posunul: Co kdyby namísto simulace opačného pohlaví byl imitátorem člověka počítač? Dokáže počítač simulovat chování ženy stejně dobře jako muž?
Jaký je stav problému padesát let poté, co jej britský matematik poprvé zformuloval? Existuje celá řada více či méně dokonalých imitací určitých lidských činností. Známá Eliza (mimochodem, tento program se objevil již v roce 1966) představuje program napodobující chování psychoterapeuta. Tzv. Parry je jejím „protějškem“, tedy počítačovou simulací pacienta postiženého paranoiou. Praktický význam mají tzv. expertní systémy, tedy software snažící se zastoupit např. odborníka na burzovní prognózy či lékaře stanovujícího diagnózu.
Test jako celek se však dosud žádnému programu splnit nepodařilo. Jaké jsou další vyhlídky? Známý vizionář a spisovatel Ray Kurzweil nedávno uzavřel sázku, že ke splnění podmínek Turingova testu dojde do roku 2029. Pochybující protistranou je Mitchell Kapor z Electronic Frontier Foundation. Magazín Wired ovšem sázku zařadil do jedné řady s dalšími bláznivými nápady, které přicházejí na lidi ze světa IT. Wired v této souvislosti zmiňuje Craiga Mundieho z Microsoftu, který se domnívá, že ve stejné době už bude existovat komerční provoz bezpilotních letadel. Jeden z průkopníků superpočítačů Danny Hillis se zase vsadil, že se vesmír nebude rozpínat věčně; protistranou je v tomto případě Nathan Myhrvold (dříve Microsoft, nyní analytik pro oblast biotechnologií). Současné poznatky o temné hmotě a kosmologické konstantě dávají ovšem za pravdu Myhrvoldovi. Sázky tohoto druhu „spravuje“ nezisková organizace Long Bets Foundation.
Námitky a polemiky
Už sám Turing v původním článku uvedl několik možných námitek proti celé koncepci. Později byla řada výhrad zřejmě vyvrácena, jiné přibyly. Polemiky samozřejmě trvají.
Galantně začneme námitkou, kterou vypracovala žena, nadto se jedná o úvahu historicky nejstarší, předcházející samotný Turingův test o více než 100 let. Ada Lovelaceová, dcera lorda Byrona a spolupracovnice konstruktéra mechanických parních počítačů Charlese Babaggea, přišla již v 1. polovině 19. století s tvrzením, že počítač nemyslí, protože myšlení je nějak spojeno s původností. Z počítače však dostaneme pouze modifikaci toho, co do něj vložíme (výsledek rovnice apod.).
Za současného stavu vývoje IT není tato námitka příliš relevantní. Předně nevíme, jak vlastně definovat onu „původnost“ – např. báseň je taktéž variací již existujících slov, tedy de facto je určitou kombinatorickou operací. Programy dnes již každopádně dokáží psát povídky nerozpoznatelné od těch lidských nebo odhalit taková tajemství šachové hry, která zůstávala jejich tvůrcům zcela skrytá. Program tedy svým chováním dokáže své tvůrce překvapit (nejen ve smyslu chyby), což je snad možné chápat jako ekvivalent původnosti. Přitom pomíjíme psychologické a sociologické úvahy o tom, že řada lidí rovněž není nějak „původní“, aniž bychom na tomto základě mohli tvrdit, že vůbec nemyslí nebo nejsou inteligentními bytostmi.
Rozsáhlá literatura existuje o tzv. paradoxu čínského pokoje, s nímž přišel filozof John Searl. Searlova námitka uvádí, že splnění Turingova testu ještě nemusí znamenat nějaké myšlení a uvědomování. V původní formulaci Searl ukazuje, že člověk může být např. schopný smysluplně třídit tabulky s čínskými znaky, aniž rozumí čínsky a chápe, co text na tabulkách znamená. Podobně počítač, i když projde Turingovým testem, bude stále pouze něco imitovat a sám nebude např. nic „chápat“.
Turing ovšem již ve svém původním článku poznamenává, že k tomu, abychom mohli hodnotit, co počítač prožívá, bychom jím také museli sami být. Světoznámý fyzik Stephen Hawking přímo dodává, že má smysl posuzovat pouze jevy viditelné navenek – tedy inteligenci a myšlení – nikoliv kvality, které lze uvidět pouze zevnitř (vědomí, prožívání apod.). Podle Hawkinga prostě nevíme, zda počítač má „vědomí“, stejně jako nevíme, zda ho budou mít představitelé nějaké hypotetické mimozemské civilizace. Dokonce to jistě nevíme ani v případě druhých lidí (jistotu máme pouze u sebe).
Existuje velice zajímavý myšlenkový experiment tzv. Chalmersových zombií. Zkuste si představit, že všichni lidé kolem vás jsou pouze předprogramovanými automaty, bezvědomými zombiemi. Nikdy si nemůžeme být jisti opakem, na vědomí druhých lidí usuzujeme pouze podle jejich chování – a totéž je tedy logické činit i v případě počítačů. Z tohoto hlediska jsou Searlovy výhrady (snad) překonané.
Zajímavé námitky proti umělé inteligenci se týkají zdánlivě tak „strojového“ oboru, jakým je matematika. V původních Turingových poznámkách se uvádí, že počítač by mohl být v testu odhalen právě tím, že nedělá chyby, eventuálně počítá rychleji než člověk (tedy by paradoxně byl nápadný tím, že je dokonalejší; program by se zřejmě dal nějak modifikovat, aby se občas spletl, poskytoval výsledky se zpožděním apod.).
Hawkingův spolupracovník Roger Penrose přišel s další matematickou námitkou, která má dokázat, že lidské myšlení má v sobě kromě algoritmů ještě něco jiného – počítače podle něj nejsou schopny matematického důkazu, např. odhalit, že prvočísel je nekonečně mnoho. Penrose se domnívá, že nejde jen o otázku softwaru a výpočetní kapacity, některé matematické úlohy jsou neřešitelné i pro obecný Turingův stroj.
Nastíněný problém je velmi široký a souvisí mj. s protikladem myšlení induktivního a deduktivního, taktéž se dotýká např. Goedelových teorémů o neúplnosti matematických systémů. Penrose sám přichází s hypotézou, že lidské myšlení nedospěje k matematickému důkazu krok za krokem, ale jakousi zkratkou, kterou on sám vysvětluje naší schopností přijít do kontaktu s „platónským“ světem matematických objektů.
Premiéru si programy v matematických důkazech odbyly již v roce 1976, když se podílely na potvrzení důkazu „čtyř barev“ (viz obrázek). V rámci dokazování bylo třeba klasifikovat určitý počet map. Úkol přesahoval lidské možnosti, počítače jej však již tehdy zvládly – nikoliv ovšem samy od sebe, postupovaly podle instrukcí zadaných z vnějšku. Důkaz ale přesto provázejí určité „filozofické“ pochybnosti, jeden z matematiků výsledek dokonce komentoval slovy: „Takže to ukazuje, že to prostě nebyl dobrý problém.“ Chtěl tím naznačit, že regulérní matematický důkaz by se neměl dělat výčtem prvků – a řada důkazů takto udělat opravdu nejde. Nicméně i proti Penrosově argumentaci samozřejmě existují protinámitky, někdy bývá dokonce pokládána za již překonanou (tento názor zastává např. Paul Thagard v knize Úvod do kognitivní vědy).
Co se týče praktických problémů spojených s konstrukcí myslících počítačů, už Turing přišel s myšlenkou programů schopných se samy učit. Možná je obtížné zkonstruovat rovnou „dospělého člověka“, uvažoval Turing ve svém článku, zkusme to tedy nejprve s „dítětem“. Po Turingovi tyto myšlenky ožily díky experimentům, které se snažily např. modelovat biologickou evoluci. Buněčné automaty ukázaly, že i velmi komplexní systémy mohou vzniknout aplikací několika jednoduchých pravidel, složitost se vynořuje „sama od sebe“.
Pokud pro tvorbu systémů umělé inteligence použijeme techniky typu genetického programování, je ovšem docela dobře možné, že před námi vyvstane nová černá skříňka. Nakonec budeme mít inteligentně se chovající systém, aniž se toho ovšem mnoho dozvíme o inteligenci nás samých. Jestliže je však naším cílem především praktické nasazení expertního systému, který by dokázal simulovat práci odborníků, pak nám fenomén černé skříňky zase příliš nevadí.
Úvahu na téma Paradoxy umělé inteligence dokončíme příště.
Zkrácená verze vyšla v Computerworldu číslo 11/2003.