Ti dvaja pani, co ich myslite, su zrejme Minsky a Papert a ich praca o PERCEPTRONE z 1969. Nebol to omyl, dokonca ani brutalny, perceptron (jednovrstvova neuronova siet) sa naozaj nevie naucit XOR. Oni si sice mysleli, ze viacvrstvove neuronove siete s viac neuronmi tiez moc nepomozu, ale toto nedokazali - bola to len hypoteza
(http://homepage.cs.latrobe.edu.au/image/perceptron.html)
ad 'pozadu':
nemyslim, ze je pozadu. skor nie je mediami tak popularizovane. pri rozponavani obrazov (especialne OCR) su NS zakladom, pri inych typoch uloh sa mozu kombinovat s inymi pristupmi...
ad XOR problem:
Minsky a Papert v r.1969(!) poukazali na problemy perceptronov pri klasifikacii linearne neseparovatelneho nadpriestoru hodnot. v 1986(!) pani Rumelhart, Hinton a Williams zverejnili alg. error backpropagation - ktory umoznoval ucit NS so skrytymi vrstvami a tym odstranil XOR problem. ale mame r.2003 a tieto problemy su uz davnou historiou...
a kto ma zaujem o dalsie a sirsie informacie ma predsa na konci clanku link na skutocne kvalitny zdroj.
Ufffff ........ dnes se pise rok 2_0_0_3 ;-) Promin ale trochu mi to pripada jako kdyby nekdo dneska prisel na kosmologickou konferenci a prohlasil "vsichni jste uplne mimo, kazdy prece vi ze zeme je placata!"
Ti dva panove dokazali ze _jednovrstve_ NS jsou "nanic", zaroven prohlasili ze vicevrstve tento problem nemaji ale ze nikdo nevi jakym zpusobem je ucit. A tito dva panove take zapricinili zastaveni vyzkumu NS na x let.
Aj ked je pravda MLP je najcastejsie pouzivana neuronova siet a ma svoje vyhody a nevyhody...
4-3-3-2 sa uci spravidla lepsie ako 4-4-2-2 alebo
4-2-4-2 , ale na root-e b som cakal skor nejake klasifikacne siete so zovseobecnovanim a tam je nepisanym kralom RBF siet. Podla mna totiz ludsky mozog je RBF siet..