Pokud používáte WordPress a nemáte jeho nejčerstvější verzi 5.0.3, nastal právě čas na aktualizaci. Společnost RIPS Technologies objevila…
Po doménách .app a .page uvolňuje Google pro veřejné použití také svou další top-level doménu .dev. Sám už na ní provozuje některé weby jako…
Společnost Western Digital zveřejnila návrh svého procesoru SweRV používajícího architekturu RISC-V pod open-source licencí. RTL model najdete…
Internet Info Root.cz (www.root.cz)
Informace nejen ze světa Linuxu. ISSN 1212-8309
Copyright © 1998 – 2019 Internet Info, s.r.o. Všechna práva vyhrazena.
27. 12. 2012 15:56
A. Představte si obrovskou neuronovou síť. Nastavení vah na jednotlivých synapsích je víceméně "paměť". A když je ta síť hodně velká a proběhne strašně moc iterací, tak si neuronová síť výsledky z trénovací množiny prostě "zapamatuje". No jo, jenže pak přijde nový vstup (z testovací množiny) a ty miliony drobných pravidel na něj nezafungují, protože je o trochu jiný.
B. Oproti tomu jiná, menší a míň trénovaná neuronová síť se naučí jen pár pravidel (takové, které fungovaly na velké množství vstupů z trénovací množiny). Když se pak potká s novým vstupem, tak je daleko větší pravděpodobnost, že tyhlety obecnější pravidla zafungují.
Ještě formulováno jinak:
A. si "našprtá" všechna data, ale u nového vstupu je bezradný, protože neví, která jsou důležitá.
B. si odvodí jen pár obecnějších zásad a ty pak aplikuje i u nového vstupu.
(PS: U testovacích obrázků síti už nic neříkáte, tedy se ani nic nezpřesňuje.)