Podle článků a odkazovaných informací mi přijde, že se jedná o staré známé samplování. To je dlouho známá technika a tenhle projekt vypadá, že se ji skupinka studentů a profesorů pokouší oprášit a buď nějak vylepšit, nebo dokázat, že její chyby nejsou pro některé aplikace překážkou.
O co jde? Svého času se to ukazovalo na příkladu záznamu zvuku. U samplu máte nějakou frekvenci vzorkování (například 11kHz) a máte tak vzorky získané v přesně stanovené periodě. Ty pak proložíte a máte zhruba obraz zvuku. Když to přehrajete, v nějaké kvalitě dané touto frekvencí získáte obraz původního zvuku. Teorie náhodných vzorků pak vychází z toho, že ty vzorky neděláte v přesně dané periodě, ale náhodně (například gaus s odpovídající střední hodnotou). Tento výsledek když proložíte, tak dostanete obecně lepší výsledek, než s přesným vzorkováním. V době, kdy jsem to studoval (1993) to pro mně byla příliš vysoká matematika (vlastně statistika) a tak jsem tomu mohl jen věřit. Od tohoto principu je jen krůček k opačné aplikaci - když se stejným počtem vzorků mám lepší kvalitu, pak stejnou kvalitu bych měl být schopen dosáhnout s nižším počtem vzorků. A to je ta věc - komprese.
Podle toho, co píšou na stránkách tohoto projektu se stejný princip pokouší použít na grafiku. Zaznamenají náhodně několik pixelů a dokáží podle toho získat kvalitní obrázek. Aby u každého pixelu nemuseli zapisovat kde je (souřadnice, náhodně zvolené), mají jakousi matici, které je vygenerována náhodně, zapíše se a uloží a pak se používá (není to z textu zřejmé, ale asi to realizují sadou "zrcátek" nebo tak nějak). Výsledkem je omezená množina pixelů, ze které "restaurují" původní obrázek.
Oproti metodě pevného rastru netrpí tato metoda systematickými chybami a při měření reálných veličin (spojité signály apod.), na které funguje Fourierova transformace, dosahuje lepších výsledků. Důkaz je v teorii statistiky, která zavání spíše černou magií. Zjednodušeně řečeno se spočítá rozložení chyb (tvar, střední hodnota, rozptyl) transformace z pravidelně samplovaných dat a porovná se s rozložením chyb z náhodně generovaných dat - a vyjde, že na obdobnou chybu jakou má pravidelné rozložení stačí mnohem menší množství dat náhodných. Reálnou výhodou je, že můžete skládat více obrazů na sebe a tím výsledek zlepšovat. Každý pixel výsledek o něco zpřesní.
Nevyhody: sum se zesiluje pri zpetnem vypocitavani obrazu z tech namerenych dat. Senzor je sice levny, ale pole mikrozrcatek je drahe. Kdyz se predmet pohybuje, obraz se uplne rozsype. Vyzaduje narocne vypocty na DSP (CCD nevyzaduje nic - obraz se jen precte a je hotovy). Ztraci se na svetelnosti pomerem kolik pixelu je najednou rozsvicenejch pri tom mereni, takze se zbytecne a nevratne zvysuje sum pri foceni ve tme.
Chape nekdo jake to ma vyhody? Me se na zadne prijit neprislo.
Jestli jsem to pochopil spravne, tak nebude potreba dalsi optika, cili se muze podstatne snizit tloustka kamer na mobilnich zarizenich a nevim jestli se tim nebude rovnou realizovat ztratova komprese....
Podle článku má jít o ztrátovou kompresi rovnou při snímání. Tedy vyhnout se "ztrátovému" sejmutí obrazu a následné ztrátové kompresi. A tedy využití ve fotoaparátech mně docela rozesmává. Jednoduchá optika a ukrutně citlivé zrcátko :-)