dejme tomu stupne sede vyjadrene 8 bity mohou nabyvat hodnot od 0 do 255, takze
na ose Z mame 256 stupnu barevnosti, obrazek ma dale dve osy X, Y, ktere odpovidaji
sirce a delce obrazku v pixelech. takze barva Z je funkci polohy X,Y.
kdyz to zjednodusime a budeme brat jednorozmerny obrazek, tedy je osu X jedna
se tedy o funkci barvy Z na poloze X.
pokud bude pulka obrazku bila a druha pulka cerna, tak funkce vypada jako vlna
s malou frekvenci, meni se malo.
zato kdyz mam bily pixel, cerny pixel, bily pixel, cerny pixel.... tak to vypada
jako sinusoida s velkou frekvenci.
a tato funkce se zpracuje kosinovou transformaci a ziskaji se frekvence
obsazene ve funkci. a kdyz uriznes vysoke frekvence, tak jsi tim padem
usetril nejake informace a mene dat znamena ztratovou kompresi. a kdyz
tohle prevedes reverzni transformaci zas na funkci barvy a polohy, tak jsi
holt nejake vysoke frekvence ztratil, podle toho jak moc jsi komprimoval,
ale jinak je obrazek celkem pouzitelny.
Pokud by se pouze vyjadřovala změna barvy sousedních pixelů, tak by sice komprimace fungovala, ale pouze pro uměle vytvářené obrázky (styl "cartoon", pérovky apod.). Fotografie však vždy obsahují šum popř. útvary, které za šum můžeme považovat (oblečení, kůže, tráva) a zde se tato jednoduchá transformace už nedá efektivně použít.
Proto je právě použita DCT, popř. u JPEG 2000 vlnková transformace - když nemůžeme najít podobné oblasti v původním obrázku, zkusíme to ve frekvenční oblasti (u vlnek je to podobné). Popř. můžeme vyšší frekvence odstranit nebo snížit počet bitů, na kterých jsou uloženy, protože stejně nesou pouze malou část energie.
To stejné mimochodem dělá i analogová a digitální televize. Analogová televize už z principu (malá šířka pásma, proto nemá cenu uvádět horizontální rozlišení), digitální televize díky použitým transformacím.