Povidas nesmysly. Pokud si ulozis nahravku na disk a za rok ji prehrajes, mas sice rocni latenci, ale na kvalite zvuku se nic nezmeni.
To co rikas je stav, kdy system nestiha krmit DAC a zacnou nastavat podteceni bufferu (buffer underrun), coz je vesmes dusledek snahy o co nejnizsi latenci. A kvuli tomu se pousti realtimova jadra atd...
Latence se řeší např při záznamu, když muzikanti hrají do playbacku a počítačem zpracovávaný signál navíc v odposlechu/sluchátkách slyší opožděně - je to nula nula nic, ale je to dost znat.
Dva identické signály, mezi sebou opožděné, vám vytvoří hřebenový filtr - vykuchá vám to některé frekvence.
O efektových jednotkách se ani nebavím.
Latence je samozřejmě pro zpracování zvuku klíčová, proto ji na té wiki řeší a věnuje se tomu spoustu lidí. Ale nemění jeho kvalitu (tj. obsah vzorků ani vzájemné časování, tedy výsledný zvuk).
Zmíněné mixování dvou streamů s různou latencí samozřejmě spadá mezi zpracování.
Jde o to, že spoustu "audiofilů" o principu přehrávání zvuku na PC nemají žádný šajn a myslí si, že např. CPU časuje vzorky do převodníku. Ti pak pořizují co nejsilnější CPU, ořezávají procesy (hlavně ve win, kde to stejně téměř neovlivní), mají dedikované CPU jen na přehrávač, věří, že jimi zakoupený software opravdu celý a pořád běží v keši CPU (viz obchodně velice úspěšní podvodníci v JPlay) apod.
a na optický SPDIF z karty do převodníku / receiveru pořádný stíněný kabel s opletem a s kvalitní koncovkou, např. od bandridge s pozlacenim vrstvou 24k zlata, optický přenos je totiž daleko náročnější na nízký přechodový odpor kontaktu a elektromag, odrušení od okolí....je to fizika, světlo má daleko menší vlnovou délku, proto je jemnější a náchylnější k rušení od okolí....