Takový typický příklad, kde floating point aritmetika selhává, resp. kde se rozchází s myšlením programátora.
Kolik desetníků musíme položit na stůl, abychom získali jednu korunu? Odpověď nám dá (???) následující program:
#include <stdlib.h>
#include <stdio.h>
int main(void)
{
double x=0.0;
int desetniku=0;
while (x<1.0) {
x+=0.1;
desetniku++;
printf("%d %f\n", desetniku, x);
} return 0;
Ještě jedna poznámka: pro dvoukorunu (jako výslednou sumu) to funguje, stejně jako tak pro dvacetníky... a teď tuto jasnou chybu v návrhu hledejte v stotisíciřádkovém programu (on totiž v tuto chvíli printf() trošku podvádí).