Usando questa calcolatrice , posso vedere come il decimale ".8" e l'espressione ".7 + .1" ha rappresentazioni diverse:
.8 = 1.1001100110011001100110011001100110011001100110011010 *2-1
.7 + .1 = 1.1001100110011001100110011001100110011001100110011001 *2-1
^^
Ma quale meccanismo fa sì che "0.8" venga stampato per il valore massimo? Per esempio. alert(.8)
in JavaScript. Perché non stampa qualcosa come "0.800000011920929"?
Questa è una caratteristica di IEEE 754 o del linguaggio di programmazione che la implementa?