Attualmente sto leggendo un capitolo in un libro di testo su Processor Architecture e ho visto la seguente dichiarazione:
The less precision there is, the less space is occupied by a program variable in memory. Further, there is often a time advantage, both in ferrying the operands back and forth between the processor and memory, and for arithmetic and logic operations that need less precision. This is particularly true for floating-point arithmetic operations.
Perché i dati meno precisi come il float sono talvolta più veloci di dati più grandi e più precisi come il doppio? Qualcuno può sviluppare questa spiegazione e magari dare un esempio?