Quindi usiamo il valore esadecimale che ha il vantaggio di salire fino a 15 in cifre singole A-F, ma perché è un problema che ci vogliono 2 cifre per rappresentare il numero 10 in decimale?
Stavo leggendo di esadecimali e ho trovato queste due righe:
Base 16 suggests the digits 0 to 15, but the problem we face is that it requires 2 digits to represent 10 to 15. Hexadecimal solves this problem by using the letters A to F.
La mia domanda è, perché dovremmo preoccuparci di quante cifre ci vuole per rappresentare un numero? - È più lento per il computer gestire un numero di 2 cifre rispetto a 1?