Quando si considera lo spazio su disco di un supporto di memorizzazione, normalmente il computer o il sistema operativo lo rappresenteranno in termini di potenze di 1024 - un kilobyte è 1.024 byte, un megabyte è 1.048.576 byte, un gigabyte è 1.073.741.824 byte e così via .
Ma non vedo alcuna ragione pratica per cui questa convenzione sia stata adottata. Di solito quando la dimensione del disco è rappresentata in kilo-, mega- o giga-byte, deve essere prima convertita in decimale. Nei luoghi in cui conta un power-of-two byte count (come la dimensione del blocco su un file system), la dimensione viene comunque espressa in byte (ad esempio 4096 byte).
Era solo una piccola novità estetica che i produttori di computer hanno deciso di adottare, ma i fornitori di supporti di memorizzazione hanno deciso di ignorare? Ogni volta che acquisti un disco rigido, al giorno d'oggi c'è sempre un disclaimer che dice "Un gigabyte significa un miliardo di byte". Sarebbe come usare la definizione binaria di "gigabyte" per gonfiare artificialmente il conteggio dei byte di un dispositivo, facendo in modo che i produttori di unità disco siano in grado di confezionare 1,1 terabyte in un'unità per farla apparire come "1 TB" o semplicemente Pack 1 terabyte in e farlo apparire come "931 GB" (e la maggior parte di loro fanno quest'ultimo).
Alcune persone hanno deciso di utilizzare unità come "KiB" o "MiB" a favore di "KB" e "MB" per distinguere le due. Ma c'è qualche merito per i prefissi binari in primo luogo?
Probabilmente c'è un po 'di storia vecchia di cui non sono a conoscenza su questo argomento, e se c'è, sto cercando qualcuno che lo spieghi.
(Mi scuso se questo è nel posto sbagliato. Ho sentito che potrebbe esserci una domanda sulle migliori pratiche qui, ma ho fiducia che verrà migrata nel posto giusto se non è corretta.)