È la differenza tra il valore decimale e il prefisso binario .
In questo caso, sta dicendo che stai usando 0 byte binari.
Qual è la differenza?
Usando "Giga" come esempio, significa 1000 3 di qualcosa (cioè Gigahertz).
Nei computer pone un problema interessante:
Un Gigabyte è 1000 3 byte. Tuttavia un byte è 8 bit (binari). Il che significa che è tecnicamente 1024 3 byte. Per tener conto di questo, usiamo notazione diversa:
- Giga è decimale (base 10)
- Gibi è binario (base 2)
L'output ti sta dicendo che sta usando unità binarie.
Se vuoi ottenere l'output in "notazione decimale leggibile dall'uomo", usa la "H" maiuscola:
$ df -H
/dev/disk2 1.1T 413G 706G 37% 100935848 172431606 37%
map auto_home 0B 0B 0B 100% 0 0 100% /home
Infine, in realtà non è una convenzione Apple, ma una di BSD (è un comando BSD). Puoi trovare maggiori informazioni sulla pagina man ( man df
).