Quando sposto un file di grandi dimensioni tra le cartelle, noto che Time Machine impiega molto tempo nel backup orario successivo. Apparentemente, è abbastanza stupido e considera un trasferimento di file proprio come una cancellazione e un'aggiunta di un file completamente nuovo ...
Poiché i miei backup stanno diventando abbastanza grandi, mi piacerebbe ridurli rimuovendo i file duplicati tra i set di backup. Sarebbe sicuro eseguire semplicemente fdupes o un programma simile sui set di backup? In caso contrario, sarebbe ragionevole utilizzare invece uno script personalizzato che sostituisce ogni duplicato trovato con un collegamento fisico al file duplicato?