Time Machine, ZFS e deduplica

8

Attualmente sto esportando una partizione ZFS con dedup=on usando ubuntu-zfs e netatalk . Tuttavia, time-machine insiste sulla creazione di uno sparsebundle su di esso, e mi ha fatto iniziare a chiedermi se questo avrebbe avuto un impatto sulla deduplicazione, dato che il concetto di "file" scompare, e probabilmente l'allineamento dei blocchi non sarebbe grande neanche .. .

P.S. La mia idea di usare la dedup è che ho un paio di macbook che fanno il backup nello stesso posto, e molti dei loro file sono uguali.

Addendum: sembra che l'allineamento a livello di blocco stia fallendo nella dedup. Ecco la mia esperienza:

  • Copie del tempo macchina di due macbook diversi, con molti dati duplicati tra loro (200 Gb totali)
  • CCC i due macbook su due immagini sparse.

Fattore di deduplicazione? 1.01x

Qualche idea su come impostare la deduplicazione ZFS per lavorare correttamente con i backup time-machine? Dovrei iniziare a cercare altre alternative di backup (con deduplicazione)?

    
posta Hugo Sereno Ferreira 09.01.2012 - 04:22
fonte

1 risposta

7

La deduplicazione su ZFS è a livello di blocco, quindi non dipende dal concetto di file. L'unico modo in cui la deduplicazione può essere sconfitta è se l'offset di un file all'interno di Sparsebundle non è sempre lo stesso modulo della dimensione del blocco. Poiché ZFS può utilizzare blocchi di dimensioni variabili più grandi della dimensione del blocco del file system HFS + all'interno di sparsebundle, l'allineamento corretto non è garantito, ma non è nemmeno garantito che la deduplicazione abbia esito negativo.

Se ti preoccupi dello spazio, puoi anche abilitare la compressione sul tuo pool ZFS. Impone un sovraccarico aggiuntivo della CPU, ma può effettivamente aumentare il throughput effettivo del disco.

    
risposta data 09.01.2012 - 06:17
fonte

Leggi altre domande sui tag