Perché utilizzare il valore casuale quando si sovrascrivono i file?

3

Spesso quando vedo persone che parlano di cancellazione sicura, vedo molti consigli che dovresti usare valori casuali per sovrascrivere. La mia domanda è: perché è meglio o più efficiente del riempire tutti i byte con 0xFF che inserisce tutti i bit?

    
posta vakus 21.06.2016 - 21:10
fonte

3 risposte

3

Negli anni '80 e '90 sono stati raccomandati passaggi multipli di sovrascrittura con valori casuali, come descritto nella cronologia riportata da @FlorianBidabe. Indietro quando i dati sono stati codificati su dischi che avevano testine di lettura / scrittura fisicamente larghe e spazio tra le tracce per garantire l'isolamento dei dati, una testina di scrittura potrebbe cancellare l'80% del supporto magnetico che tiene il bit, assicurando che l'elettronica grezza dell'unità non potesse leggere esso. Ma queste larghe tolleranze lasciavano dietro il 20% del dominio magnetico, che erano sfruttabili da qualcuno che cercava di recuperare i dati da un disco. La scrittura di dati casuali invece di tutti gli zeri ha aiutato a mascherare il valore originale del bit. È stato scoperto che più passaggi di scrittura aumentavano le possibilità che più di quel rimanente 20% sarebbe stato sovrascritto, dando alle persone più sicurezza che i loro dati fossero veramente irrecuperabili.

Questa raccomandazione non è più applicabile al moderno hardware del disco. Il motivo è che i produttori di dischi rigidi hanno migliorato le tolleranze di produzione per aumentare la densità dei dati sulle unità disco. Quella testata di scrittura scadente all'80% di ieri è stata sostituita con motori più precisi, testine di lettura / scrittura più piccole e una tecnologia completamente nuova come la registrazione verticale dei campi magnetici. Oggi, un campo codificato occupa un piccolo spazio di pochi atomi sul piatto, che è il modo in cui i produttori possono ottenere densità di dati nell'intervallo di 2,5 TB / pollice quadrato o più.

Ma per quanto minuscoli siano diventati i campi magnetici sui piatti, i produttori di drive hanno incorporato tecniche di calcolo sofisticate per migliorare le prestazioni e l'affidabilità delle unità. Queste tecniche hanno lo scopo di preservare i dati e in realtà possono impedire la cancellazione sicura dei dati utilizzando tecniche di sovrascrittura. Ad esempio, un disco riserva una frazione inutilizzata di blocchi nel caso in cui una parte del piatto diventi inaffidabile e, in caso di errore, migra automaticamente i dati dalla parte errata del piatto alla parte buona. Ciò significa che non importa più se si sovrascrive il disco con zeri, 0xFF o numeri casuali. Se il settore che era andato male era solito tenere un segreto, quel segreto non sarebbe mai stato sovrascritto da nessun pattern di cancellazione.

Questi miglioramenti continui delle tecnologie dei dischi rigidi hanno creato la necessità di tecniche più affidabili per disinfettare le unità disco. Oggi, si consiglia la pulizia crittografica. I dati sull'unità possono essere crittografati con una chiave casuale memorizzata solo su un chip flash sull'unità. Per distruggere i dati, la memoria flash viene cancellata e l'unica copia della chiave viene cancellata. Senza la chiave di decodifica disponibile, i dati crittografati vengono eliminati in modo sicuro e istantaneo.

Per ulteriori informazioni sulle tecniche accettabili di sanitizzazione del disco, ti consiglio di leggere il standard NIST 800- 88, rev 1 .

    
risposta data 22.06.2016 - 00:35
fonte
1

La rimanenza dei dati è la rappresentazione residua dei dati digitali che rimane anche dopo aver tentato di rimuovere o cancellare i dati. Questo residuo può risultare dal fatto che i dati vengono lasciati intatti da un'operazione di cancellazione di file nominale, riformattando i supporti di memorizzazione che non rimuovono i dati precedentemente scritti sul supporto o le proprietà fisiche dei supporti di memorizzazione che consentono il recupero dei dati scritti in precedenza.

La tecnica di sovrascrittura più semplice scrive gli stessi dati ovunque, spesso solo un modello di tutti gli zeri. Come minimo, ciò impedirà il recupero dei dati semplicemente leggendo nuovamente dal supporto utilizzando le funzioni di sistema standard.

Nel tentativo di contrastare tecniche di recupero dati più avanzate, sono stati spesso prescritti schemi di sovrascrittura specifici e passaggi multipli. Questi possono essere schemi generici destinati a sradicare qualsiasi traccia di traccia, ad esempio, il modello a sette passaggi: 0xF6, 0x00, 0xFF, casuale, 0x00, 0xFF, casuale; a volte erroneamente [chiarimento necessario] attribuito allo standard americano DOD 5220.22-M.

Fattibilità del recupero dei dati sovrascritti

Peter Gutmann ha studiato il recupero dei dati dai media nominalmente sovrascritti a metà degli anni '90. Ha suggerito che la microscopia a forza magnetica potrebbe essere in grado di recuperare tali dati e sviluppato modelli specifici, per specifiche tecnologie di guida, progettati per contrastarli. [2] Questi modelli sono diventati noti come metodo Gutmann.

Daniel Feenberg, economista del National Bureau of Economic Research privato, afferma che le possibilità di recuperare i dati sovrascritti da un moderno disco fisso ammontano a "leggenda metropolitana". [3] Indica anche il "divario di 18 minuti e mezzo" Rose Mary Woods, creato su un nastro di Richard Nixon che parla della violazione del Watergate. Le informazioni cancellate nel gap non sono state recuperate, e Feenberg afferma che fare ciò sarebbe un compito facile rispetto al recupero di un moderno segnale digitale ad alta densità.

A partire dal novembre 2007, il Dipartimento della Difesa degli Stati Uniti ritiene accettabile la sovrascrittura per la rimozione di supporti magnetici all'interno della stessa area / zona di sicurezza, ma non come metodo di disinfezione. Solo la smagnetizzazione o distruzione fisica è accettabile per quest'ultimo [4]

D'altra parte, secondo la Pubblicazione speciale NIST 800-88 del 2006 (pagina 7): "Gli studi hanno dimostrato che la maggior parte dei media attuali può essere efficacemente cancellata da una sovrascrittura" e "per le unità disco ATA prodotte dopo il 2001 (oltre 15 GB) i termini clearing e purging sono convergenti. "[5] Un'analisi di Wright et al. delle tecniche di recupero, inclusa la microscopia a forza magnetica, conclude anche che una singola salviettina è tutto ciò che è necessario per le unità moderne. Sottolineano che il lungo tempo richiesto per più salviettine "ha creato una situazione in cui molte organizzazioni ignorano il problema tutti insieme - con conseguente perdita di dati e perdite". [6]

Fonte: link

    
risposta data 21.06.2016 - 23:16
fonte
1

Quindi non troppo tempo fa questa era una raccomandazione. Il motivo è che Peter Gutmann ha escogitato un modo per recuperare (con > 50% di probabilità) lo stato precedente di un po '. Scrivere tutti gli stessi valori sarebbe essenziale per invertire la scrittura. La risposta accettata su questa domanda ha più dettagli.

The origin lies in work by Peter Gutmann, who showed that there is some memory in a disk bit: a zero that's been overwritten with a zero can be distinguished from a one that's been overwritten with a zero, with a probability higher than 1/2. However, Gutmann's work has been somewhat overhyped, and does not extend to modern disks.

Al giorno d'oggi è meno preoccupante.

    
risposta data 21.06.2016 - 23:53
fonte

Leggi altre domande sui tag