Come per il titolo di questa domanda, per situazioni estremamente critiche per le prestazioni, i metadati di un file (come posizione, dimensioni, download ecc.) in un database consentono di ottenere prestazioni migliori rispetto al tentativo di scaricarlo dal file sistema stesso? Ci sono stati studi di casi su questo problema?
Per fornire maggiori dettagli su una situazione specifica, l'applicazione deve rispecchiare terabyte di dati (centinaia di file) tra un sito remoto su base continua e l'architettura del programma corrente usa comandi Unix (cioè ls
) a determinare quali file devono essere aggiornati. I file stessi sono suddivisi tra cluster IQ Isilon e cluster Sun Thumper a cui mi è stato riferito un buon rendimento ma prestazioni scadenti dei metadati. Poiché l'applicazione sarà l'unico processo in cui si hanno permessi di scrittura sui file, non ci occupiamo di cose che vanno fuori sincrono, ma siamo preoccupati delle prestazioni poiché al momento sono necessarie da sei a dieci ore per trasferire i dati.