Accelerare l'operazione di lettura di scrittura intensiva su file di grandi dimensioni in cloud (Azure)

1

Sto usando BLOB di archiviazione di Azure per mantenere determinati modelli per tenant. Durante l'elaborazione degli elementi per ciascun tenant, questi modelli devono essere richiamati in memoria, utilizzati per determinate operazioni, aggiornati e trasferiti all'archiviazione BLOB. Con il passare del tempo, la dimensione dei modelli sembra aumentare e quindi la latenza complessiva aumenta e le prestazioni degradano.

Sto usando nella cache di memoria per supportare le operazioni di Get, tuttavia, le operazioni di Put richiedono ancora una discreta quantità di tempo.

È possibile dividere il modello in componenti più piccoli ma aumenta il numero totale di richieste effettuate e toglie la natura atomica degli aggiornamenti del modello.

Esiste un approccio generale in questi casi o qualche altro consiglio per risolverli?

    
posta mebjas 03.07.2018 - 14:45
fonte

0 risposte

Leggi altre domande sui tag