Oggi mi è stato assegnato l'incarico di analizzare un file .vmem di uno dei nostri clienti RDS di Windows a causa di alcune "strane" connessioni provenienti da processi nativi di Windows.
 Il file .vmem estratto ha una dimensione di 20 GB.
La richiesta di imageinfo con   C:\Python27_64\python.exe vol.py -f XXXXXXX-Snapshot184.vmem imageinfo    ha fino ad ora richiesto fino a 60 minuti senza movimento dopo: 
Volatility Foundation Volatility Framework 2.6
INFO    : volatility.debug    : Determining profile based on KDBG search...
In base alle Domande frequenti sulla volatilità , sono stati persino segnalati casi di memdumps di oltre 200 GB analizzati con volatilità.
Quali sono le migliori pratiche per analizzare i grandi memdumps?
Dato che la pazienza è una virtù e il caricamento di 20 GB in memoria può richiedere un po 'di tempo, soprattutto se i byte devono essere analizzati per le firme, sto cercando soluzioni o suggerimenti nella tendenza di:
- Il formato del file XXX fornirà risultati di rendimento migliori rispetto al formato XXX
 - Il plug-in in esecuzione su XXX velocizzerà l'utilizzo dei plug-in futuri
 - Tweaks (non ufficiale, non supportato, non documentato)
 
 Non riesco a immaginare che qualcuno in attesa di X giorni attenda che   imageinfo    restituisca il profilo corretto per i dump di grandi dimensioni.