problema
Attualmente sto studiando una soluzione per consentire il caricamento veloce (e il recupero) di dati che possono essere implementati tramite NoSQL / SQL o un file system su un server Centos con 64 core CPU con 529 GB di ram.
Il caso è il seguente:
Gli utenti hanno la necessità di tenere traccia dei dati caricati su un server, quindi a un certo punto recuperare tutti i dati memorizzati sul server pronti per l'elaborazione su un sistema diverso.
Le operazioni sui dati riguardano il caricamento / importazione e il download / esportazione.
ogni record caricato varierà tra 4mb-5mb
Opzioni
Per gestire la grande quantità di dati, credo che il server che abbiamo sia più che efficiente per gestire il carico. Tuttavia, stiamo cercando una soluzione che assicuri che la scalabilità e il backup non costituiranno un problema in futuro. Alcune opzioni che ho considerato sono:
- mongoDB (GridFS per raggruppare i dati).
- Database Oracle (compressione LOB e datafield)
Quali sono le tue opinioni sull'approccio migliore da adottare per questo progetto? Qualcuno ha avuto un dilemma simile e cosa è stato fatto per risolverlo?
Grazie in anticipo per il tuo aiuto.
Modifica più informazioni
I record stimati che ci aspettiamo sono 2400 come lo scenario peggiore 9600-12000mb in un giorno e arriveranno in una raffica. Gli utenti avranno bisogno di una sub-selezione di dati e saranno utilizzati su reti LAN gigabit aziendali con cavi Ethernet standard