Stiamo sviluppando un prodotto che può essere utilizzato per lo sviluppo di modelli predittivi e l'affettamento e il cubettatura dei dati per fornire la BI.
Abbiamo due tipi di requisiti per l'accesso ai dati.
Per la modellazione predittiva, abbiamo bisogno di leggere i dati su base giornaliera e farlo riga per riga. In questo il normale database di SQL Server è sufficiente e non riscontriamo alcun problema.
In caso di affettare e tagliare a cubetti dati di dimensioni enormi come 1 GB di dati con diciamo 300 righe M. Vogliamo modificare facilmente questi dati con un tempo di risposta minimo.
Il database SQL corrente sta avendo problemi di tempo di risposta in questo.
Ci piace che il nostro prodotto funzioni su qualsiasi normale macchina client con 2 GB di RAM con processore Core 2 Duo.
Vorrei sapere come memorizzare questi dati e come posso creare un'esperienza di rotazione per ciascuna dimensione.
Idealmente avremo dati di dirci vendite giornaliere per persona di vendita per regione per prodotto per una grande azienda. Quindi vorremmo suddividerlo e tagliarlo in base a qualsiasi dimensione e anche essere in grado di eseguire aggregazioni, valori univoci, valori massimi, minimi, medi e alcune altre funzioni statistiche.