Stiamo cercando di capire le migliori pratiche per lavorare con DB di grandi dimensioni in Java.
Quello che facciamo è un tipo di BI (business intelligence), cioè analizzare DB di grandi dimensioni e usarli per creare DB intermedi che rappresentano una conoscenza intelligente dei DB.
Attualmente stiamo usando JDBC e stiamo preformando le query usando un ResultSet.
Man mano che vengono creati sempre più dati, ci chiediamo se esistono modi più appropriati per analizzare e manipolare questi DB di grandi dimensioni:
- Dobbiamo supportare la manipolazione "chunk" e non un intero DB in una volta (ad esempio, limite in JDBC, prestazioni molto scarse)
- Non abbiamo bisogno di essere costantemente connessi poiché stiamo semplicemente tirando i risultati e creando nuove tabelle per conto nostro
- Vogliamo capire le alternative JDBC, rispetto a vantaggi e svantaggi.
- Se pensi che JDBC sia la strada da percorrere o meno, quali sono le migliori pratiche da seguire a seconda del contesto (ad es. per i DB di grandi dimensioni interrogati in blocchi)?