Sto lavorando su un front end web + servizi front-end.
Ricevo file csv di buone dimensioni (linee 10k). Il mio servizio li elabora e li condensa in un unico file csv (fino a 300k linee).
Questo file più grande sarà trasformato in un rapporto html / pdf dopo qualche estrapolazione.
Le mie domande sono:
-
Prendendo 17.000 file e trasformandoli in 1 prende FOREVER (18 ore l'ultima volta che l'ho provato). Il processo corrente consiste nel prendere una riga di csv, analizzarla per vedere se esiste nel mio array master e creare una nuova voce o aggiungere i dati a una voce esistente nell'array. C'è un modo migliore per farlo? Sembra che l'ultimo elemento richiederebbe esponenzialmente più lungo del primo.
-
Una volta creato questo file di grandi dimensioni, l'analisi sembra richiedere un po 'di tempo. Dovrei passare dalla scrittura a un output csv e andare con JSON per velocizzare il massaggio dei dati? o anche un leggero db?