Come elaborare file di grandi dimensioni in NetLogo?

3

Sto riscontrando problemi in NetLogo con file * .csv / * .txt di grandi dimensioni.

I documenti possono consistere di circa 1 milione di set di dati e ho bisogno di leggerli (per creare eventualmente un diagramma basato sui dati).

Con il codice sorgente più semplice, il mio programma ha bisogno di circa 2 minuti per elaborare questi file.

Come dovrei approcciare la lettura di file di dati così grandi più velocemente in NetLogo? NetLogo è adatto anche per tali compiti (come sembra essere progettato più per l'insegnamento e l'apprendimento)?

    
posta user65597 19.09.2012 - 11:40
fonte

1 risposta

1

La soluzione ovvia è di estendere NetLogo in Java e sfruttare prontamente uno dei lettori CSV o TXT altamente ottimizzati disponibili. Dai un'occhiata al link .

Se ciò non risolve il problema, potrebbe essere necessario pre-elaborare i dati in qualcosa che può essere letto più velocemente. Senza conoscere i dati, è difficile speculare su cosa.

    
risposta data 19.02.2014 - 10:21
fonte

Leggi altre domande sui tag