Ho 30+ fonti di dati che scrivo quotidianamente in vari formati (xml, html, csv). Negli ultimi tre anni ho creato circa 20 applicazioni console in uscita, scaricato i dati e riformattato in un database. Ma sono curioso di sapere cosa fanno gli altri per questo tipo di attività. Le persone costruiscono uno strumento che ha molte variabili e input o sono persone che progettano più di 20 programmi per analizzare e analizzare questi dati. Tutto è hard-coded in ogni console e viene eseguito tramite Task Manager di Windows.
Aggiunti un paio di pensieri / dettagli aggiuntivi:
- Delle 30 fonti, tutte hanno proprietà uniche, tutte sono caricate in tabelle individuali MySQL e tutte hanno frequenze variabili. Ad esempio, una fonte di dati viene colpita una volta al minuto, un'altra su intervalli di 5 minuti. La maggioranza è una volta all'ora e una volta al giorno.
Al momento scarro i formati (xml, csv, html), li analizzo in un csv formattato e li metto in cartelle di staging. All'interno di quella cartella, eseguo un'applicazione che legge un file di configurazione specifico per la cartella. Quando un nuovo CSV viene aggiunto alla cartella, l'applicazione carica i dati nelle specifiche tabelle MySQL designate nel file di configurazione.
Mi chiedo se valga la pena ricostruire tutto questo in un programma più complesso che è più capace di aggiungere in modo dinamico contenuti + scarti e adeguamento alle modifiche del formato.
Alla ricerca di pensieri esterni.