Ho creato un ETL che analizza vari file, trasforma i dati del file e poi inserisce le righe in un DB, fino ad ora ho fatto un test manuale e controllato che tutti i valori analizzassero correttamente e tutte le linee (quelle necessarie) fossero inserite nel DB, ovviamente è diventato frustrante e soggetto a errori e voglio automatizzare quei test.
Ho pensato di creare un "file di test" con dati "predetti" e poi, analizzarli e provare a validare (verificare) tutti i valori sul DB, ma non sono sicuro se dovrei testare i valori del DB o le funzioni "trasformatori" nel mio codice.
Ad esempio:
Ho 3 tipi di file CSV che contengono:
- File 1
- Data di nascita - GG / MM / AAAA (23/04/1992)
- Altezza - cm (173)
- Peso - Kg (70)
- File 2
- Data di nascita - MM / GG / AAAA (23/04/1992)
- Altezza - pollici (68.11)
- Peso - sterline (154.324)
- File 3
- Data di nascita - AAAA-MM-GG (1992-04-23)
- Altezza - cm (173)
- Peso - Kg (70)
Quindi il codice estrae le righe da ciascun file e quindi (in base alla mappatura del file) dal valore della colonna e crea un'istanza del trasformatore appropriato, i valori di trasformazione inseriti in DB, nel mio esempio, dopo aver analizzato quei file in DB, avere 3 righe con gli stessi valori (23/04/1992, 173, 70)
Forse c'è un modo più corretto per eseguire il test?