Sto lavorando con MATLAB su un algoritmo di riduzione del modello. È fondamentalmente una pipeline di elaborazione dei dati.
ckt = generate_ckt(ckt_properties);
freq = generate_fpoints(fconfig);
result = freq_dom_sim(ckt,freq);
red_ckt = run_PRIMA(ckt, red_order);
Ognuna di queste attività è potenzialmente dispendiosa in termini di tempo, dal momento che i dati con cui lavoro sono piuttosto grandi (matrici 10000 × 10000). Quindi in una precedente implementazione avevo tutti questi script separati che dovevo eseguire uno per uno (manualmente o eseguire uno script master). Ognuno di questi ha memorizzato i dati in .mat
file. Il prossimo programma leggerà da questo e scriverà il proprio risultato in un'altra directory. E così via.
Quello che vorrei usare è un framework in grado di memorizzare le dipendenze tra varie parti di dati, in modo tale che in qualsiasi momento si possa solo chiedere di generare l'output.
Dovrebbe:
- Controlla se la variabile è presente nello spazio di lavoro.
- Se lo è, controlla se è coerente con le proprietà previste (controlla con
config
data) - In caso contrario, carica da file (verrà specificato il percorso esatto per il file).
- Verifica se è coerente con le proprietà previste.
- In caso contrario, calcolarlo dal comando ad esso associato. (Pre-specificato)
Mi piacerebbe che fosse ricorsivo, in modo tale che eseguissi effettivamente l'ultimo modulo e automaticamente eseguisse verifiche e calcoli effettivamente solo quei pezzi di dati che non sono già disponibili e coerenti.
Puoi dare qualche suggerimento su come progettare questo? Se è già stato chiamato qualcosa (presumo che lo sia) per favore indicatelo.