Quindi sto cercando di spingere per test più automatizzati nella mia azienda, che si concentrano molto sui prototipi e sui sistemi di proof of concept.
Al momento utilizziamo Google Test per i test delle unità. Questo test di casi di test specifici per correttezza, ma molte delle cose che facciamo le metriche per come il codice sta eseguendo seguono più di un "funziona meglio o peggio di prima, e se funziona peggio, è una perdita accettabile in performance "di un booleano" sì no ". Questi test chiamo "Caratterizzazione" per mancanza di un termine migliore (ho uno sfondo EE, quindi citato in giudizio): descrive come si comporta il codice. Abbiamo bisogno di avere la metrica per tutte le build e abbiamo bisogno di essere in grado di confrontarla tra le build per vedere quale direzione stiamo andando. Spesso possiamo fare un cuttoff generale per fare fallire un passaggio di alto livello, ma questi test possono essere estesi: richiedono molto tempo per essere eseguiti e spesso richiedono operazioni di number crunching e di pianificazione. Questo sembra essere fuori portata per un Test unitario, più per un Test funzionale nella mia mente (ma non sono un esperto di test). In che modo le persone / le aziende gestiscono questo tipo di test? C'è qualche quadro per questo tipo di test là fuori?