Sto scrivendo un programma simile al modulo timeit
di Python. L'idea è di cronometrare una funzione eseguendola ovunque da 10 a 100.000 volte a seconda del tempo necessario e quindi di riportare i risultati.
Ho letto che il numero più importante è il tempo di esecuzione minimo perché questo è il numero che meglio riflette la velocità con cui la macchina può eseguire il codice in questione in assenza di altri programmi in competizione per il tempo e la memoria del processore. Questa argomentazione ha senso per me.
Saresti felice con questo?
Vorresti sapere il tempo medio o la deviazione standard? C'è qualche altra misura che consideri più importante?