Supponiamo di avere un algoritmo software (ad esempio, una FFT), e ho bisogno di elaborare (n) quantità di dati in (t) millisecondi. Questo è un compito in tempo reale scritto in C. Ci sono un sacco di CPU là fuori, e si potrebbe semplicemente selezionare il più veloce, ma vogliamo anche qualcosa di giusto per il lavoro riducendo i costi.
FFT sono O (n log n) per quanto ne so, quindi forse si può dire che ci vorrebbe k * (n log n) per eseguire una FFT su n unità di dati. Anche se la costante fosse nota, come potrei tradurla nei cicli effettivi della CPU, al fine di determinare quale CPU è adatta?
Un collega di lavoro mi ha posto questa domanda e non ho potuto rispondere, poiché si tratta di un settore dell'ingegneria informatica che non conosco.
Supponiamo che questo programma software funzioni da solo, senza alcun sistema operativo o altro sovraccarico.