Esiste un nome per "perdita" dell'utilizzo della CPU? [chiuso]

0

Una contropartita della perdita di memoria, ma che coinvolge invece il tempo della CPU: l'utilizzo della CPU del programma sale lentamente al 100% e quindi l'intero sistema rallenta, senza modificare il footprint della memoria.

Un esempio in cui ciò potrebbe accadere: un programma che aggrega vecchi dati, interrogando la coda per i campioni in un dato intervallo; mentre il database elimina i dati obsoleti, il programma controlla i dati dall'inizio dell'operazione, rilevando un numero sempre crescente di "nessun record" man mano che il periodo di eliminazione aumenta.

O un programma, in cui la complessità del calcolo aumenta come O (exp (n)), mentre n è proporzionale alla dimensione del set di dati; il set di dati cresce normalmente, mai oltre lo spazio previsto previsto, ma la velocità di elaborazione dell'algoritmo si interrompe.

Esiste un nome ufficiale per questo tipo di problema / bug?

    
posta SF. 09.04.2016 - 13:51
fonte

2 risposte

2

Is there an official name for this kind of problem/bug?

No, non c'è. (Questo è un fatto, non un'opinione.)

Neanche uno non ufficiale.

    
risposta data 09.04.2016 - 17:33
fonte
2

Un sistema che impiega un tempo eccessivo per calcolare qualcosa di solito si presume che appenda o sia appeso . L'idea è che un calcolo che impiega tempo esponenziale diventa rapidamente così lento che non puoi distinguerlo da un loop infinito reale, ad es. un blocco totale.

    
risposta data 09.04.2016 - 16:07
fonte

Leggi altre domande sui tag