Una contropartita della perdita di memoria, ma che coinvolge invece il tempo della CPU: l'utilizzo della CPU del programma sale lentamente al 100% e quindi l'intero sistema rallenta, senza modificare il footprint della memoria.
Un esempio in cui ciò potrebbe accadere: un programma che aggrega vecchi dati, interrogando la coda per i campioni in un dato intervallo; mentre il database elimina i dati obsoleti, il programma controlla i dati dall'inizio dell'operazione, rilevando un numero sempre crescente di "nessun record" man mano che il periodo di eliminazione aumenta.
O un programma, in cui la complessità del calcolo aumenta come O (exp (n)), mentre n è proporzionale alla dimensione del set di dati; il set di dati cresce normalmente, mai oltre lo spazio previsto previsto, ma la velocità di elaborazione dell'algoritmo si interrompe.
Esiste un nome ufficiale per questo tipo di problema / bug?