Un algoritmo impiega 1 secondo per eseguire un set di dati di dimensione N su un particolare computer. Sostituiscilo con un computer 10 volte più veloce. Quale sarà la dimensione del set di dati che è possibile elaborare in 1 secondo sul nuovo computer se il tempo di esecuzione per un set di dati di dimensione n è proporzionale a n ^ 2?
Sto attraversando un periodo difficile a risolvere questa domanda. Penso che se la macchina è 10 volte più veloce, dovrebbe essere in grado di eseguire 10 volte la quantità di dati. Ciò significa che potrebbe fare un set di dati di dimensioni 10N. Ma non sarebbe questo solo se il tempo di esecuzione fosse proporzionale a n? Se il tempo di esecuzione aumenta in modo quadratico man mano che l'input aumenta, il dataset non deve essere inferiore a 10 N?