Sto giocando con .NET BigInteger e sostanzialmente I mi chiedo quale numero - una risposta stimata andrebbe bene - è il punto di deviazione della curva di (il grafico di (aumento del tempo richiesto per le operazioni) vs (valore di BigInteger)) ?
o sono progettati senza tale deviazione in modo tale che se tracciamo l'aumento del tempo richiesto per le operazioni rispetto al valore di BigInteger da 1 a infinito, avremo una curva regolare fino in fondo?
ad esempio, supponendo che gli array siano progettati con la capacità di gestire 50 articoli. questo significa che se ho 1 elemento, le operazioni sono f (1) tempo. e quando ho 2 elementi, le operazioni sono f (2) volte. se ho 50 articoli, le operazioni sono f (50). ma poiché è progettato per gestire solo 50 oggetti, le operazioni eseguite quando abbiamo 51 elementi saranno g (51) dove g (51) > f (51).
If implemented properly the complexity of BigInteger arithmetic should be a smooth curve. For example the time complexity of multiplication should be O(NM) where N is the number of digits in the first multiplicand, and M is the number of digits in the second multiplicand. Of course there are practical limits in that you could pick N and M so large that the numbers wouldn't fit in your machine.
C'è qualcuno / qualcuno che conosce documenti che sostengono che sia implementato come tale?