Domanda forse leggermente a sinistra di campo - ma sono curioso della logica alla base del perché le classi BigInteger / BigDecimal di Java sentano la necessità di definire una costante di TEN?
Esempio preso da java.math.BigInteger:
/**
* The BigInteger constant zero.
*
* @since 1.2
*/
public static final BigInteger ZERO = new BigInteger(new int[0], 0);
/**
* The BigInteger constant one.
*
* @since 1.2
*/
public static final BigInteger ONE = valueOf(1);
/**
* The BigInteger constant two. (Not exported.)
*/
private static final BigInteger TWO = valueOf(2);
/**
* The BigInteger constant ten.
*
* @since 1.5
*/
public static final BigInteger TEN = valueOf(10);
Ora sto assumendo che potrebbe essere qualcosa a che fare con l'uso nelle funzioni di ridimensionamento o simili, ma mi ha fatto incuriosire - soprattutto perché TEN sembra apparire per la prima volta in 1.5 mentre ONE e ZERO esistevano molto prima (posso anche guarda perché 1 e 0 sarebbero più immediatamente utili di 10)
Qualcuno lo sa?