Un'abitudine che ho osservato tra i programmatori, e un'abitudine che a volte inconsciamente mi esibisco, è quella di scegliere poteri di due (o poteri di due meno uno) quando definisco uno schema di database, un buffer di dati, ecc.
Hai fatto la stessa osservazione? Se non sono sfacciatamente soggettivo, le domande di follow-up sono:
Ci sono ancora validi motivi per usare poteri di due [meno uno] nelle moderne tecnologie?
Supponendo che queste abitudini siano per lo più vestigia di vecchi limiti tecnologici, mi chiedo solo quali sono i diversi tipi di limiti presenti in passato.
Alcuni potenziali motivi per cui posso pensare sono le ottimizzazioni della struttura dati e i bit di indirizzamento. Mi chiedo che altro era / è là fuori ...