Vedo e lavoro con un sacco di software, scritto da un gruppo abbastanza grande di persone. Molte volte, vedo errate dichiarazioni di tipo intero. Due esempi che vedo più spesso: creare un intero con segno normale quando non ci possono essere numeri negativi. Il secondo è che spesso la dimensione del numero intero è dichiarata come una parola a 32 bit quando molto più piccolo potrebbe fare il trucco. Mi chiedo se il secondo abbia a che fare con l'allineamento delle parole del compilatore che si allinea ai 32 bit più vicini, ma non sono sicuro che questo sia vero nella maggior parte dei casi.
Quando crei un numero, di solito lo crei tenendo a mente le dimensioni, o semplicemente crei qualsiasi cosa sia l'impostazione predefinita "int"?
edit - Votato per riaprire, poiché non penso che le risposte trattino adeguatamente con linguaggi che non sono C / C ++, e che i "duplicati" siano tutti di base in C / C ++. Non riescono a rivolgersi a linguaggi strongmente tipizzati come Ada, dove non possono esserci bug dovuti a tipi non corrispondenti ... non verrà compilato, o se non può essere catturato in fase di compilazione, genererà un'eccezione. Ho intenzionalmente lasciato out nominando C / C ++ in modo specifico, perché altri linguaggi trattano diversi interi in modo molto diverso, anche se la maggior parte delle risposte sembra essere basata su come agiscono i compilatori C / C ++.