Se ci sono colonne a 20 bit (non booleane nullo), è meglio tenerle esplicitamente in un tipo intero (int32)? Oppure, il database sottostante li unirà in un singolo intero?
Sto usando PostgreSQL, comunque. In genere, si utilizza la maschera di bit nei database SQL come anti-pattern?
Sfondi: l'uso di queste colonne di bit è lasciato essere definito dall'utente finale, insieme ad alcune altre colonne int, float, double, varchar, in modo da rendere la tabella un po 'più estendibile. Nella pratica non userò nemmeno una tabella delle proprietà personalizzate one-to-many. Aggiungere una colonna intera è economico, ma se il database sottostante potrebbe archiviare più colonne bit in un campo int32, non è necessario esplicitarne l'unione.