Ho avuto una riunione con un fornitore di software oggi sulla loro infrastruttura consigliata per la distribuzione di una particolare applicazione. L'applicazione richiede due server: un app server per le pagine Web del server (.NET, Windows) e un database (SQL Server). Il venditore ha affermato che questi due server dovevano avere una "bit bit". Ciò che intendevano con questo è che se il server dell'app era a 32 bit, SQL Server dovrebbe essere a 32 bit, o se l'app è a 64 bit, SQL Server è a 64 bit. Altrimenti, le prestazioni avranno un impatto negativo.
Questo mi sembra ridicolo. I server sono indipendenti e comunicano solo attraverso una rete. I protocolli di rete non hanno nulla a che fare con la "bit-ness" del processore su entrambi i server.
Sono nel torto? C'è una ragione per cui una mancata corrispondenza potrebbe effettivamente influire negativamente sulle prestazioni?
NOTA: so che alcune app potrebbero essere eseguite più velocemente o più lentamente a 32 bit rispetto a 64 bit. Ma il venditore stava dicendo che la