Ho letto qui in Quali algoritmi sono meglio craccati da GPU? che, algoritmi di hashing come SHA1, SHA224, SHA256 che eseguono operazioni aritmetiche e logiche a 32 bit interi sono meglio implementati su GPU rispetto all'algoritmo di hashing SHA512 che funziona su interi a 64 bit.
Qual è la ragione di questo? Le GPU non forniscono un buon supporto per lo sviluppo utilizzando numeri interi a 64 bit?
Ho letto su Domande frequenti sullo sviluppatore di Nvidia CUDA la domanda: CUDA supporta gli interi lunghi?
E la risposta è Sì, tuttavia dice che le operazioni su interi a 64 bit vengono compilate in più sequenze di istruzioni. È questo il motivo per cui le GPU sono in grado di gestire interi a 32 bit molto meglio degli interi a 64 bit?
Ulteriori informazioni in merito potrebbero essere utili. Inoltre, se ci sono riferimenti che discutano di questo in modo più approfondito, mi piacerebbe sapere.