Domanda semplice: sia MD5 che SHA1 sono suscettibili a un attacco di collisione. È ragionevole supporre che anche SHA256, il prossimo algoritmo a cui stiamo passando, abbia un problema simile, ma che sia nascosto a causa dei requisiti per trovare una collisione del genere.
Il fatto è, perché non usiamo più algoritmi per verificare l'integrità del file? come, calcolare più checksum utilizzando più algoritmi per lo stesso file e dichiararlo accettabile solo se tutti corrispondono? Voglio dire, trovare una collisione per MD5 in questo momento è fattibile su smartphone, e trovarne uno per SHA1 è stato dimostrato fattibile con l'attacco SHAttered. tuttavia, se dovessi trovare una collisione sia per MD5 che per SHA1, non aumenterebbe anche il tempo necessario?
Chiarimento: mentre questo particolare suggerimento potrebbe effettivamente essere utilizzato in alcuni luoghi, quello di cui sto parlando è: perché questa tecnica non viene comunemente proposta come alternativa all'aggiornamento a SHA256 ?