Le violazioni della sicurezza del sito web sembrano essere un evento comune, dando agli hash delle password degli attaccanti un attacco a forza bruta, spesso fornendogli un elenco di password che funzioneranno su altri siti poiché gli utenti solitamente riutilizzano le password.
Migliorerebbe la sicurezza generale rendendo l'algoritmo di hashing leggermente più debole e più incline alle collisioni, quindi anche se l'hacker esegue la forza bruta di una password che funziona sul sito compromesso, è improbabile che funzioni su qualsiasi altro sito? p>
Quindi, se, ad esempio, un algoritmo di hash avesse una probabilità 1000 volte maggiore di collisione rispetto ad altri algoritmi hash, rende il lavoro dell'aggressore 1000 volte più facile su quel sito, ma ogni password con le sue forze brute ha solo 1 in 1000 possibilità di lavorare su un altro sito. Poteva continuare a usare la forza bruta e trovare tutte le 1000 password che entrano in collisione con l'hash, ma se ha provato a scorrere tutte le 1000 password su altri siti, si spera che quel sito lo possa chiudere prima di passare attraverso tutte le password.
Questo porterebbe a una migliore sicurezza generale riducendo la capacità di un hacker di sfruttare password condivise con altri siti o indebolirebbe la sicurezza rendendo deliberatamente molto più facile forzare la password di un singolo sito?