So che questa è una domanda stupida e di sicuro sto parlando di spazzatura completa, ma lasciami spiegare:
- Abbiamo un hash SHA-256 lungo, ad esempio
474bfe428885057c38088d585c5b019c74cfce74bbacd94a7b4ffbd96ace0675
(256 bit) - Ora usiamo l'hash lungo per creare un hash SHA-1 e un MD5 e combinarli.
Ad esempio:
c49e2143913627ea178e66571189628a41526bf3
(SHA-1; 160 bit ) +6bb225025371aaa811748da8e011773d
(MD5; 128bit )
Quindi ora abbiamo questo:
c49e2143913627ea178e66571189628a41526bf36bb225025371aaa811748da8e011773d
(SHA-1 + MD5; 160bit + 128 bit = 288 bit)
Ed è più lungo della stringa di input, con 288 bit invece di 256 bit . Così abbiamo effettivamente aumentato l'entropia?
In breve questo è questo:
hash = sha256(input) # 256bit
result = sha1(hash) + md5(hash) # 288bit
(Questo dovrebbe essere uno pseudo-codice, non so se è valido attraverso.)
Qual è l'errore nel ragionamento qui? Sono sicuro che non puoi aumentare entropia / lunghezza delle stringhe in questo modo ...
Modifica: Importante: forse ho anche diminuito l'entropia o l'ho mantenuta uguale?