Velocità di cracking della password secondo Hashcat

2

dal sito: link - hanno utilizzato 4 GPU:

Hashtype: Keepass 1 (AES/Twofish) and Keepass 2 (AES) Speed.Dev.#*.....: 416.5 kH/s

Hashtype: sha512crypt, SHA512(Unix) Speed.Dev.#*.....: 452.4 kH/s

Hashtype: bcrypt, Blowfish(OpenBSD) Speed.Dev.#*.....: 43551 H/s

Hashtype: WPA/WPA2 Speed.Dev.#*.....: 1190.5 kH/s

Hashtype: MD5 Speed.Dev.#*.....: 76526.9 MH/s

Q: Questo significa che con 1 GPU possiamo eseguire la brute-force (almeno provare a brute) 452.4 × 1000 ÷ 4 = ~ 113100 password (memorizzate in sha512crypt) al secondo?

UPDATE: il / 4 è ok, il q reale voleva essere: "H / s" è lo stesso di "P / s"? o abbiamo bisogno di ulteriori calcoli per ottenere le password / sec? (chiedendo perché ci sono round / iterations in sha512crypt)

    
posta pepite 25.02.2017 - 12:15
fonte

2 risposte

3

Sì. Il Dev.#* che elencano è il modo in cui Hashcat mostra la velocità combinata di cracking di tutti i dispositivi GPU. Normalmente l'output benchmark di Hashcat è simile a questo:

Hashtype: sha512crypt, SHA512(Unix)

Speed.Dev.#1.:   147.5 kH/s (103.12ms)
Speed.Dev.#2.:   138.1 kH/s (102.84ms)
Speed.Dev.#3.:   148.0 kH/s (102.83ms)
Speed.Dev.#4.:   148.3 kH/s (102.57ms)
Speed.Dev.#*.:   581.9 kH/s

Quale migliore mostra le singole velocità del dispositivo e la velocità combinata.

Hai anche ragione sul fatto che kH / s significa che il numero associato rappresenta migliaia di hash al secondo, con MH / s che rappresentano milioni, GH / s che rappresentano miliardi, ecc. E sì, l'H / s misura quante password diverse indovina le conversioni di hash sono fatte ogni secondo. Quindi il tuo H / S sarà più lento per un algoritmo come sha512crypt, rispetto a MD5, perché sta misurando il tempo necessario per completare l'intera conversione hash e non solo un round / iterazione.

    
risposta data 25.02.2017 - 17:41
fonte
1

Probabilmente sì. In questo caso, le prestazioni a quattro GPU sono probabilmente quattro volte superiori a quelle di un'applicazione con GPU singola.

Si noti che questo non è generalmente il caso. La maggior parte degli algoritmi non si adatta a più processori, dal momento che hanno bisogno di un qualche tipo di coordinamento dei dati, e questo aggiungerà solo un sovraccarico. Altri ancora, possono funzionare molto bene su partizioni del problema generale e la distribuzione del carico di lavoro a più unità di calcolo relativamente indipendenti (come le GPU) può anche avere effetti superscalari.

    
risposta data 25.02.2017 - 13:08
fonte

Leggi altre domande sui tag