Scanner di vulnerabilità Webapp che comprende le continuazioni

3

Sto ricercando le vulnerabilità XSS in un'applicazione web che utilizza le continuazioni. Ciò significa che per un dato modulo, l'URI con cui i dati del modulo vengono pubblicati è unico e diverso ogni volta.

Una prima richiesta GET visualizza il modulo con il suo URI univoco come:

http://test.local/webapp/4b69615449222508116a1e562e1e0a458e4d6351.continue

Quindi l'azione di invio esegue la richiesta POST.

C'è uno scanner di sicurezza gratuito (o meglio open source) che comprende le continuazioni ed è in grado di fare la richiesta GET prima di ogni richiesta POST che il fuzzer sta tentando di inviare?

    
posta Thomasleveil 15.05.2014 - 17:16
fonte

2 risposte

2

la maggior parte degli scanner può farlo.

Ad esempio, Burp Suite supporta le macro che consentono di configurare una sequenza di richieste. Il supporto è abbastanza accurato in quanto i vari strumenti di Burp (scanner, intruso, ripetitore, ecc.) Utilizzano automaticamente le macro in modo trasparente.

    
risposta data 16.05.2014 - 06:32
fonte
0

HP WebInspect potrebbe essere in grado di farlo con qualche serio settaggio della configurazione. Senza avere l'applicazione web a disposizione per sperimentare (o per il momento accedere a WebInspect al momento, o aver lavorato con lui per un po 'di tempo fa), ciò che segue è un'ipotesi approssimativa su come potresti essere in grado di cambiare configurazione per fare funziona:

  • Cambia la modalità crawler da depth-first a breadth-first. Ciò costringerebbe il crawler e l'auditor a rintracciare il percorso dalla root della scansione (URL di avvio) alla pagina richiesta. Tieni presente che questo aumenta in modo sostanziale il numero di richieste da effettuare e può davvero rallentare la scansione (quindi potresti dover limitare la scansione solo a quel percorso). Potrebbe anche essere necessario accoppiarlo con le impostazioni di analisi http contrassegnando tale segmento come "parametro di stato". Questo istruirà WebInspect a riconoscere l'URL e sostituirà l'ultimo valore visto da quello che era stato inizialmente notato.
  • Utilizza la macro del flusso di lavoro (di nuovo accoppiata con l'analisi dei parametri di stato). Ciò limiterà la scansione a esattamente ciò che è registrato nel maco e quindi potrebbe aiutare a evitare l'uso del crawler di larghezza (e quindi essere più veloce).
  • Dall'ultima volta che ho lavorato con esso, le 10.xx ora includono i flussi di lavoro basati sull'interazione dell'utente rispetto ai flussi di lavoro di riproduzione del traffico. Questo può aiutare con le continuazioni (dal momento che non naviga più sugli url, ma piuttosto sulle interazioni dell'utente registrate con l'applicazione web) (infatti, proverei prima io).

Ma con abbastanza tenacia, penso che possa essere realizzato. Utilizza il monitoraggio del traffico integrato o un proxy per vedere cosa sta facendo per vedere come le modifiche alle impostazioni lo influenzano e per vedere se sta utilizzando correttamente il valore più recente nell'URL del modulo.

    
risposta data 15.05.2014 - 18:07
fonte

Leggi altre domande sui tag