Attualmente sto costruendo uno strumento OSINT basato su Python che consente a un utente di eseguire la scansione di un dominio fornito per pagine usando i metodi di scraping / spider tradizionali, ma voglio anche avere l'opzione di pagine comuni 'brute force' per applicazioni web e tenta di continuare la scansione in base ai risultati trovati. Ad esempio, voglio che l'utente sia in grado di fornire un nome di dominio (esempio.com) e poi, una volta esaurito i collegamenti trovati nel sito principale, voglio provare sistematicamente un elenco predefinito di pagine note / comuni esistenti ( example.com/wp-login.php, example.com/admin.php, etc ...) e quindi utilizza qualsiasi pagina trovata da quella forza bruta per continuare la sua scansione.
So che NMap ha qualcosa di simile a questo con il link . Tuttavia, ho dato un'occhiata al file .nse raw e non sembra che stia tirando da una lista, piuttosto che costruisca i link in un altro modo (non abbastanza strong con nse per sapere come). Qualcuno sa se esiste un elenco di pagine comuni che potrei essere in grado di inserire nel mio programma? Credo che questo rientrerebbe nel territorio di "Google Dork"? Anche qualcosa come la "top 100" sarebbe buono.
So che sarebbe rumoroso, ma ho intenzione di dare agli utenti il controllo su quanto aggressivi vogliono che la scansione sia.
Grazie in anticipo!