Robot crawler automatico per verificare l'autenticità delle pagine Web?

-3

I nostri server sembrano essere comunemente hackerati, per lo più inserendo codici / frame dannosi nelle nostre pagine Web o cambiando file scaricabili con backdoor e così via.

Esiste uno strumento in grado di eseguire la scansione delle pagine del nostro sito Web, codici, file, ecc. e creare un database hash e, se qualcosa è cambiato, informarmi immediatamente via e-mail in modo da poterlo risolvere il più velocemente possibile?

Controllare tutto manualmente è difficile.

    
posta robocheck 02.03.2013 - 22:50
fonte

2 risposte

3

Se hai siti statici, potrebbe avere senso controllare i file sul frontend, ma se hai un sito dinamico come un CMS, sarà molto difficile rilevare le modifiche tramite la scansione, perché per definizione le pagine dovrebbero essere cambiando frequentemente il loro contenuto.

Sul back-end, puoi verificare che il tuo codice non sia stato violato o modificato utilizzando il software di monitoraggio dell'integrità dei file, come tripwire . Questo ti farebbe sapere se qualcuno ha cambiato i file sorgente, aggiunto nuovi file, ecc. Tuttavia, questo non ti aiuterà a rilevare l'XSS riflesso che si trova nel database, ecc. Potresti scrivere degli script per verificare l'integrità del database.

Tuttavia, se si dispone di vulnerabilità che consentono di ottenere i privilegi di root, potrebbero essere in grado di disattivare il monitoraggio dell'integrità dei file. Se esegui il tuo server web in un chroot / jail , ciò potrebbe ridurre tale verosimiglianza.

Se possibile, potresti anche voler esaminare la migrazione dei tuoi contenuti di solo informazioni su un generatore di siti statici come jekyll o < a href="https://github.com/getpelican/pelican"> pellicano . Questo ti aiuterà a ridurre il tuo ingombro.

    
risposta data 02.03.2013 - 22:59
fonte
0

L' utilità GNU GNU ha opzioni per scansione ricorsiva e download ; è abbastanza conveniente recuperare automaticamente un sito completo. Potresti usarlo per automatizzare il confronto dello stato attuale del tuo sito con quello che ti aspetti. Tuttavia, tieni presente quanto segue:

  • Questo ti darà solo il risultato . Ad esempio, qualsiasi codice PHP viene valutato lato server, quindi non lo vedi durante il download, solo ciò che il codice attualmente scelto per l'invio. Un malintenzionato astuto potrebbe tentare di rilevare il crawler e servirlo come sito "normale", mentre invia le pagine rimosse a tutti gli altri.

  • Si presume che abbia una "normale immagine del sito" con cui confrontare. Questo è facile per i siti con solo contenuto statico, ma molto difficile per i siti con contenuti dinamici.

  • Questo è come pagare i poliziotti per seguire i criminali e scrivere scrupolosamente ogni crimine in grandi libri. Contabilità magistrale, alto tasso di criminalità. Il rilevamento del crimine è buono, la prevenzione della criminalità è migliore.

risposta data 03.03.2013 - 15:14
fonte

Leggi altre domande sui tag