Strane richieste al mio server

2

Di recente ho controllato i miei registri e ho trovato alcune strane richieste al mio server. ad esempio

GET /path/Microsoft.XMLHTTP HTTP/1.0
GET /path2/Scripting.FileSystemObject HTTP/1.0

Un ulteriore controllo sembra indicare che alcuni robot eseguono l'archiviazione del sito web. Un bot di archiviazione Web eseguirà tali richieste sotto forma di comandi per archiviare il nostro sito?

Ad esempio, se proviene da Internet Archive o da qualche libreria che esegue l'archiviazione, questi bot di archiviazione effettivamente eseguiranno tali richieste? Penso che farebbero solo spidering o afferreranno l'intero sito web e non invocheranno tali comandi.

Aggiornamento:

Dopo ulteriori indagini, ho scoperto che il bot di archiviazione probabilmente ha approfondito l'analisi di un javascript in quella pagina e ha acquisito quelle dichiarazioni che contengono Scripting.FileSystem , ad esempio

var FSO = new ActiveXObject("Scripting.FileSystemObject");

Probabilmente il motivo è che il bot ha bisogno di ottenere tutto ciò che può trovare, quindi anche ActiveXobjects. È logico pensare in questo modo?

    
posta Pang Ser Lark 23.10.2015 - 10:19
fonte

2 risposte

4

Questo sembra essere un bot alla ricerca di vulnerabilità comuni nei siti web. Questi robot sono molto comunemente gestiti da hacker black-hat per identificare potenziali obiettivi di hacking. Tutti i siti Web vengono analizzati regolarmente da tali bot. È improbabile che si tratti di un attacco specificamente mirato a te.

L'unica difesa utile è assicurarsi di non avere applicazioni web vulnerabili sul tuo sito. Se utilizzi software standard sul tuo server (nell'intero stack dal sistema operativo ai singoli script), assicurati che siano sempre aggiornati.

    
risposta data 23.10.2015 - 10:43
fonte
3

È molto comune vedere le richieste dello scanner di vulnerabilità nei log del server.

Le pagine di default di tutti i principali strumenti di amministrazione di database, web, Linux e Windows, vengono controllate prima o poi, indipendentemente da ciò che si sta effettivamente utilizzando.

I robot cercano le password predefinite (invariate). I robot cercano anche di trovare altre vulnerabilità e controllano che forse usi software obsoleti con noti problemi di sicurezza.

Puoi persino acquistare tali servizi scanner da alcuni fornitori. La società eseguirà periodicamente la scansione del tuo sito, segnalando semplicemente tutti i problemi rilevati.

    
risposta data 23.10.2015 - 13:53
fonte

Leggi altre domande sui tag