Voglio impedire ai robot di inondare il mio sito Web e sto pensando a un divieto in questi casi ...
Posso supporre che un agente utente vuoto sarà sempre un robot?
Voglio impedire ai robot di inondare il mio sito Web e sto pensando a un divieto in questi casi ...
Posso supporre che un agente utente vuoto sarà sempre un robot?
Quasi sempre, ma non sempre. Potrebbe essere un utente dietro un proxy configurato male, o un'estensione del browser, o (più probabilmente) qualcuno che usi telnet / netcat:
netcat server 80
GET / HTTP/1.0
<enter>
<enter>
E fatto.
Puoi mettere al bando gli utenti senza User-Agent
impostato, ma è facile impostarne uno. curl
, wget
, aria2
, python
e quasi ogni singolo comando / libreria / quadro avrà un'opzione per sovrascrivere la stringa User-Agent.
È meglio implementare la limitazione della velocità su pagine sensibili, captcha quando viene raggiunto il limite e vietare dopo un certo numero di errori captcha.