Ho il mio sito web che mostra alcuni dati che ottengo da webscraping. Eseguo lo script webscraping sul mio server host del mio sito web. Ho appena realizzato che forse sto accedendo ad altri siti web troppo velocemente attraverso questo script. Ad esempio, ho appena scritto uno script che accede a 15 siti Web sullo stesso dominio in circa un secondo. Il mio server del sito Web si è bloccato poco dopo. Il mio webhost stava avendo qualche altro problema quindi non so se questi due eventi siano collegati o meno.
Ma immagino abbia sollevato un'altra domanda. Devo limitare la velocità con cui accedo ai siti Web per evitare un avviso di tipo Denial of Service (DOS) dal sito Web che accedo o dal mio host del server web? C'è una sorta di tasso sicuro di siti web al secondo o al minuto che dovrei seguire? Mi stavo solo chiedendo,
EDIT: Per chiarire, sì, potrei rallentare il processo di raccolta, ma in realtà sto raschiando un sacco di piccole informazioni da siti diversi, quindi l'accesso a molti siti Web potrebbe essere inevitabile. Inoltre, in base a ciò che sto facendo, ottenere le informazioni il più rapidamente possibile sarebbe utile. Quindi posso rallentare il processo, ma immagino di cercare quanto posso "spingere" il limite per ottenere le informazioni nel momento ottimale.