L'indizio qui è dove dici di aver ricevuto una richiesta di GET
duplicata. Il resto della tua domanda mi ha quasi messo fuori strada, pensando a qualche client (o un altro server per suo conto per qualsiasi motivo) richieste duplicate di POST
, o persino intestazioni di richieste complete duplicate (cookie, e.t.c.). Ma quello che descrivi potrebbe anche essere letto come "lo stesso URL è stato richiesto" .
Ad ogni modo, il motivo più comune per le richieste duplicate di GET
provengono da quelli che sono conosciuti come proxy di cache . Alcuni di questi prodotti possono essere rilevati apparentemente senza alcun supporto per la compressione ( gzip
, deflate
, ...) mostrati nei registri come richieste duplicate ma la dimensione della risposta sarà maggiore, come ProxySG di Blue Coat System (apparentemente uno dei più grandi player nel settore delle appliance proxy). Altri potrebbero modificare User Agent
string di conseguenza per identificarsi agli amministratori del Web leggendo registri di accesso, firewall di applicazioni Web, ecc. E alcune richieste di ripetizione completamente sinonime alle richieste originali e solo IP address
potrebbe differire, anche se (se il client utilizza il proxy anche come gateway, quindi IP address
rimarrà esattamente lo stesso e le richieste ripetute seguiranno le intestazioni di scadenza della cache dei contenuti richiesti).
Questi caching proxies
possono essere un po 'fastidiosi a volte (si veda ad esempio questo ranting su Soluzioni Blue Coat System ), ma non sono considerate come una particolare minaccia alla sicurezza. Beh, almeno non in modo diverso rispetto a tutti gli altri proxy - alla fine della giornata, sono Uomini in Gli host centrali e non attendibili possono essere considerati estremamente rischiosi da utilizzare per gli utenti finali. Ma molte reti le usano per vari motivi, come la memorizzazione nella cache locale per ridurre le esigenze di larghezza di banda per gli host remoti, accelerare i tempi di risposta, persino memorizzare più vecchie copie dei documenti accessibili per l'accessibilità. E in un certo senso, Google è il più grande proxy che conosciamo. Quello che sto dicendo è che non vi è alcuna indicazione che la richiesta che descrivesti sia stata duplicata con intenzioni malevoli, e tale richiesta di duplicazioni non dovrebbe causare alcun problema sul tuo server (oltre a un occasionale inutile consumo di larghezza di banda), se le tue applicazioni web sono scritte correttamente, per autorizzare nuovamente gli utenti ogni volta che è necessario e utilizzare altri mezzi per identificare i singoli utenti rispetto ai parametri GET
della richiesta di URI
(come cookies
, i proxy di caching non dannosi non devono allegare alle loro richieste duplicate per la memorizzazione nella cache scopi).
Non sto dicendo che quello che è successo non è stato un tentativo malevolo, quello che sto dicendo è che ciò che descrivi non lo dimostra in alcun modo, e potrebbe anche essere stato un ospite benigno della varietà proxy di cache.