Rilevamento del cloaking dal lato client

1

In base a questo documento (riferimento: sezione IX), potrebbe essere possibile per i client rilevare il cloaking. In pratica dice, ogni volta che recuperi una pagina da un URL (presumibilmente cliccato dai risultati della ricerca), tu (il tuo browser) genera un riassunto della pagina. Quindi possiamo confrontare questo digest con quello associato all'URL nei risultati di ricerca e concludere che la pagina è stata nascosta o meno in base alla deviazione dei risultati del digest.

Il documento prosegue aggiungendo che in caso di pagine web dinamiche come il sito di notizie, questa deviazione potrebbe essere significativa e in più se un servizio di cloaking serve una pagina con un pulsante aggiuntivo che può portare allo spam, il digest continuerà comunque essere più o meno come abbiamo appena aggiunto un pulsante.

C'è un meccanismo che supera questo inconveniente? Stavo pensando a una soluzione: collegare nonce a ogni pagina e confrontare il nonce fornito all'utente e al crawler, ma poi si è scoperto che aggiungeva un sovraccarico di calcolo significativo. C'è un modo attraverso il quale posso testare che crawler e client ottengano effettivamente lo stesso contenuto in caso di pagine dinamiche?

    
posta Paul Schimmer 18.04.2017 - 05:03
fonte

0 risposte

Leggi altre domande sui tag