Come capire se l'umano sta usando un sito Web o uno script automatico?

0

So che alcuni siti web affermano nei loro termini e servizi che il sito web è accessibile solo agli utenti e non a bot o script. Come fanno a sapere chi sta accedendo? Soprattutto con strumenti come AutoScript che registrano solo i movimenti del mouse e l'input da tastiera, non apparirebbe abbastanza naturale? Questo presuppone che non ci siano funzionalità di sicurezza aggiuntive come captchers.

Suppongo che se i file di registro mostrano che l'utente ha ripetuto esattamente le stesse azioni con la stessa identica tempistica, questa sarebbe una bandiera rossa. Ma non sarebbe difficile da controllare?

    
posta Celeritas 09.01.2017 - 01:05
fonte

3 risposte

1

Il metodo più comune è probabilmente un campo nascosto , i robot tendono per riempire questi, ma gli umani no.

È anche comune usare un captcha, naturalmente.

Quindi alcune persone usano JavaScript per rilevare eventi di pagina che normalmente si verificano solo in un browser reale. Ad esempio un evento click in un campo modulo.

Potrebbe anche essere possibile essere furbo con le tempistiche del browser, usando ancora JavaScript. Gli esseri umani digitano ad un ritmo molto più lento dei robot, ad esempio. Ci vorrà anche molto più tempo per riempire e inviare di un bot.

    
risposta data 09.01.2017 - 08:46
fonte
1
  • Per rilevare , il proprietario dei siti può implementare molti meccanismi come: tempistica delle richieste, contenuto delle richieste (i valori del campo), stringa dell'agente utente ... ecc.
  • Per protect , CAPTCHA (sta per: C ompletely A utomated P ublic T urare test per dire a C omputers e H umans A parte) è relativamente una buona misura, controllo della velocità di richiesta ... ecc.
risposta data 09.01.2017 - 10:03
fonte
0

Questo è un termine piuttosto vago. Questo può significare qualsiasi cosa:

  1. Non esiste alcun bots.txt per il motore di ricerca del portale Web che esegue la scansione
  2. Può bloccare più richieste web da un IP che sembra essere web scrapper.
  3. La pagina di destinazione della pagina Web javascript può tenere traccia delle attività dell'utente per determinare il movimento del mouse.

Non esiste una tecnologia di garanzia per determinare lo script di automazione, dal momento che esiste sempre un modo per mitigare vari meccanismi di rilevamento dei bot.

Il ToC esiste solo nel caso in cui:

  1. Il sito Web è un attacco di DDoS e può bloccare la richiesta di determinati client.
  2. Possono bloccare possibili attività di rottamazione del contenuto, ad es. mulini contenuto, prezzo confrontare i robot di demolizione.
risposta data 09.01.2017 - 12:20
fonte

Leggi altre domande sui tag