Robots.txt e aree di amministrazione

4

Sto usando alcuni popolari software di forum commerciali e per aiutare a proteggere l'area di amministrazione più ho cambiato il nome della cartella di amministrazione; comunque mi stavo chiedendo, per quanto riguarda il file robots.txt, se procedo con la messa:

User-agent: *
Disallow: /random_admin_name/

Quindi non esporrò il nome dell'amministratore "segreto" ora!?

Quindi la mia domanda è: come faccio a impedire che l'amministratore venga indicizzato e trovato da qualcun altro?

    
posta Brett 24.04.2014 - 17:12
fonte

4 risposte

6

Rinominandolo in qualcosa, quindi spingere quel nome in robots.txt mostra semplicemente a un utente malintenzionato quale directory si desidera proteggere. Pensa a quanto segue: "Inserirò i miei gioielli nel terzo cassetto, ma lascerò un segno per un ladro che dice: 'non guardare nel terzo cassetto!'"

La tua vera opzione per proteggerti qui è inserire un file .htaccess nella directory che NON vuoi accedere, e in quel file .htaccess SOLO ti dai la possibilità di visualizzare quella directory

Order Deny,Allow
Deny from all
Allow from 127.0.0.1 (where this is your IP)

Oppure puoi aggiungere mod_security e aggiungere una riscrittura simile.

    
risposta data 24.04.2014 - 17:37
fonte
3

how do I stop the admin from being indexed and found by someone else?

Da utilizzando i meta tag per bloccare l'accesso al tuo sito puoi aggiungere quanto segue al tuo <head> sezione della pagina:

<meta name="robots" content="noindex">

Tuttavia, questo è considerato come Sicurezza attraverso l'oscurità . Questo non è male di per sé, ma tieni presente che non aggiunge alcuna sicurezza reale al tuo sito di amministrazione. Ciò impedirà che venga indicizzato dagli spider di ricerca conformi e impedirà a un utente malintenzionato di leggere robots.txt per trovarlo. Tuttavia, dovresti assicurarti che il tuo sistema di amministrazione sia il più sicuro possibile (idealmente testato esternamente) e bloccato (ad esempio, per indirizzo IP o accessibile solo tramite VPN).

    
risposta data 24.04.2014 - 18:07
fonte
2

Non preoccuparti che venga trovato da qualcun altro. Avere un URL segreto è solo sicurezza attraverso l'oscurità . Sentiti libero di disabilitare i robot, dal momento che non vuoi che venga sottoposto a scansione, ma utilizza account / ruoli / ecc per effettivamente proteggere la pagina.

Non puoi progettare un sistema sicuro e avere la speranza che qualcuno non inciampi in una pagina Web segreta che mina tutto. Supponiamo che lo troveranno e progetteranno per questo. Ciò significa utilizzare una password complessa , che rileva / blocco di utenti malintenzionati, HTTPS:// , ecc.

    
risposta data 24.04.2014 - 17:17
fonte
1

Robots.txt non fermerà i robot cattivi, ma solo i motori di ricerca. crea un file .htaccess e inserisci

 Order Allow,Deny
 Allow from 192.168 #LAN IPs
 Allow from 10. #LAN IPs
 Allow from 127. #Localhost
 Deny from All
 #Uncomment the line below to show a custom 403 forbidden message
 #Seen when users not Allowed try to visit
 #ErrorDocument 403 "You are not allowed here"

Fai clic su Salva.

    
risposta data 26.04.2014 - 17:59
fonte

Leggi altre domande sui tag