Come faccio a garantire che il mio sito venga sottoposto a scansione quando gli articoli vengono generati dal database?

1

Non ero sicuro di come porre la domanda. Ma fondamentalmente, è uno scenario da manuale. Sto lavorando a un sito basato sull'articolo, ma le informazioni sull'articolo sono archiviate in un database. Quindi la pagina viene visualizzata con le informazioni nel database in base all'ID dell'articolo richiesto:

Ad esempio: http://www.mysite.com/articles/9851

Sono nuovo di SEO, quindi mi chiedo come i motori siano in grado di scansionare il contenuto di pagine come questa e / o cosa devo fare per assicurarmi che sarà strisciato.

Quindi, ad esempio, questo sito. Tutti gli articoli / post su questo sito sembrano vivere in un database da qualche parte. L'URL ha un ID che sembra essere usato per dire al server quali dati utilizzare per generare la pagina - quindi la pagina non esiste in realtà da qualche parte, ma è il modello. Quando cerco google, potrei trovare uno di questi post in base al contenuto del post.

Capisco che i crawler normalmente trovano solo una pagina e seguono i suoi link e seguono i link dei suoi link e così via, ma come funziona quando il sito è basato sulla ricerca in questo modo? È necessario creare una pagina che raccolga in modo casuale gli articoli dal database in modo che il crawler possa vederli o qualcosa del genere?

    
posta Sinaesthetic 01.08.2014 - 07:14
fonte

2 risposte

1

Al suo modo più semplice, i motori di ricerca stanno leggendo solo HTML. La pagina web di un determinato URL è solo un file HTML per un motore di ricerca, quindi non sa che è coinvolta una query del database. Sa solo che il file HTML contiene testo e collegamenti, una spiegazione eccessivamente semplificata, ma abbastanza accurata per questo scenario.

@RomanMik ha l'idea giusta. È necessario rivedere la documentazione di Google, ma indipendentemente dal motore di ricerca, il processo è lo stesso:

  1. Invia il tuo sito al motore di ricerca
  2. Il tuo sito ha bisogno di collegamenti - molti link e collegamenti con testo descrittivo - per il resto delle pagine del tuo sito
  3. Un file robots.txt nella radice del tuo dominio può aiutare a modificare gli indicizzatori di ricerca, in genere dicendo loro di ignorare determinate directory o tipi di file
  4. Crea nuovi contenuti e aggiorna la pagina iniziale e le pagine delle sezioni del tuo sito per collegarti ai nuovi contenuti

Un indicizzatore di ricerca inizierà dalla tua home page, indicizzerà, quindi passerà alle pagine secondarie del tuo sito in base ai link che trova nel documento che sta indicizzando al momento.

Dimentica di pensare ai motori di ricerca e al tuo sito in termini di database. È tutto HTML per un motore di ricerca, e hanno bisogno di nuovi contenuti, contenuti descrittivi e collegamenti ad altre pagine. Fallo e hai eliminato il primo ostacolo principale.

    
risposta data 01.08.2014 - 19:33
fonte
0

Poiché Google è il motore di ricerca più grande e TUTTI i siti vogliono essere sottoposti a scansione da Google, ti suggerisco di iniziare con la pagina degli strumenti per i webmaster di Google. ( link ). È pieno di risorse utili.

Per rispondere alla tua domanda, fornisci un robot.txt o una mappa del sito con tutti i link che desideri vengano sottoposti a scansione e indicizzazione dai motori di ricerca. Ecco una risposta dettagliata su come inviare una sitemap a google. link

    
risposta data 01.08.2014 - 18:35
fonte

Leggi altre domande sui tag