Non ero sicuro di come porre la domanda. Ma fondamentalmente, è uno scenario da manuale. Sto lavorando a un sito basato sull'articolo, ma le informazioni sull'articolo sono archiviate in un database. Quindi la pagina viene visualizzata con le informazioni nel database in base all'ID dell'articolo richiesto:
Ad esempio: http://www.mysite.com/articles/9851
Sono nuovo di SEO, quindi mi chiedo come i motori siano in grado di scansionare il contenuto di pagine come questa e / o cosa devo fare per assicurarmi che sarà strisciato.
Quindi, ad esempio, questo sito. Tutti gli articoli / post su questo sito sembrano vivere in un database da qualche parte. L'URL ha un ID che sembra essere usato per dire al server quali dati utilizzare per generare la pagina - quindi la pagina non esiste in realtà da qualche parte, ma è il modello. Quando cerco google, potrei trovare uno di questi post in base al contenuto del post.
Capisco che i crawler normalmente trovano solo una pagina e seguono i suoi link e seguono i link dei suoi link e così via, ma come funziona quando il sito è basato sulla ricerca in questo modo? È necessario creare una pagina che raccolga in modo casuale gli articoli dal database in modo che il crawler possa vederli o qualcosa del genere?