How does google index dynamic websites?
"Crawler" è un termine generico per qualsiasi programma (come un robot o uno spider) utilizzato per rilevare e scansionare automaticamente i siti Web seguendo i collegamenti da una pagina web a un'altra. Il crawler principale di Google si chiama Googlebot . Consulta questo elenco di crawler di Google .
Oggi la maggior parte dei crawler non può indicizzare l'intera pagina dinamica, ma indicizzerà la maggior parte del contenuto su tutte le pagine e questo è esattamente il risultato finale che stiamo cercando.
Dopo aver scansionato una pagina, il passo successivo è indicizzare il suo contenuto. La pagina indicizzata viene archiviata in un gigantesco database, da cui può essere successivamente recuperata.
In sostanza, il processo di indicizzazione sta identificando le parole e le espressioni che meglio descrivono la pagina e assegnano determinate parole chiave alla pagina. Per un umano non sarà possibile elaborare tali quantità di informazioni ma generalmente i motori di ricerca si comportano bene con questo compito.
A volte potrebbero non avere il significato di una pagina giusta, ma se li aiuti ottimizzandolo, sarà più facile per loro classificare le tue pagine correttamente e ottenere punteggi più alti.
Quando arriva una richiesta di ricerca, il motore di ricerca la elabora, cioè confronta la stringa di ricerca nella richiesta di ricerca con le pagine indicizzate nel database. Poiché è probabile che più di una pagina (praticamente milioni di pagine) contenga la stringa di ricerca, il motore di ricerca inizia a calcolare la pertinenza di ciascuna delle pagine nel suo indice con la stringa di ricerca.
Per un elenco dei fattori di ranking puoi vedere Fattori di ranking dei motori di ricerca e googlewebmastercentral blog. Un buon articolo riguardante il problema dell'indicizzazione è "Come ottimizzare un sito web dinamico" che chiarirà i dubbi relativi all'indicizzazione dei siti Web dinamici.
What does Google index and keep on its servers?
Dall'articolo di Wikipedia su Indice dei motori di ricerca :
Search engine indexing collects, parses, and stores data to facilitate fast and accurate information retrieval. Index design incorporates interdisciplinary concepts from linguistics, cognitive psychology, mathematics, informatics, physics, and computer science. An alternate name for the process in the context of search engines designed to find web pages on the Internet is Web indexing.