Blog è una singola pagina web che ottiene dati in modo asincrono, ricercabile dai motori di ricerca?

-1

Ho creato un blog per un amico.

L'ho progettato pesantemente attorno alla funzione $.ajax() di jQuery e di conseguenza è solo una singola pagina web che riceve i dati in modo asincrono (titolo, articolo, percorsi relativi all'immagine, ecc.) dal database.

Per navigare, un visitatore può fare quanto segue:

  • Digitare su una determinata ricerca <input> , il sito darà i pulsanti, e quindi quando viene premuto un pulsante, mostra i dati in modo asincrono rispetto all'area del documento del sito
  • Premi i pulsanti predefiniti e la pagina caricherà i dati in modo asincrono rispetto all'area del documento del sito

Essendo un sito web a pagina singola che fa tutto questo, non utilizzo affatto l'URL. Tutto il trasferimento di dati avviene tramite POST.

Il mio problema è questo: il contenuto della pagina, se mai pubblicato online, sarà ricercabile dai motori di ricerca?

Per contenuto intendo tutti i siti titoli disponibili, articoli scritti, commenti, ecc. essere ricercabili se lo codifico in questo modo?

Un altro programmatore mi ha criticato per questo perché, secondo lui, avrei dovuto creare un'applicazione che creava interi file HTML per il sito ogni volta che vengono scritti nuovi articoli, e utilizzare l'URL per navigazione così google e altri motori di ricerca possono massimizzare la ricerca. È vero?

* per singola pagina, volevo dire che lo spettatore può visitare da solo una singola pagina web del sito e non deve andare da nessun'altra parte. Ci sono anche altre pagine:

  • Affinché l'amministratore possa scrivere nuovi articoli, esiste una singola pagina web separata che esegue operazioni CRUD .
  • Dispongo anche di una pagina Web che produce JSON quando si esegue il POST.
posta Malky.Kid 17.08.2017 - 08:24
fonte

1 risposta

0

Ho letto da Pawel Skolski di Neoteric e da uxpin sulle applicazioni per pagina singola e applicazioni per più pagine.

In sintesi, affermano che gli MPA sono migliori per quello che sto cercando di ottenere, poiché ogni pagina può essere ottimizzata con le parole chiave per SEO.

In caso di blog, dove è preferibile trovare ogni articolo nei motori di ricerca, questa è la strada da percorrere.

Il problema alla radice deriva da una mancanza di comprensione del funzionamento dei motori di ricerca di Google (e della maggior parte degli altri).

Fai un sacco di lettura su come funziona googlebot ora, Ora capisco che devo seguire Progressive Enhancement indipendentemente se si tratta di un blog, o qualsiasi altro sito:

  • Il contenuto di base dovrebbe essere accessibile a tutti i browser Web ( Finora il mio contenuto può essere prodotto in IE 9. Penso che avrà problemi in IE8 )
  • Le funzionalità di base dovrebbero essere accessibili a tutti i browser web ( stessi sopra )
  • Il markup semantico contiene tutti i contenuti
  • Il layout avanzato è fornito da CSS collegati esternamente (nessun problema qui)
  • Il comportamento migliorato è fornito da JavaScript non invadente, collegato esternamente ( questo è il problema, il mio sito SPA DEPENDS su javascript per produrre il contenuto. )
  • Le preferenze del browser web degli utenti finali sono rispettate ( Ho fatto qualcosa di sbagliato. Il mio fa la ff: se javascript è disattivato chiedi loro di accenderlo, se il browser è IE, raccomandali di usare Chrome, Safari o Firefox. )

    Nel complesso, dovrò riscrivere il mio sito SPA in un ibrido che soddisferà i principi sopra descritti.

risposta data 18.08.2017 - 02:55
fonte

Leggi altre domande sui tag