• User Attivo

    Google non riuscirà a leggerle?

    Buon pomeriggio a tutti.
    Ho creato una ventina di pagine php sul mio sito, naturalmente tutte diverse fra loro (titolo, contenuto etc) che contengono alcuni servizi online per gli utenti.

    Si sono posizionate per le loro key tutte in prima pagina su google, e mi portano già visitatori.

    All'interno però abbiamo deciso di rendere queste pagine accessibili soltanto ad utenti registrati, che hanno effettuato prima il login al sito. Per cui devo inserire un codice nelle suddette pagine che controlli che l'utente sia loggato, altrimenti li rimanda automaticamente alla pagina di login/registrazione.

    Cosi facendo però mi sa che anche lo spider verrà automaticamente indirizzato a questa pagina giusto? e che quindi non riesca a leggerne il contenuto . che fare?

    Posso dire allo script di controllare chi è a richiedere la pagina, e se è googlebot di farlo entrare ugualmente anche se non autenticato? è una valida soluzione ?

    Grazie come sempre


  • User

    ciao!
    io opterei per una soluzione diversa: nella pagina mostrare le form ed i contenuti, però disabilitandoli... ed invitando l'utente a registrarsi (se preme il tasto "invia dati" viene visualizzato un warning oppure viene mostrato un box di avviso 🙂 )


  • User Attivo

    @mhacknet said:

    Posso dire allo script di controllare chi è a richiedere la pagina, e se è googlebot di farlo entrare ugualmente anche se non autenticato? è una valida soluzione ?

    Grazie come sempre

    Molti fanno così ma rischia di essere marchiato come cloacking => ban.

    Ti consiglio di liberare i contenuti, magari metà accessibile a tutti e l'altra solo agli utenti registrati.

    :ciauz:


  • User Attivo

    Vi ringrazio, infatti non mi posso permettere di perdere le pagine o di risultare come cloacking...

    Per cui ho optato per la disabilitazione del tasto del form fin quando non autenticato...

    Grazie..