• User

    seo serie link da non indicizzare in un sito dinamico

    ciao.
    ho una ricerca che estrae delle immagini e dei testi; vorrei pero' che google non indicizzasse le pagine con la ricerca che sono tante perchè la ricerca è utilissima in questo sito.
    Il link per la ricerca puo essere ad es /ricerca/pittori/100 e estrae una serie di dati che non voglio che google indizizzi .
    a questo punto la domanda:
    1)è giusto non indicizzare le pagine della ricerca?altrimenti su search console crescono le pagine indicizzate a dismisura.
    2)come escludo se posso gli url che porto a pagine che non voglio indicizzare ? usare noindex forse?
    chiedo.
    ciao.

    Tipo:
    Altri


  • Moderatore

    Ciao giuseppe500,
    @giuseppe500 said:

    ciao.
    ho una ricerca che estrae delle immagini e dei testi; vorrei pero' che google non indicizzasse le pagine con la ricerca che sono tante perchè la ricerca è utilissima in questo sito.
    Il link per la ricerca puo essere ad es /ricerca/pittori/100 e estrae una serie di dati che non voglio che google indizizzi .
    a questo punto la domanda:
    1)è giusto non indicizzare le pagine della ricerca?altrimenti su search console crescono le pagine indicizzate a dismisura.
    2)come escludo se posso gli url che porto a pagine che non voglio indicizzare ? usare noindex forse?

    Tieni conto che Google preferisce non indicizzare pagine di risultati interni, lo considera una cattiva esperienza utente per i suoi visitatori. Ragion per cui invita a farle indicizzare solo quando contengono anche contenuti di valore aggiunto per l'utente.

    Puoi usare il valore noindex nel meta tag robots. Avrà l'effetto di non mostrare i risultati in SERP (in realtà sarà indicizzata lo stesso, ma questo ora è un sofisma).

    Ciò che noindex purtroppo non ottiene, è risparmiare il crawl budget. Se sei preoccupato che lo spider di google impieghi troppe risorse per visitare pagine di risultati interni a scapito di contenuti per te più strategici, puoi interdire l'accesso ai percorsi dei risultati interni tramite robots.txt

    Il rovescio della medaglia è che ciò non garantirebbe il prevenire l'indicizzazione - o meglio il non mostrare il SERP - di tali pagine, qualora vi fossero link esterni in numero sufficiente a indurre Google a pensare la risorsa sia di valore per i proprio utenti. E l'interdizione tramite robots.txt gli impedirebbe di leggere un noindex.
    L'URL potrebbe apparire con la dicitura "bloccato da robots.txt" nella pagina di risultati di Google, qualora si cliccasse il link in ultima pagina che ne abilita la visualizzazione.
    In generale non è un gran problema.

    Personalmente non mi farei problemi a bloccare da robots.txt
    Se però i risultati sono già stati indicizzati da Google e attualmente mostrati in SERP, prima di bloccarli da robots.txt li metterei a noindex, e invierei una sitemap temporanea con gli stessi per accelerarne la deindicizzazione. Solo in seguito imposterei il blocco in robots.txt

    Spero d'esserti stato utile.