• User Attivo

    Alternativa a Redirect 301

    Sto sistemando su google webmaster la sezione errori di scansione, ho rimosso fisicamente durante gli anni un centinaio di pagine, queste avevano dei backlink e veniva segnalato errore, contattando i proprietari dei siti che puntavano alle mie pagine ho sistemato quasi definitivamente la cosa.

    Mi rimangono una decina di pagine dove non posso far rimuovere i backlink, potrei optare per una redirect 301 in modo da passare il valore dei backlink ad altre pagine ma questa cosa non mi interessa.

    Visto che sono solo una decina di pagine stavo pensando di ricrearle tutte uguali con questa struttura:

    <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
    <html>
    <head>
    <title></title>
    <meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
    <meta name="robots" content="noindex, nofollow">
    </head>
    <body>
    </body>
    </html>

    Usando il metatag noindex e nofollow evito che le pagine vengano indicizzate ed evito che googlebot ci perda tempo a scansionarle e non rileva il duplicamento.

    Le pagine verranno solamente inserite sul server ma non avranno link che puntano ad esse dal sito madre e saranno anche fuori dalle sitemap.

    Secondo voi potrebbero esserci delle controindicazioni che mi sono sfuggite?:?


  • Moderatore

    Ciao vocalis.

    Controindicazioni non ne vedo, a parte il fatto che il crawler comunque visualizzerà periodicamente la pagina perdendoci un infinitesimale tempo.

    Risolveresti anche questo problema bloccando da robots.txt.

    Se non vuoi rinunciare a tutto il valore dei backlink e soprattutto non vuoi perdere l'utente in ingresso pur non implementando il redirect 301 puoi creare una pagina di cortesia con pochissimo testo ed un solo link alla home. Assegnando poi a questa pagina un "noindex,follow" permetteresti sia al navigatore che al bot di Google di continuare la navigazione.


  • User Attivo

    Tramite i backlink esterni comunque il crawler ci andava anche prima, non trovava le pagine e segnalava errore 404; ora trova la pagina niente più errori.

    Riguardo al discorso di bloccare tramite robots.txt non ne vedo l'utilità visto che ho inserito il metatag nofollow.
    Il crawler ci entrerà sì una volta per salvare la pagina ma poi una volta individuato il nofollow non dovrebbe tornarci più.
    (È teoria non ho mai fatto test sul nofollow come metatag ma solo nei link e li funziona bene, come metatag non funziona correttamente?)

    L'idea di inserire nelle pagine un link che punta alla home non è malvagia, ho dubbi sul fatto che però me le segnali come duplicate già adesso... Questa cosa la lascio in sospeso.


  • Moderatore

    Certamente se adesso Google legge il "noindex" non corri il rischio di vedere la pagina indicizzata, con conseguente cancellazione degli errori.

    Per quanto riguarda la teoria sul meta "robots" penso tu abbia le idee leggermente confuse.
    L'attributo "noindex" significa: bot, non restituire questa pagina nei risultati di ricerca. Comunque leggila se vuoi ed estrapola da essa tutti i link dei quali hai bisogno per i calcoli delle metriche "off page".
    L'attributo "nofollow" vuol dire: considera tutti i link della pagina come se avessero il rel "nofollow".

    Con il codice che hai proposto, nulla vieta a Google di tornare periodicamente e di visionare il codice; in ogni caso la pagina non sarà indicizzata e non potrà dunque dare origine a contenuti duplicati.
    I bot tornerà comunque sempre meno spesso vedendo che la situazione non cambia e lo spreco di risorse sarà del tutto infinitesimale.

    Spero che adesso anche la soluzione che ho proposto in precedenza ti sia più chiara; ad ogni modo resto a disposizione.

    Buon lavoro!