• User

    Ho bisogno di chiarimenti sull'indicizzazione e il file robots.txt

    Salve da poco ho avviato un blog; leggendo info sull'indicizzazione ho scoperto che l'utilizzo del file robots.txt è importante per evitare un'indicizzazione dei contenuti duplicati. Dopo aver letto una guida ho creato questo robots.txt

    User-agent: Googlebot
    Disallow: /wp-login.php
    Disallow: /niubbissimo
    Disallow: /contattami
    Disallow: /author/admin
    Disallow: /category/*
    Disallow: /category/*/*
    
    Sitemap: xxxx://xxx.niubbissimo.com/sitemap.xml
    ```Ho verificato le pagine del blog indicizzate con:
    
    

    site:miosito

    
    A questo punto ho 2 domande per chi se ne intende:
    
    1)Il contenuto del robots.txt che ho creato è ok? (In pratica io voglio indicizzare solo ed esclusivamente i post)
    
    2)E' possibile che le pagine indicizzate che non corrispondono ai post vengano cancellate da google? Se si come? 
    
    Grazie in anticipo per ogni tipo di aiuto.
    
    p.s. Per una maggiore chiarezza aggiungo che il robots l'ho creato successivamente, cioè da 2-3 giorni mentre il blog l'ho avviato il14

  • User Attivo

    Ciao Eden,
    iscriviti agli strumenti per webmaster di google ed invia una richiesta di rimozione url per eliminare dall'indice le pagine in questione.
    Per quanto riguarda il robots.txt: sappi che l'all in one seo pack corregge automaticamente il problema dei contenuti duplicati su wordpress, per cui ti basta installare quello.