• User Attivo

    problema file robots ed errori 404

    Salve ragazzi ho un problema con un vecchio sito in joomla trasformato in sito statico...
    per esigenze di sviluppo abbiamo spostato tutto il sito fatto in joomla in una cartella "vecchio-sito"
    il file robots.txt è cosi composto:

    User-agent:
    *Disallow:
    /media/Disallow:
    /modules/Disallow:
    /plugins/Disallow:
    /vecchio-sito/
    Disallow:/ecom/

    il problema è che in web master tool continua a darmi una marea di pagina con errore 404 tutte pagine e url del vecchio sito in joomla...adesso supera le 240 pagine non trovate..
    ma non riesco a capire come mai?
    ho inviato anche la nuova sitemap con i nuovi url... non capisco da dove recupera gli url del vecchio sito se non sono presenti più nelle sitemap e sono bloccati dal file robots

    Non ne riesco a venire a capo....


  • User Attivo

    Scusate... errori di formattazione.. il file robots è cosi:
    User-agent:*
    Disallow:/media/
    Disallow: /modules/
    Disallow:/plugins/
    Disallow:/vecchio-sito/
    Disallow:/ecom/


  • User Attivo

    @siti24 said:

    non capisco da dove recupera gli url del vecchio sito se non sono presenti più nelle sitemap e sono bloccati dal file robots

    E' possibile che ci voglia solo un po' di tempo perchè si aggiorni. Da quanto ne so io ci può mettere anche molto tempo.

    Comunque se nei Google Webmaster Tools clicchi sulle url relative ai 404 ti si apre finestrella dove c'è scheda "Con link da" e vedi quali pagine linkano quella che restituisce 404.


  • User Attivo

    Ciao Bra_mik, il problema sta proprio li... quando dagli strumenti apro il dettaglio delle pagine con errore 404, queste risultano linkate da pagine che allo stesso modo non esistono più!
    quindi mi chiedo? da dove le ripesca google? Come tempo sarà passato un mese buono ormai...quindi google avrebbe dovuto già fare il suo consueto aggiornamento mensile..


  • User Attivo

    Nessuno può darmi una mano?