• User Newbie

    ciao, e grazie delle risposte.

    in pratica dovrei modificare il template per raggiungere almeno una larghezza di 1024?

    per i duplicati del cerca non so proprio come intervenire perche sono generate con i link della tag cloud, non mi resta altro che disabilitarla.

    cmq oggi molti errori se ne sono andati sono passati da 38 a 10.

    per migliorare l'aspetto della home page cosa mi consigli?
    Ora sto cercando di rimpicciolirela dimensione e il peso delle foto in modo da renderlo piu veloce.


  • ModSenior

    Dai un occhio anche a questo:
    http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.html

    (Riguarda WordPress e non Joomla ma i concetti non cambiano).


  • User Newbie

    grazie!
    Ora ho disabilitato i tag dal Robots e vediamo come và!
    ho controllato il tempo medio di accesso alle pagine siamo intorno a 1500 che dite è troppo alto?

    ho controllato gli strumenti di google ho trovato molte cose duplicate. sono pagine di sezioni e categorie a volte e i tag title e i metatag non sono inappropriati. mi potete dare una mano su come faccio a modificarle?

    gli screen shot li trovate qui:
    TAG TITLE:
    ariaecigarettes.com/tag title.jpg
    DESC:
    ariaecigarettes.com/meta desc.jpg


  • User Newbie

    nessuno può aiutarmi su come ridurre e eliminare questi tag duplicati?


  • Super User

    La maggior parte di quei problemi li risolvi gestendo da robots txt il /component/search/

    Per quanto riguarda i 1500, se sono millisecondi direi che va benissimo.

    P.S.Attenzione alla scrittura dei post, usa sempre maiuscole dopo i punti.;)


  • User Newbie

    Grazie delle info, cercherò di stare attento alla punteggiatura.

    Comunque questo è il robots che ho impostato da più di una settimana, evidentemente ci vorranno un paio di settimane affinchè venga ripreso in considerazione.

    Naturalmente 1500 sono i millisecondi.

    
    User-agent: Googlebot
    Disallow:
    Disallow: /cgi-bin/
    Disallow: /images/
    Disallow: /administrator/
    Disallow: /cache/
    Disallow: /components/
    Disallow: /component/
    Disallow: /editor/
    Disallow: /help/
    Disallow: /includes/
    Disallow: /language/
    Disallow: /mambots/
    Disallow: /media/
    Disallow: /modules/
    Disallow: /templates/
    Disallow: /installation/
    Disallow: /tag/
    
    User-agent: Bullseye/1.0     
    User-agent: Black Hole
    User-agent: bot
    User-agent: bot-
    User-agent: bot/
    User-agent: CopyRightCheck    
    User-agent: CherryPicker
    User-agent: crawl
    User-agent: DittoSpyder    
    User-agent: DISCo Pump 3.1
    User-agent: EmailCollector
    User-agent: EmailSiphon
    User-agent: EmailWolf
    User-agent: ExtractorPro    
    User-agent: Googlebot-Image    
    User-agent: hloader    
    User-agent: humanlinks
    User-agent: LexiBot    .
    User-agent: LinkWalker
    User-agent: Microsoft URL
    User-agent: Microsoft URL Control - 5.01.4511
    User-agent: Microsoft URL Control - 6.00.8169
    User-agent: NetAttache    
    User-agent: NetAttache Light 1.1    
    User-agent: NetMechanic
    User-agent: Offline Explorer
    User-agent: robot
    User-agent: Spider
    User-agent: SuperBot
    User-agent: SuperBot/2.6
    User-agent: Teleport    
    User-agent: Titan
    User-agent: Voila
    User-agent: WebBandit    
    User-agent: WebCopier
    User-agent: webcopy
    User-agent: Web Image Collector
    User-agent: webmirror
    User-agent: WebReaper
    User-agent: website extractor
    User-agent: WinHTTrack
    User-agent: Yahoo Slurp
    User-agent: Slurp
    User-agent: shinchakubin
    Disallow: /
    
    

  • Super User

    Beh, ovviamente ci vuole un po' di tempo prima che vengano rimosse le pagine dall'indice (puoi velocizzare enormemente utilizzando l'apposita funzione di rimozione url del webmaster tool) e ancora più tempo prima che il Webmaster tool ne dia riscontro.


  • User Newbie

    Ho provato a fare la rimozione url dall'apposito form di google webmaster.
    Sono state tutte accettate, il file robots presenta il disallow ma risultano ancora tutti gli errori relativi ai metatag duplicati, ovvero più di 80

    naturalmente la pagina degli errori risulta aggiornata a ieri!
    Idee?


  • Super User

    Viene aggiornata la pagina degli errori, ma spessissimo rimangono indietro tantissimi url. Il fatto che la pagina venga aggiornata in una data non significa che tutte le url contenute vengano verificare in quella data.

    Se hai seguito bene la procedura, non temere che verranno rimosse correttamente. Eventualmente puoi verificare tu direttamente nelle serp.


  • User Newbie