• User Newbie

    Errori di Scansione Google Webmaster

    Salve, sto gestendo un sito di commercio elettronico e sto cercando di guadagnarmi le prime posizioni per una parola chiave, "sigaretta elettronica"
    ma diciamo da oggi sono solo in testa alla 3° pagina.
    Gli strumenti di google mi danno 38 errori non trovato, sia di pagine che realmente esistono sia di pagine presenti solo nel vecchio sito (che aimè ho cancellato in tronco senza preoccuparmi minimamente.)
    Mentre ci sono 4 errori di non raggiungibile per

    .ariaecigarettes.com/component/user/remind.html/undefined
    .ariaecigarettes.com/component/user/reset.html/index.php
    .ariaecigarettes.com/index.php/component/user/undefined
    .ariaecigarettes.com/xxx.ariaecigarettes.com

    Addirittura gli errori provengono dalla sitemap (creata in maniera automatica).

    Dal passaggio al nuovo sito ci sono voluti un paio di mesi aggiustando di volta in volta home page e tag.
    Ogni volta che google ri-indicizza mi manda in primissima posizione (anche prima di wikipedia) e dopo poche ore mi risbatte in 3 pagina.

    Credo che la posizione in serp dipenda da questi errori, ho provato a togliere qualcosa dalla sitemap ma ancora non ne vuole saperne di aggiornarli e continua a visualizzarmeli.

    Avete idee?
    Grazie.

    Dominio:
    ariaecigarettes.com

    Motori:
    Google

    Prima indicizzazione o attività:
    2008

    Cambiamenti effettuati:
    restylinng sito

    Eventi legati ai link:
    nessun cambiamento

    Sito realizzato con:
    Joomla 1.5

    Come ho aumentato la popolarità:
    tag cloud in home page e modifica dei tag title e delle singole pagine.

    Chiavi:
    Sigaretta elettronica, cigarettes, refill, refills, ecigarettes, aria, ariaecigarettes, smetti di fumare, nicotina, e-cigs, e-cigarettes

    Sitemaps:
    Si


  • ModSenior

    Ciao bgvsan e benvenuto nel Forum GT.

    Secondo me puoi migliorare molto il layout del sito e non è solo un discorso grafico.
    Dagli un occhio con http://browsersize.googlelabs.com/

    Cercherei quanto prima anche di risolvere problemi di questo tipo:
    http://www.google.it/search?q="La+sigaretta+elettronica+di+Aria+è+capace+di+generare+e+ricreare+una+senzazione+unica+per+un+fumatore"&hl=it&safe=off&client=firefox-a&hs=f4l&rlz=1R1GGGL_it___IT344&filter=0


  • User Newbie

    ciao, e grazie delle risposte.

    in pratica dovrei modificare il template per raggiungere almeno una larghezza di 1024?

    per i duplicati del cerca non so proprio come intervenire perche sono generate con i link della tag cloud, non mi resta altro che disabilitarla.

    cmq oggi molti errori se ne sono andati sono passati da 38 a 10.

    per migliorare l'aspetto della home page cosa mi consigli?
    Ora sto cercando di rimpicciolirela dimensione e il peso delle foto in modo da renderlo piu veloce.


  • ModSenior

    Dai un occhio anche a questo:
    http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.html

    (Riguarda WordPress e non Joomla ma i concetti non cambiano).


  • User Newbie

    grazie!
    Ora ho disabilitato i tag dal Robots e vediamo come và!
    ho controllato il tempo medio di accesso alle pagine siamo intorno a 1500 che dite è troppo alto?

    ho controllato gli strumenti di google ho trovato molte cose duplicate. sono pagine di sezioni e categorie a volte e i tag title e i metatag non sono inappropriati. mi potete dare una mano su come faccio a modificarle?

    gli screen shot li trovate qui:
    TAG TITLE:
    ariaecigarettes.com/tag title.jpg
    DESC:
    ariaecigarettes.com/meta desc.jpg


  • User Newbie

    nessuno può aiutarmi su come ridurre e eliminare questi tag duplicati?


  • Super User

    La maggior parte di quei problemi li risolvi gestendo da robots txt il /component/search/

    Per quanto riguarda i 1500, se sono millisecondi direi che va benissimo.

    P.S.Attenzione alla scrittura dei post, usa sempre maiuscole dopo i punti.;)


  • User Newbie

    Grazie delle info, cercherò di stare attento alla punteggiatura.

    Comunque questo è il robots che ho impostato da più di una settimana, evidentemente ci vorranno un paio di settimane affinchè venga ripreso in considerazione.

    Naturalmente 1500 sono i millisecondi.

    
    User-agent: Googlebot
    Disallow:
    Disallow: /cgi-bin/
    Disallow: /images/
    Disallow: /administrator/
    Disallow: /cache/
    Disallow: /components/
    Disallow: /component/
    Disallow: /editor/
    Disallow: /help/
    Disallow: /includes/
    Disallow: /language/
    Disallow: /mambots/
    Disallow: /media/
    Disallow: /modules/
    Disallow: /templates/
    Disallow: /installation/
    Disallow: /tag/
    
    User-agent: Bullseye/1.0     
    User-agent: Black Hole
    User-agent: bot
    User-agent: bot-
    User-agent: bot/
    User-agent: CopyRightCheck    
    User-agent: CherryPicker
    User-agent: crawl
    User-agent: DittoSpyder    
    User-agent: DISCo Pump 3.1
    User-agent: EmailCollector
    User-agent: EmailSiphon
    User-agent: EmailWolf
    User-agent: ExtractorPro    
    User-agent: Googlebot-Image    
    User-agent: hloader    
    User-agent: humanlinks
    User-agent: LexiBot    .
    User-agent: LinkWalker
    User-agent: Microsoft URL
    User-agent: Microsoft URL Control - 5.01.4511
    User-agent: Microsoft URL Control - 6.00.8169
    User-agent: NetAttache    
    User-agent: NetAttache Light 1.1    
    User-agent: NetMechanic
    User-agent: Offline Explorer
    User-agent: robot
    User-agent: Spider
    User-agent: SuperBot
    User-agent: SuperBot/2.6
    User-agent: Teleport    
    User-agent: Titan
    User-agent: Voila
    User-agent: WebBandit    
    User-agent: WebCopier
    User-agent: webcopy
    User-agent: Web Image Collector
    User-agent: webmirror
    User-agent: WebReaper
    User-agent: website extractor
    User-agent: WinHTTrack
    User-agent: Yahoo Slurp
    User-agent: Slurp
    User-agent: shinchakubin
    Disallow: /
    
    

  • Super User

    Beh, ovviamente ci vuole un po' di tempo prima che vengano rimosse le pagine dall'indice (puoi velocizzare enormemente utilizzando l'apposita funzione di rimozione url del webmaster tool) e ancora più tempo prima che il Webmaster tool ne dia riscontro.


  • User Newbie

    Ho provato a fare la rimozione url dall'apposito form di google webmaster.
    Sono state tutte accettate, il file robots presenta il disallow ma risultano ancora tutti gli errori relativi ai metatag duplicati, ovvero più di 80

    naturalmente la pagina degli errori risulta aggiornata a ieri!
    Idee?


  • Super User

    Viene aggiornata la pagina degli errori, ma spessissimo rimangono indietro tantissimi url. Il fatto che la pagina venga aggiornata in una data non significa che tutte le url contenute vengano verificare in quella data.

    Se hai seguito bene la procedura, non temere che verranno rimosse correttamente. Eventualmente puoi verificare tu direttamente nelle serp.


  • User Newbie