- Home
- Categorie
- Digital Marketing
- SEO
- Errori di Scansione Google Webmaster
-
Ciao bgvsan e benvenuto nel Forum GT.
Secondo me puoi migliorare molto il layout del sito e non è solo un discorso grafico.
Dagli un occhio con http://browsersize.googlelabs.com/Cercherei quanto prima anche di risolvere problemi di questo tipo:
http://www.google.it/search?q="La+sigaretta+elettronica+di+Aria+è+capace+di+generare+e+ricreare+una+senzazione+unica+per+un+fumatore"&hl=it&safe=off&client=firefox-a&hs=f4l&rlz=1R1GGGL_it___IT344&filter=0
-
ciao, e grazie delle risposte.
in pratica dovrei modificare il template per raggiungere almeno una larghezza di 1024?
per i duplicati del cerca non so proprio come intervenire perche sono generate con i link della tag cloud, non mi resta altro che disabilitarla.
cmq oggi molti errori se ne sono andati sono passati da 38 a 10.
per migliorare l'aspetto della home page cosa mi consigli?
Ora sto cercando di rimpicciolirela dimensione e il peso delle foto in modo da renderlo piu veloce.
-
Dai un occhio anche a questo:
http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.html(Riguarda WordPress e non Joomla ma i concetti non cambiano).
-
grazie!
Ora ho disabilitato i tag dal Robots e vediamo come và!
ho controllato il tempo medio di accesso alle pagine siamo intorno a 1500 che dite è troppo alto?ho controllato gli strumenti di google ho trovato molte cose duplicate. sono pagine di sezioni e categorie a volte e i tag title e i metatag non sono inappropriati. mi potete dare una mano su come faccio a modificarle?
gli screen shot li trovate qui:
TAG TITLE:
ariaecigarettes.com/tag title.jpg
DESC:
ariaecigarettes.com/meta desc.jpg
-
nessuno può aiutarmi su come ridurre e eliminare questi tag duplicati?
-
La maggior parte di quei problemi li risolvi gestendo da robots txt il /component/search/
Per quanto riguarda i 1500, se sono millisecondi direi che va benissimo.
P.S.Attenzione alla scrittura dei post, usa sempre maiuscole dopo i punti.;)
-
Grazie delle info, cercherò di stare attento alla punteggiatura.
Comunque questo è il robots che ho impostato da più di una settimana, evidentemente ci vorranno un paio di settimane affinchè venga ripreso in considerazione.
Naturalmente 1500 sono i millisecondi.
User-agent: Googlebot Disallow: Disallow: /cgi-bin/ Disallow: /images/ Disallow: /administrator/ Disallow: /cache/ Disallow: /components/ Disallow: /component/ Disallow: /editor/ Disallow: /help/ Disallow: /includes/ Disallow: /language/ Disallow: /mambots/ Disallow: /media/ Disallow: /modules/ Disallow: /templates/ Disallow: /installation/ Disallow: /tag/ User-agent: Bullseye/1.0 User-agent: Black Hole User-agent: bot User-agent: bot- User-agent: bot/ User-agent: CopyRightCheck User-agent: CherryPicker User-agent: crawl User-agent: DittoSpyder User-agent: DISCo Pump 3.1 User-agent: EmailCollector User-agent: EmailSiphon User-agent: EmailWolf User-agent: ExtractorPro User-agent: Googlebot-Image User-agent: hloader User-agent: humanlinks User-agent: LexiBot . User-agent: LinkWalker User-agent: Microsoft URL User-agent: Microsoft URL Control - 5.01.4511 User-agent: Microsoft URL Control - 6.00.8169 User-agent: NetAttache User-agent: NetAttache Light 1.1 User-agent: NetMechanic User-agent: Offline Explorer User-agent: robot User-agent: Spider User-agent: SuperBot User-agent: SuperBot/2.6 User-agent: Teleport User-agent: Titan User-agent: Voila User-agent: WebBandit User-agent: WebCopier User-agent: webcopy User-agent: Web Image Collector User-agent: webmirror User-agent: WebReaper User-agent: website extractor User-agent: WinHTTrack User-agent: Yahoo Slurp User-agent: Slurp User-agent: shinchakubin Disallow: /
-
Beh, ovviamente ci vuole un po' di tempo prima che vengano rimosse le pagine dall'indice (puoi velocizzare enormemente utilizzando l'apposita funzione di rimozione url del webmaster tool) e ancora più tempo prima che il Webmaster tool ne dia riscontro.
-
Ho provato a fare la rimozione url dall'apposito form di google webmaster.
Sono state tutte accettate, il file robots presenta il disallow ma risultano ancora tutti gli errori relativi ai metatag duplicati, ovvero più di 80naturalmente la pagina degli errori risulta aggiornata a ieri!
Idee?
-
Viene aggiornata la pagina degli errori, ma spessissimo rimangono indietro tantissimi url. Il fatto che la pagina venga aggiornata in una data non significa che tutte le url contenute vengano verificare in quella data.
Se hai seguito bene la procedura, non temere che verranno rimosse correttamente. Eventualmente puoi verificare tu direttamente nelle serp.
-