- Home
- Categorie
- Digital Marketing
- SEO
- Errori di Scansione Google Webmaster
-
Errori di Scansione Google Webmaster
Salve, sto gestendo un sito di commercio elettronico e sto cercando di guadagnarmi le prime posizioni per una parola chiave, "sigaretta elettronica"
ma diciamo da oggi sono solo in testa alla 3° pagina.
Gli strumenti di google mi danno 38 errori non trovato, sia di pagine che realmente esistono sia di pagine presenti solo nel vecchio sito (che aimè ho cancellato in tronco senza preoccuparmi minimamente.)
Mentre ci sono 4 errori di non raggiungibile per.ariaecigarettes.com/component/user/remind.html/undefined
.ariaecigarettes.com/component/user/reset.html/index.php
.ariaecigarettes.com/index.php/component/user/undefined
.ariaecigarettes.com/xxx.ariaecigarettes.comAddirittura gli errori provengono dalla sitemap (creata in maniera automatica).
Dal passaggio al nuovo sito ci sono voluti un paio di mesi aggiustando di volta in volta home page e tag.
Ogni volta che google ri-indicizza mi manda in primissima posizione (anche prima di wikipedia) e dopo poche ore mi risbatte in 3 pagina.Credo che la posizione in serp dipenda da questi errori, ho provato a togliere qualcosa dalla sitemap ma ancora non ne vuole saperne di aggiornarli e continua a visualizzarmeli.
Avete idee?
Grazie.Dominio:
ariaecigarettes.comMotori:
GooglePrima indicizzazione o attività:
2008Cambiamenti effettuati:
restylinng sitoEventi legati ai link:
nessun cambiamentoSito realizzato con:
Joomla 1.5Come ho aumentato la popolarità:
tag cloud in home page e modifica dei tag title e delle singole pagine.Chiavi:
Sigaretta elettronica, cigarettes, refill, refills, ecigarettes, aria, ariaecigarettes, smetti di fumare, nicotina, e-cigs, e-cigarettesSitemaps:
Si
-
Ciao bgvsan e benvenuto nel Forum GT.
Secondo me puoi migliorare molto il layout del sito e non è solo un discorso grafico.
Dagli un occhio con http://browsersize.googlelabs.com/Cercherei quanto prima anche di risolvere problemi di questo tipo:
http://www.google.it/search?q="La+sigaretta+elettronica+di+Aria+è+capace+di+generare+e+ricreare+una+senzazione+unica+per+un+fumatore"&hl=it&safe=off&client=firefox-a&hs=f4l&rlz=1R1GGGL_it___IT344&filter=0
-
ciao, e grazie delle risposte.
in pratica dovrei modificare il template per raggiungere almeno una larghezza di 1024?
per i duplicati del cerca non so proprio come intervenire perche sono generate con i link della tag cloud, non mi resta altro che disabilitarla.
cmq oggi molti errori se ne sono andati sono passati da 38 a 10.
per migliorare l'aspetto della home page cosa mi consigli?
Ora sto cercando di rimpicciolirela dimensione e il peso delle foto in modo da renderlo piu veloce.
-
Dai un occhio anche a questo:
http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.html(Riguarda WordPress e non Joomla ma i concetti non cambiano).
-
grazie!
Ora ho disabilitato i tag dal Robots e vediamo come và!
ho controllato il tempo medio di accesso alle pagine siamo intorno a 1500 che dite è troppo alto?ho controllato gli strumenti di google ho trovato molte cose duplicate. sono pagine di sezioni e categorie a volte e i tag title e i metatag non sono inappropriati. mi potete dare una mano su come faccio a modificarle?
gli screen shot li trovate qui:
TAG TITLE:
ariaecigarettes.com/tag title.jpg
DESC:
ariaecigarettes.com/meta desc.jpg
-
nessuno può aiutarmi su come ridurre e eliminare questi tag duplicati?
-
La maggior parte di quei problemi li risolvi gestendo da robots txt il /component/search/
Per quanto riguarda i 1500, se sono millisecondi direi che va benissimo.
P.S.Attenzione alla scrittura dei post, usa sempre maiuscole dopo i punti.;)
-
Grazie delle info, cercherò di stare attento alla punteggiatura.
Comunque questo è il robots che ho impostato da più di una settimana, evidentemente ci vorranno un paio di settimane affinchè venga ripreso in considerazione.
Naturalmente 1500 sono i millisecondi.
User-agent: Googlebot Disallow: Disallow: /cgi-bin/ Disallow: /images/ Disallow: /administrator/ Disallow: /cache/ Disallow: /components/ Disallow: /component/ Disallow: /editor/ Disallow: /help/ Disallow: /includes/ Disallow: /language/ Disallow: /mambots/ Disallow: /media/ Disallow: /modules/ Disallow: /templates/ Disallow: /installation/ Disallow: /tag/ User-agent: Bullseye/1.0 User-agent: Black Hole User-agent: bot User-agent: bot- User-agent: bot/ User-agent: CopyRightCheck User-agent: CherryPicker User-agent: crawl User-agent: DittoSpyder User-agent: DISCo Pump 3.1 User-agent: EmailCollector User-agent: EmailSiphon User-agent: EmailWolf User-agent: ExtractorPro User-agent: Googlebot-Image User-agent: hloader User-agent: humanlinks User-agent: LexiBot . User-agent: LinkWalker User-agent: Microsoft URL User-agent: Microsoft URL Control - 5.01.4511 User-agent: Microsoft URL Control - 6.00.8169 User-agent: NetAttache User-agent: NetAttache Light 1.1 User-agent: NetMechanic User-agent: Offline Explorer User-agent: robot User-agent: Spider User-agent: SuperBot User-agent: SuperBot/2.6 User-agent: Teleport User-agent: Titan User-agent: Voila User-agent: WebBandit User-agent: WebCopier User-agent: webcopy User-agent: Web Image Collector User-agent: webmirror User-agent: WebReaper User-agent: website extractor User-agent: WinHTTrack User-agent: Yahoo Slurp User-agent: Slurp User-agent: shinchakubin Disallow: /
-
Beh, ovviamente ci vuole un po' di tempo prima che vengano rimosse le pagine dall'indice (puoi velocizzare enormemente utilizzando l'apposita funzione di rimozione url del webmaster tool) e ancora più tempo prima che il Webmaster tool ne dia riscontro.
-
Ho provato a fare la rimozione url dall'apposito form di google webmaster.
Sono state tutte accettate, il file robots presenta il disallow ma risultano ancora tutti gli errori relativi ai metatag duplicati, ovvero più di 80naturalmente la pagina degli errori risulta aggiornata a ieri!
Idee?
-
Viene aggiornata la pagina degli errori, ma spessissimo rimangono indietro tantissimi url. Il fatto che la pagina venga aggiornata in una data non significa che tutte le url contenute vengano verificare in quella data.
Se hai seguito bene la procedura, non temere che verranno rimosse correttamente. Eventualmente puoi verificare tu direttamente nelle serp.
-