bgvsan
@bgvsan
Post creati da bgvsan
-
RE: Errori di Scansione Google Webmaster
Ho provato a fare la rimozione url dall'apposito form di google webmaster.
Sono state tutte accettate, il file robots presenta il disallow ma risultano ancora tutti gli errori relativi ai metatag duplicati, ovvero più di 80naturalmente la pagina degli errori risulta aggiornata a ieri!
Idee? -
RE: Errori di Scansione Google Webmaster
Grazie delle info, cercherò di stare attento alla punteggiatura.
Comunque questo è il robots che ho impostato da più di una settimana, evidentemente ci vorranno un paio di settimane affinchè venga ripreso in considerazione.
Naturalmente 1500 sono i millisecondi.
User-agent: Googlebot Disallow: Disallow: /cgi-bin/ Disallow: /images/ Disallow: /administrator/ Disallow: /cache/ Disallow: /components/ Disallow: /component/ Disallow: /editor/ Disallow: /help/ Disallow: /includes/ Disallow: /language/ Disallow: /mambots/ Disallow: /media/ Disallow: /modules/ Disallow: /templates/ Disallow: /installation/ Disallow: /tag/ User-agent: Bullseye/1.0 User-agent: Black Hole User-agent: bot User-agent: bot- User-agent: bot/ User-agent: CopyRightCheck User-agent: CherryPicker User-agent: crawl User-agent: DittoSpyder User-agent: DISCo Pump 3.1 User-agent: EmailCollector User-agent: EmailSiphon User-agent: EmailWolf User-agent: ExtractorPro User-agent: Googlebot-Image User-agent: hloader User-agent: humanlinks User-agent: LexiBot . User-agent: LinkWalker User-agent: Microsoft URL User-agent: Microsoft URL Control - 5.01.4511 User-agent: Microsoft URL Control - 6.00.8169 User-agent: NetAttache User-agent: NetAttache Light 1.1 User-agent: NetMechanic User-agent: Offline Explorer User-agent: robot User-agent: Spider User-agent: SuperBot User-agent: SuperBot/2.6 User-agent: Teleport User-agent: Titan User-agent: Voila User-agent: WebBandit User-agent: WebCopier User-agent: webcopy User-agent: Web Image Collector User-agent: webmirror User-agent: WebReaper User-agent: website extractor User-agent: WinHTTrack User-agent: Yahoo Slurp User-agent: Slurp User-agent: shinchakubin Disallow: /
-
RE: Errori di Scansione Google Webmaster
nessuno può aiutarmi su come ridurre e eliminare questi tag duplicati?
-
RE: Errori di Scansione Google Webmaster
grazie!
Ora ho disabilitato i tag dal Robots e vediamo come và!
ho controllato il tempo medio di accesso alle pagine siamo intorno a 1500 che dite è troppo alto?ho controllato gli strumenti di google ho trovato molte cose duplicate. sono pagine di sezioni e categorie a volte e i tag title e i metatag non sono inappropriati. mi potete dare una mano su come faccio a modificarle?
gli screen shot li trovate qui:
TAG TITLE:
ariaecigarettes.com/tag title.jpg
DESC:
ariaecigarettes.com/meta desc.jpg -
RE: Errori di Scansione Google Webmaster
ciao, e grazie delle risposte.
in pratica dovrei modificare il template per raggiungere almeno una larghezza di 1024?
per i duplicati del cerca non so proprio come intervenire perche sono generate con i link della tag cloud, non mi resta altro che disabilitarla.
cmq oggi molti errori se ne sono andati sono passati da 38 a 10.
per migliorare l'aspetto della home page cosa mi consigli?
Ora sto cercando di rimpicciolirela dimensione e il peso delle foto in modo da renderlo piu veloce. -
Errori di Scansione Google Webmaster
Salve, sto gestendo un sito di commercio elettronico e sto cercando di guadagnarmi le prime posizioni per una parola chiave, "sigaretta elettronica"
ma diciamo da oggi sono solo in testa alla 3° pagina.
Gli strumenti di google mi danno 38 errori non trovato, sia di pagine che realmente esistono sia di pagine presenti solo nel vecchio sito (che aimè ho cancellato in tronco senza preoccuparmi minimamente.)
Mentre ci sono 4 errori di non raggiungibile per.ariaecigarettes.com/component/user/remind.html/undefined
.ariaecigarettes.com/component/user/reset.html/index.php
.ariaecigarettes.com/index.php/component/user/undefined
.ariaecigarettes.com/xxx.ariaecigarettes.comAddirittura gli errori provengono dalla sitemap (creata in maniera automatica).
Dal passaggio al nuovo sito ci sono voluti un paio di mesi aggiustando di volta in volta home page e tag.
Ogni volta che google ri-indicizza mi manda in primissima posizione (anche prima di wikipedia) e dopo poche ore mi risbatte in 3 pagina.Credo che la posizione in serp dipenda da questi errori, ho provato a togliere qualcosa dalla sitemap ma ancora non ne vuole saperne di aggiornarli e continua a visualizzarmeli.
Avete idee?
Grazie.Dominio:
ariaecigarettes.comMotori:
GooglePrima indicizzazione o attività:
2008Cambiamenti effettuati:
restylinng sitoEventi legati ai link:
nessun cambiamentoSito realizzato con:
Joomla 1.5Come ho aumentato la popolarità:
tag cloud in home page e modifica dei tag title e delle singole pagine.Chiavi:
Sigaretta elettronica, cigarettes, refill, refills, ecigarettes, aria, ariaecigarettes, smetti di fumare, nicotina, e-cigs, e-cigarettesSitemaps:
Si -
Ciao a tutti!!!
Un saluto a tutto il Forum mi son appena iscritto per capire un po meglio il pianeta SEO e risolvere qualche problemino...
Spero di trovarmi bene!