- Home
- Categorie
- Digital Marketing
- Google Analytics e Web Analytics
- Google non riesce a verificare il mio sito
-
E' successo anche a me con un sito con hosting Smartcard. Con il file non funzionava ma con il meta sì quindi ti suggerirei di provare con questa seconda possibilità. Ciao.
-
ciao memic4. sicuramente è cambiata la gestione del 404. fai questo test: prova a digitare una pagina a casaccio dopo l'url e controlla che il response header sia 404 (o 200 come temo).
fammi sapere,
andrea
-
Nel mio caso è 404, pagina inesistente. Tra l'altro ho scopeto che la sitemap non mi prende ww.nomedominio.xx dicendomi che è limitato da robot.txt ma non è così.
-
se lo ritieni opportuno mandami il link in PM, se poi il caso è di interesse generale e può aiutare anche altri utenti lo divulghiamo.
andrea
-
Ciao,
qualche giorno fa si è risolto tutto da solo.
Ho riprovato a fare la verifica del sito ed è andata a buon fine finalmente.
Credo che si trattava proprio di un errore con la gestione del 404, forse perchè uso una pagina personalizzata per gestire gli errori 404.
Pero alla fine si è risolto tutto da solo, non so come.
-
ok, faccio il punto sulla situazione.
Prima di qualsiasi conferma, verificate online con i numerosi tool a disposizione, che ad url inesistenti (inventatele - es- miosito.com/pippoprova ) corrispondano esattamente errori 404 e non un 200 (ok).Per i tool cercate "server response header tool".
Andrea Serravezza
-
I 404 sono segnalati ora su Google Webmaster Tools
http://www.giorgiotave.it/forum/news-brevi/93389-google-segnala-i-broken-link-verso-le-pagine-del-tuo-sito.html
-
@mister.jinx said:
I 404 sono segnalati ora su Google Webmaster Tools
http://www.giorgiotave.it/forum/news-brevi/93389-google-segnala-i-broken-link-verso-le-pagine-del-tuo-sito.htmlciao Mister, qui si parla di un problema di verifica. La procedura che a mezzo di uplod di un file univoco per ogni utente/account, o meta, permette ad un webmaster di autenticare il proprio sito in GWT.
-
Opps.. avevo dall'intervento di Derbai (che parlava di sitemaps) e di memic (che parlava di 404 personalizzate) la discussione sembrava essere andata oltre la verifica del sito
-
@mister.jinx said:
Opps.. avevo dall'intervento di Derbai (che parlava di sitemaps) e di memic (che parlava di 404 personalizzate) la discussione sembrava essere andata oltre la verifica del sito
no problem!
ragazzi avete risolto?
-
Sinceramente non me ne sono più preoccupato. A me comunque google non indicizza la root ovvero l'indirizzo www-sito-it/ ma solo la pagina index.
Mi dice che è bloccata dal file robot.txt ma non mi risulta.
Cosa strana perchè su altri siti me la prende.Per la verifica ho risolto con il meta tag ma comunque strano che non vedesse il file anche perchè se lo linkavo lo vedevo.
Comunque grazie per l'interessamento.
-
ripeto, il file esisteva....il problema era/è nella gestione dei 404
-
Quindi come posso risolvere?
-
correggendo la gestione degli errori lato server. a pagine inesistenti deve corrispondere un errore 404.
-
Ok, approfondirò questo argomento tramite google ma se digitando quell'indirizzo il browser mi visualizza sia il file di google per la verifica sia la home digitado il dominio senza index non capisco cosa centri questa destione lato server.
Vorrei capire come percepisce questo errore google se non ci incorre.
-
@Derbai said:
Ok, approfondirò questo argomento tramite google ma se digitando quell'indirizzo il browser mi visualizza sia il file di google per la verifica sia la home digitado il dominio senza index non capisco cosa centri questa destione lato server.
Vorrei capire come percepisce questo errore google se non ci incorre.
Secondo me, il processo di verifica si compone di due accessi.- Un accesso al file di verifica, quello di tipo google_XXXXX326426.html, che deve riuscire (codice 200)
- Un tentativo di accesso a un file inesistente, con un nome di tipo noexist_XXXXX326426, che deve fallire (codice 404)
Infatti è frequente trovare nei log tentativi di accesso a file sicuramente inesistenti, costruiti come il file di verifica ma con il prefisso noexist_ invece di google_, vedi giorgiotave.it/forum/google/86928-google-noexist_08943xxxxxxxxx-html.html.
Per completare la verifica deve andare a buon fine l'accesso al file di verifica google_XXXXX326426.html e deve fallire l'accesso al file inesistente noexist_XXXXX326426.html.
Infatti, se una particolare gestione degli errori restituisce un codice valido anche per gli accessi a file inesistenti, allora la riuscita dell'accesso al file di verifica non può essere considerata prova dell'effettiva esistenza del file di verifica sul sito da verificare, e quindi la verifica, giustamente, non va a buon fine.
Naturalmente si tratta di una ricostruzione, ma mi sembra l'unica che possa spiegare i tentativi di accesso a file (certamente inesistenti) di tipo noexist_XXXXX326426 che si ritrovano nei log e il fatto che, effettivamente, in presenza di una gestione degli errori che non restituisce errore 404 sugli accessi a files inesistenti, la verifica del sito tramite file diventa impossibile.
-
Ok, ma nel mio case se provo ad accedere ad un file inesistente ho una risposta 404 quindi dovrebbe andare bene.
La tua spiegazine potrebbe andarmi bene per la verifica (anche se poi i fatti nel mio caso non confermano) ma per la home senza index? Potrebbero le 2 cose essere collegate?
-
@Derbai said:
Ok, ma nel mio case se provo ad accedere ad un file inesistente ho una risposta 404 quindi dovrebbe andare bene.
Sì, dovrebbe andare bene.@Derbai said:
La tua spiegazine potrebbe andarmi bene per la verifica (anche se poi i fatti nel mio caso non confermano) ma per la home senza index? Potrebbero le 2 cose essere collegate?
Sembra che interpreti il robot.txt come se l'accesso alla home fosse abilitato solo per certi file specifici, tra cui appunto l'index, e disabilitato per tutti gli altri. Questo potrebbe forse spiegare e collegare i 2 fenomeni.
Hai provato ad analizzare il robot.txt in wmt? Puoi postarlo?
-
Non so cosa sia wmt ma di seguito il mio robots.txt con i dovuti aggiustamenti perchè altimenti non me lo fà inviare:
User-agent: *
Sitemap: http //www-miosito-com/sitemap.xmlLo spazio prima // ed i - a posto del . non ci sono nel file originale.
-
@Derbai said:
Non so cosa sia wmt
Intendevo il WebMaster Tools. Nella sezione "Strumenti" c'è la funzione "Analizza robots.txt"@Derbai said:
ma di seguito il mio robots.txt con i dovuti aggiustamenti perchè altimenti non me lo fà inviare:
User-agent: *
Sitemap: http //www-miosito-com/sitemap.xmlLo spazio prima // ed i - a posto del . non ci sono nel file originale.
Che io sappia, in genere si inserisce anche la riga
Disallow:
per indicare che non ci sono restrizioni, come si spiega per esempio qui: giorgiotave.it/guida_posizionamento_nei_motori_di_ricerca/file_robots.php .
Non è detto che sia quella la causa del duplice problema, ma potrebbe.
Per accertarlo puoi provare ad aggiungere la regola Disallow: in robots.txt e ripetere il tentativo di verifica del sito attraverso il file di verifica.