- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Osservazioni su Sitemaps, più alcune domande insolite
-
Osservazioni su Sitemaps, più alcune domande insolite
Fin dal giorno in cui è uscito, ho sempre ritenuto utile lo strumento Sitemaps.
Voglio condividere con voi alcune osservazioni:-
Aiuta il crawling? Certamente.
Ho segnalato un sito nuovo (tuttora senza BL) all'attenzione di Google tramite la consueta form di Add Url, e non ho notato nulla.
Sono andato nel mio account Sitemaps, ho segnalato il sito, e dopo 10 minuti dalla Verifica, è arrivato Googlebot sul mio sito. Ha visto solo la home, ma 4 volte di fila. -
Lo strano sistema di verifica tramite file
Avete presente che per verificare la proprietà di un sito, una delle opzioni è l'upload di un file? Bene. Questo file di solito si chiama "google[stringa_esadecimale_di_16_caratteri].html".
Vado a guardare le statistiche (phpstats, non ho sottomano i log del server) e vedo che il bot (ip 64.233.172.35, NON GoogleBot) cerca il file "noexist_[stringa_esadecimale_di_16_caratteri].html" invece di quello che aveva chiesto lui. Succede anche a voi? -
Aiuta il crawling / Parte 2
A distanza di qualche ora dalla verifica (che ho eseguito il giorno stesso dell'attivazione del dominio, poche ore dopo il submit "classico"), Googlebot ha cominciato a prendere diverse pagine del sito. MSN è arrivato prima, ma è ancora al palo con la home.
Non avevo mai visto il Googlebot prendere diverse pagine IL GIORNO STESSO dell'apertura di un sito (senza BL, lo ricordo) -
Priority "al contrario"
Questa è bella: è un test che andrebbe ripetuto e ampliato, ma se confermato è... appetitoso, quanto meno.
Avete presente la Priority che assegnate ai file in Sitemaps, no? Quello è il valore che dovrebbe dire a Google quali sono le pagine più importanti.
Ma se fosse vero (e non sappiamo se lo sia) che Google considera importanti le pagine sulle quali passa più spesso, allora per dirgli che sono importanti basta... non includerle in Sitemaps!!
Eh sì, la visita più estesa di Googlebot si è soffermata solo sulle pagine, linkate dalla home, che non comparivano in Sitemaps! Le altre, quelle indicate, non le ha ancora visitate!
Devo fare altri test per capire se questo influisce sul posizionamento, ma per ora tant'è. -
Il pagerank dalle statistiche
Guardando i miei siti, e il mio PR, ho concluso che la scala di valutazione che si può vedere dalle statistiche di Sitemaps è così divisa:
PR 0 = Pagerank Non Assegnato
PR 1 - PR 3 = Pagerank Basso
PR 4 - PR 7 = Pagerank Medio
PR 8 - PR 10 = Pagerank Alto
Ora, questo è quello che vedo io nelle mie stat se lo confronto col PR che Google mi mostra relativamente alle mie pagine.
Però ho sentito di webmaster che avevano PR Medio e non avevano PR4 su nessuna pagina (a detta loro), quindi mi chiedo: che quella stima sia "relativa al sito"? Che senso ha? -
Per questo test ho bisogno di voi: ho avuto l'impressione che Google "tratti bene" i webmaster che già conosce e lo aiutano, dandogli fiducia se i loro siti sono validi ai suoi occhi.
E' una impressione a pelle, vorrei capire se potrebbe esserci dietro un algoritmo oppure no.
Qualcuno ha voglia di ripetere l'esperimento mio (tempo che passa tra segnalazione e crawling iniziale e crawling approfondito) con un dominio nuovo - con dentro almeno una decina di pagine e link - e soprattutto con un account Google Sitemaps nuovo?
Eh sì, ho iniziato i miei test
Sto tenendo traccia di TUTTO su un blog che sarà pubblico, ma per ora non lo linko (sto aspettando di essere nell'indice)
-
-
@petro said:
Fin dal giorno in cui è uscito, ho sempre ritenuto utile lo strumento Sitemaps.
Eh già
@petro said:
Voglio condividere con voi alcune osservazioni:
Grazie a nome di tutto GT
@petro said:
- Aiuta il crawling? Certamente.
Ho segnalato un sito nuovo (tuttora senza BL) all'attenzione di Google tramite la consueta form di Add Url, e non ho notato nulla.
Sono andato nel mio account Sitemaps, ho segnalato il sito, e dopo 10 minuti dalla Verifica, è arrivato Googlebot sul mio sito. Ha visto solo la home, ma 4 volte di fila.
Si, aiuta il crawling, come si è potuto verificare e confermare ulteriormente.
@petro said:
- Lo strano sistema di verifica tramite file
Avete presente che per verificare la proprietà di un sito, una delle opzioni è l'upload di un file? Bene. Questo file di solito si chiama "google[stringa_esadecimale_di_16_caratteri].html".
Vado a guardare le statistiche (phpstats, non ho sottomano i log del server) e vedo che il bot (ip 64.233.172.35, NON GoogleBot) cerca il file "noexist_[stringa_esadecimale_di_16_caratteri].html" invece di quello che aveva chiesto lui. Succede anche a voi?
Ho usato il sistema da te indicato per la verifica dei siti web, ma sinceramente non ho mai notato se cerchi la pagina "noexist_[stringa_esadecimale_di_16_caratteri].html" .
Devo sottoporre ancora diversi siti a Google, magari alcuni li faccio con diversi e nuovi account, altri con l'account che Google conosce bene
@petro said:
- Aiuta il crawling / Parte 2
A distanza di qualche ora dalla verifica (che ho eseguito il giorno stesso dell'attivazione del dominio, poche ore dopo il submit "classico"), Googlebot ha cominciato a prendere diverse pagine del sito. MSN è arrivato prima, ma è ancora al palo con la home.
Non avevo mai visto il Googlebot prendere diverse pagine IL GIORNO STESSO dell'apertura di un sito (senza BL, lo ricordo)
A quanto ho potuto sempre notare, MSN è il primo motore che arriva su un nuovo sito. A seguire Google, poi Yahoo!
@petro said:
- Priority "al contrario"
Questa è bella: è un test che andrebbe ripetuto e ampliato, ma se confermato è... appetitoso, quanto meno.
Avete presente la Priority che assegnate ai file in Sitemaps, no? Quello è il valore che dovrebbe dire a Google quali sono le pagine più importanti.
Ma se fosse vero (e non sappiamo se lo sia) che Google considera importanti le pagine sulle quali passa più spesso, allora per dirgli che sono importanti basta... non includerle in Sitemaps!!
Eh sì, la visita più estesa di Googlebot si è soffermata solo sulle pagine, linkate dalla home, che non comparivano in Sitemaps! Le altre, quelle indicate, non le ha ancora visitate!
Devo fare altri test per capire se questo influisce sul posizionamento, ma per ora tant'è.
Sinceramente non ho capito il discorso della priority al contrario. Soprattutto il punto dove dici che per far capire a Google che le pagine sono importanti, basta non includerle in Sitemap
@petro said:
- Per questo test ho bisogno di voi:
Ottimo! Adoro i test!!
@petro said:
ho avuto l'impressione che Google "tratti bene" i webmaster che già conosce e lo aiutano, dandogli fiducia se i loro siti sono validi ai suoi occhi.
E' una impressione a pelle, vorrei capire se potrebbe esserci dietro un algoritmo oppure no.
Qualcuno ha voglia di ripetere l'esperimento mio (tempo che passa tra segnalazione e crawling iniziale e crawling approfondito) con un dominio nuovo - con dentro almeno una decina di pagine e link - e soprattutto con un account Google Sitemaps nuovo?Come ho già scritto più sopra, ho intenzione di fare dei test per vedere se c'è differenza di trattamento tra un nuovo account sitemap e uno vecchio, già conosciuto.
@petro said:
Eh sì, ho iniziato i miei test
Sto tenendo traccia di TUTTO su un blog che sarà pubblico, ma per ora non lo linko (sto aspettando di essere nell'indice)Ottimo
Grazie ancora, e facci sapere. Dal canto mio, non appena riesco a fare questi test posto i risultati.
- Aiuta il crawling? Certamente.
-
@sitionweb said:
Sinceramente non ho capito il discorso della priority al contrario. Soprattutto il punto dove dici che per far capire a Google che le pagine sono importanti, basta non includerle in Sitemap
Si tratta solo di una osservazione, e di una ipotesi che potrebbe collegarsi ad essa.
L'osservazione consiste nel fatto che Googlebot ha fatto una prima "ricognizione" sul dominio, e ha visitato soltanto le pagine che erano linkate da home ma che non erano in sitemap (esclusa l'index). Ha seguito quasi tutti i link, e sta "tenendosi per dopo" quelli che gli ho indicato esplicitamente.
L'ipotesi invece è che le pagine che visita per prime, o più spesso, siano anche quelle che poi posiziona meglio.Su un altro sito, dando il comando site: mi vedo in testa proprio tutte quelle pagine che non sono in sitemap, a seguire tutte le altre. Ma questa non è una conferma, perchè è possibile che in quel caso dipenda dalla struttura dei link del sito, o dai contenuti.
E', appunto, un'ipotesi (che tenterò di verificare).
-
@petro said:
- Lo strano sistema di verifica tramite file
Avete presente che per verificare la proprietà di un sito, una delle opzioni è l'upload di un file? Bene. Questo file di solito si chiama "google[stringa_esadecimale_di_16_caratteri].html".
Vado a guardare le statistiche (phpstats, non ho sottomano i log del server) e vedo che il bot (ip 64.233.172.35, NON GoogleBot) cerca il file "noexist_[stringa_esadecimale_di_16_caratteri].html" invece di quello che aveva chiesto lui. Succede anche a voi?
Poiche' alcuni siti restituiscono una pagina html con un messaggio di errore (ma con stato 200) per url inesistenti, Google in sostanza, verifica che google_xxx.html restituisca una pagina (200 Found) e che noexist_xxx.html restituisca un errore (404 Not Found).
- Lo strano sistema di verifica tramite file
-
@Ray71 said:
Poiche' alcuni siti restituiscono una pagina html con un messaggio di errore (ma con stato 200) per url inesistenti, Google in sostanza, verifica che google_xxx.html restituisca una pagina (200 Found) e che noexist_xxx.html restituisca un errore (404 Not Found).
Ah, lo fa per controllare la correttezza degli header HTTP?
:Nonlosapevo:Grazie per l'info!