- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Nuova funzione di Google Sitemap
-
@fausand said:
Scusa asteron, evidentemente ho scritto mentre scrivevi anche tu.
Non trovi la funzione perchè è stata tolta, va e viene, forse è ancora sperimentale.
no problem, grazie per la info:)
-
Ora non c'è più
-
adesso c'è, ma ho notato che ci sono centinaia di link provenienti dagli stessi siti (causa links in firma) e sono tutti elencati..
-
Scusate, magari mi è sfuggito qualcosa nei precedenti post, ma non ho capito quale sarebbe il comando da dare a GG per visualizzare link interni ed esterni!
-
Ah wow...non mi ero accorta di questa nuova funzione!
-
@nextink said:
Scusate, magari mi è sfuggito qualcosa nei precedenti post, ma non ho capito quale sarebbe il comando da dare a GG per visualizzare link interni ed esterni!
non so se esiste un comando da inserire diretto, ma quello di cui si sta parlando qui è riferito a https://www.google.com/webmasters/tools/siteoverview?hl=it
cioè dal pannello dove puoi visionare le statistiche di sitemap, lo trovi nel tab link ed è separato in link interni e esterni.
-
grazie 1000!
-
A dire il vero i link che si vedono nello strumento non corrispondono a quelli che si vedono cercando direttamente su google.
Questo significa che si visualizzano anche i link nofollow del proprio dominio per permettere un pieno controllo di analisi e sapere chi ci sta linkando anche se non ha valore.
Torniamo al discorso che ho gia fatto una volta: i dati vengono sempre catturati. E' in secondo momento che si applicano i filtri per trattarli come si vuole.
-
@FuSioNmAn said:
Torniamo al discorso che ho gia fatto una volta: i dati vengono sempre catturati. E' in secondo momento che si applicano i filtri per trattarli come si vuole.
Anche se lo avessi fatto tre volte non significa che è così,
perchè le pagine da non far seguire nel robot.txt non li cattura, e in google sitemaps non appaiono, a differenza del nofollow
e poi i filtri che mette in un secondo tempo penso saranno quelli suoi e non del webmaster.
-
I filtri che mette li fa come vuole e li applica a chi vuole.
Chi ti dice che non cattura anche i files negati nel robot?
In sitemaps esce scritto che è negato l'accesso a quel determinato file che hai negato nel robots ma potrebbe essere un filtro anche questo (in realtà potrebbe aver catturato anche quello).
Cmq vabbè sono teorie in base alle proprie esperienze. Qua nessuno può essere certo di come sia.
Di sicuro c'è che il modo di agire corretto è quello di non scartare mai i dati a priori.