- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Indicizzazione dipendente completamente da Google Sitemaps?
-
Ciao JennyM,
anche io ho fatto come te, ho inserito nel footer o nell'header la home page (trattandosi di pagine php) e quindi automaticamente addando la URL a GG mi ha visto anche le altre(test su due siti web).
E' anche vero quello che dice Giorgio, nei grandi portali se non aggiungi la sitemap questo discorso non puoi farlo, GG si perde e cerca una sorta di percorso valido, alfine di individuare ciò che realmente è utile per l'utente, quindi bisogna sempre aggiornarla.
Un altro elemento importante è inserire il robots.txt oppure meglio ancora inserire il meta nella home page principale con content="index, follow", così il MDR sa come muoversi e avendfo la home come riferimento principale include nella ricerca tutte le pagine..
Saluti
Adriano
-
Ciao a tutti, sono nuovo del forum, ma da parecchi anni bazzico e lavoro nel settore, le sitemaps per mia esperienza e per quello che si dice sui Forum Google, aiutano il motore di ricerca ad indicizzare le pagine inserite nel file sitemap.xml e di consegenza il posizionamento del sito.
Saluti
Clickare
-
Personalmente ritengo che avere o non avere una sitemap NON influenza per niente i posizionamenti nelle serp. Avere una sitemap ha un senso in questi casi:
-
Siti con menu in Java/Javascript/Flash, dove lo spider non riesce ad individuare il plain-link, e quindi non riesce a raggiungere e quindi indicizzare alcune parti del sito;
-
Siti con un numero molto grande di pagine (>100.000 per esempio) : aggiornando spesso la sitemap (almeno ogni 2/3 giorni intendo) e utilizzando il <lastmod> si può indicare allo spider quali pagine sono state aggiunte e quali sono cambiate di recente;
-
Siti dove sia importante ottenere un posizionamento di una nuova pagina, o una modifica dei contenuti in una pagina esistente nel minor tempo possibile, sempre utilizzando il <lastmod>, il <changefreq> e il <priority> e meglio ancora utilizzando una sitemap indice.
Non mi sono mai trovato nel caso 1) ma la sua utilità è scontata.
Ho invece un'esperienza diretta con un portale con più di un milione di pagine con il quale, senza una sitemap, ci vogliono settimane perché lo spider si accorga della nuova pagina o del cambiamento di una esistente, mentre i tempi si riducono drasticamente con una sitemap sempre aggiornata.Il problema in fondo è questo... una sitemap ha un senso se è costantemente aggiornata. Bisogna tenere presente infatti che aggiornare una sitemap manualmente per un sito con anche solo poche migliaia di pagine è un lavoro "infernale" e non ne vale la pena per i vantaggi che si possono ottenere.
La mia soluzione è stata quella di sviluppare un event-gateway che monitorizza contemporaneamente alcune directory e alcune tabelle del mio db. Quando viene fatta una modifica ad un file o in una tabella l'event-gateway segnala il tutto ad un task che si occupa di ricostruire la sitemap specifica e infine la sitemap indice. Così ogni 20 minuti ho una sitemap aggiornata... e non ci penso più!A presto
Dip
-
-
Sicuramente esiste una correlazione forte ... un'esperienza "concreta" l'ho vissuta trasformando un sito html in php già indicizzato e dotato di sitemap da qualche mese ..... l'indicizzazzione delle nuove pagine (dopo l'upload massivo di tutto il nuovo sito) è avvenuta rapidamente nel giro di due settimane e nello stesso tempo tutte le pagine con estensione .html sono state deindicizzate massivamente ... una cosa che ancora non ho capito è perchè esiste uno "zoccolo" di pagine che google proprio non vuole:
Statistiche sitemap:
Totale URL: 361
URL indicizzati: 292Eppure il bot passa regolarmente ogni 5-10 giorni ... Altra cosa che ho notato e che quando lo "chiami" segnalando la presenza di una sitemap nuova attraverso i google tool i tempi si fanno più stretti e il bot passa ogni 3-4 giorni in media per un paio di settimane. Qualcuno ha avuto la stessa sensazione/esperienza ?
-
... fino alla settimana scorsa avrei risposto :
"non credo che una sitemap al momento possa incidere sul fattore di posizionamento, credo che quantomeno possa aiutare ad indicizzare più velocemente le pagine, ed aiutare google a raggiungere le pagine più difficili. In ogni caso posso dirvi che per velocizzare l'indicizzazione più celermente senza l'uso della sitemap basta valorizzarle linkandole da pagine a tema forti, passando page rank ed incrementando il trust rank."
...ma ad oggi ho un dubbio in seguito ad una case history recentissima che sto analizzando e che forse potrebbe essere in trust con quello che affermate. Un sito web con una sotto directory, con una serie di pagine (5 per la precisione) non direttamente collegata alla homepage, diversa tematicità dal resto del sito web, linkata da altre sotto directory sullo stesso sito web, anch'esse non collegate con la homepage ed il resto del sito web, e di diversa tematicità.
Capita che mi si indicizza una sola pagina contente una sorte di mappa con collegamento alle restanti pagine della sotto directory con un buon rank, le altre pagine no, ad oggi tutte le pagine sono scomparse, mi sarei atteso l'indicizzazione delle restanti pagine con un ulteriore miglioramento del rank... si tratta di una serie di landing page che linkano ad un sito web esterno, non credo sia un caso di duplicazione, il sito web esterno ha avuto una forte crescita nel rank.
Ora vi chiedo , potrebbe essere determinato dal fatto che le pagine della sotto directory , non sono state inserite nella sitemap principale del sito web anche se pagine di diversa tematicità ? Il processo di indicizzazione e di cancellazione dalle serp google è avvenuto nell'arco di una settimana.
Se fosse determinato da un qualcosa relativo alla Sitemap , è una variante inserita da poco da google.
Attendo un vostro feedback
-
Non essendo direttamente linkate dalla homepage, il motore di ricerca non riesce ad arrivare sempre e comunque alle sub-sub-sub landing page che hai creato.
Ricordiamoci che solitamente la pagina più linkata dagli altri siti e anche più scasionata (credo) sia la homepage. Tutti i collegamenti che sono presenti in quella pagina verranno scansionati tra N giorni.
Dopo N giorni verrà scansionata la pagina allo scalino dopo. Dopo n + x giorni verrà scansionata la pagina allo scalino successivo. Dopo n + x + y giorni verrà scansionata la pagina allo scalino dopo ancora e così via.
Se il tuo collegamento è al 10imo scalino è "normale" che stai rischiando che le pagine non vengano scansionate.
E qui entra in gioco la sitemap che permette al motore di ricerca di tenere controllate anche pagine in sub-sub-sub livelli d un sito (anche se al mio modesto parere sotto il quinto scalino è già esageratamente lontano)
-
@mimmob32 said:
una cosa che ancora non ho capito è perchè esiste uno "zoccolo" di pagine che google proprio non vuole:
Per mia esperienza questo può dipendere principalmente da pochi motivi:- contenuti (poveri o duplicati).
- mancanza di link alle pagine non indicizzate (in siti esterni al tuo).
- carenze in title e description.
La sitemap aiuta ma non fa miracoli.
-
Quoto in pieno Webtronic
-
A me è successa una cosa interessante quando ho inserito la sitemap.
Avevo fatto una sciocchezza e avevo il sito in penalizzazione. (doppio tema)
Caricavo pagine con il tema principale ma gg non le prendeva considerando i classici giorni di attesa.
Ho aumentato una 50 di pagine e poi ho messo la sitemap.
Dopo 5 minuti esatti mi ha letto tutto, anche quelle precedenti e mi ha fatto uscire dalla penalizzazione.
-
ci sono 2 tipi di sitemap da analizzare: le sitemap segnalate tramite wm tool, e le sitemap non segnalate ma linkate semplicemente dal sito.
Per esperienza personale succedere questo:
- Sitemap non segnalata: Google la considera come consiglio ma non è troppo vincolante, ovvero continua a far girare lo spider alla ricerca di pagine da indicizzare indipendentemente se sono presenti o meno nella sitemap.
- Sitemap segnalata: Google considera esclusivamente essa, e tende a perdere le pagine non presenti nella stessa.
Ho un sito con sopra montati diversi blogs wordpress, e fino a 1 mese fa avevo oltre 2000 pagine indicizzate (tra cui moltissime pagine di tags). Per una penalizzazione provo a segnalare le sitemap (sono più di una) a Google tramite WM tool, e pian piano diminuiscono le pagine indicizzate.. mi chiedo: perchè? le sitemap erano già presenti anche prima nel sito.. semplice, Google ha iniziato a considerare solo sitemap dopo la segnalazione ed ha perso tutti i tags, che non sono presenti in sitemap..
A questo punto non so quanto mi è convenuto segnalare le sitemap....
-
Sto facendo ulteriori test.
Posso confermare una cosa: se la Sitemaps da errore, tutti gli url presenti vengono rimossi da Google Search anche se questi url non variano nessun contenuto.
Secondo me questo è una delle scelte sbagliate che vanno contro il lavoro dei webmaster
Oggi ad esempio sono andate in errore 10 Sitemaps da 20.000 url. Le pagine indicizzate sono calate di 200.000.
Appena le Sitemaps sono state reinviate alla selezione e quindi sono state messe in attesa, le url indicizzate nel pannello sono salite di nuovo (senza neanche aspettare una nuova scansione).
A questo punto non so se è una scelta precisa o se è un bug, trovo che sia veramente inusabile un servizio del genere.
La domanda che vorrei girare allo Staff di Google è:
Perchè se la mia Sitemaps da errore le url presenti in quella spariscono dall'indice di Google Search senza che venga effettuato un controllo sui contenuti?
Gli URL non hanno subito nessuna variazione, anche se la Sitemaps che li contiene da errore; gli URL continuano a fornire un contributo valido agli utenti, quindi perchè vengono rimossi?
-
Giorgio puoi precisare:
Posso confermare una cosa: se la Sitemaps da errore, tutti gli url presenti vengono rimossi da Google Search anche se questi url non variano nessun contenuto.
se nel pannello google webmaster c'è errore, rimuove tutto dalla serp?
-
@deborahdc said:
se nel pannello google webmaster c'è errore, rimuove tutto dalla serp?
Si confermo
Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():
Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.
-
@Giorgiotave said:
Si confermo
Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():
Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.
Concordo parzialmente.
Ho un sito che ha una sitemapindex ed una decina di sitemaps.
Due di queste danno errore perchè sono vuote. Eppure sono indicizzato correttamente, non sono rimosso dalle serp.Due i casi quindi:
- o rimuove solo le URL in quella specifica sitamap (e non tutte quelle del sito)
- oppure quello che dici tu è vero in base all'errore che google trova (ad esempio, se è un errore nell'XML malformattato, lui butta via tutto, ma non se sono vuote come le mie).
-
No non confermo.
Ho un errore in sitemap ma nessun problema per l'indicizzazione e il posizionamento in serp
-
@ctrix said:
- o rimuove solo le URL in quella specifica sitamap (e non tutte quelle del sito)
- oppure quello che dici tu è vero in base all'errore che google trova (ad esempio, se è un errore nell'XML malformattato, lui butta via tutto, ma non se sono vuote come le mie).
Si, mi riferisco solo a quella specifica Sitemaps che da errore, non a tutte le Sitemaps presenti.
Ho letto velocemente la domanda di Deborah, quindi rettifico la mia risposta:
Se una delle vostre Sitemaps da errore, tutti gli url di QUELLA Sitempas vengono rimossi dalle SERP Ovviamente parlo di errori gravi (Errore di compressione, Formato file non supportato), non di url non accessibili e via dicendo. Per trovare tutti gli errori ecco qui la lista.
-
Confermo l'esperienza di Giorgio, ho fatto test suicidi per capire come ragiona google, ed in effetti gli accessi son scomparsi a causa degli errori nella sitemap, o meglio dal fatto che non le stavo più utilizzando e quindi dalle pagine finite rimosse.
Ieri le ho caricate e le ha prese subito, vi farò sapere come andrà.
Al momento nessuna variazione significativa nelle url restituite dal site:
-
@Karapoto said:
Ieri le ho caricate e le ha prese subito, vi farò sapere come andrà.
Al momento nessuna variazione significativa nelle url restituite dal site:Ad una prima verifica, mi sembra (non ne sono sicuro), che il numero di url indicizzate nel pannello di controllo di Google sia subito calcolato, mentre la risposta nelle SERP avviene il giorno successivo (ma potrei sbagliarmi).
Facci sapere
-
Si, le url sono subito conteggiate nel pannello, mentre nelle serp non so ancora dirti quanto ci vuole per trovarsele.
Per ora ancora nulla.
-
@Giorgiotave said:
Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP
Ciao Giorgio, che tipo di errore? A me è capitato alcuni giorni fà una segnalazione per troppi errori 302 che riportava che le altre pagine sarebbero state regolarmente indicizzate.. e così avvenne. In pratica avevamo rimosso una serie di prodotti dal catalogo, quando l'utente o il motore cercava quell'url aveva in risposta una paginetta con un redirect 302. La sitemap era poco aggiornata e G. riportò quella indicazione negli strumenti per webmaster. Risolsi la cosa impostando una frequenza di aggiornamento più elevata (ogni settimana).