- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- tracollo indicizzazione
-
Ciao fabrizioqdm,
ti dico le prime due possibili ragioni che mi vengono in mente e che potrebbero spiegare una deindicizzazione massiva. Ovviamente ce ne possono essere anche altre, non conoscendo il sito si può solo tentare qualche ipotesi.La prima è l'inserimento accidentale di un metatag robots=noindex nell'header delle pagine rimosse. Può succedere ed è successo, come provano alcune discussioni su questo stesso forum. Perciò, se non l'hai già fatto ti consiglierei di controllare prima di tutto l'header delle pagine rimosse, se è tutto a posto. A proposito, hai verificato quali sono le pagine rimosse e se sono accomunate da qualcosa che possa dare un indizio sulla causa della rimozione?
Altrimenti mi viene da pensare a un giro di vite dell'algoritmo sui parametri necessari per mantenere le pagine nell'indice. Per esempio pagine, se non proprio duplicate, ai limiti del contenuto duplicato, almeno parzialmente, che magari fino a una certa data venivano considerate originali e da una certa data in poi sono trattate come duplicati. E' solo un'ipotesi, s'intende. A me per esempio negli ultimi tempi è capitato di non riuscire più a indicizzare determinate pagine, che pur essendo originali, e anche utili, erano però parzialmente simili ad altre già presenti sul sito, pagine che invece fino a qualche tempo fa probabilmente sarebbero state indicizzate senza problemi. Data la crescita della rete e i volumi in gioco, suppongo che i motori di ricerca tendano a diventare sempre più selettivi sulle pagine da inserire negli indici.
@fabrizioqdm said:
Il nostro provider comunque ci ha assicurato che non ci sono state mai problematiche relative alla raggiungibilità.
In base alla mia esperienza, per averne la certezza conviene dotarsi di uno strumento indipendente. Per esempio ci sono servizi di monitoraggio anche abbastanza economici che fanno un accesso ogni tot minuti e segnalano immediatamente eventuali problematiche.
-
Sicuramente tutto corretto quello che dice gianrudi.
In più se vuoi verificare anomalie prova a controllare i log del server e potrai verificare quando effettivamente è ripartita la macchina nuova e se googlebot incontra problemi.
Inoltre per quanto riguarda Analytics se non hai perdite di traffico molto probabilmente le pagine de-indicizzate non erano importanti.
Crea anche una sitemap e verifica quante pagine risultano indicizzate di quelle per te importanti.Mostraci anche il grafico con i dati avanzati.
-
perdite di traffico non le ho mai avute da analytics.
Per quanto riguarda la sitemap risultano 2735 pagine di cui solo 107 indicizzate.
Vi mostro questi due grafici:
-
Ok. Per capirci qualcosa ti consiglio di splittare la sitemap in più sitemap ognuna con massimo 50 URL dentro visto che comunque 2.700 URL non sono molte.
In questo modo potrai capire dove risulta essere il problema.
La cosa più strana però è che hai 100.000 pagine indicizzate e nella sitemap ne invii solo 2.700.
Come mai?
-
non saprei! ne parlo con i nostri programmatori e vi aggiorno
-
i nostri programmatori ci comunicano che nella generazione della sitemap c'era un problema e adesso da 2735 pagine ce ne sono 8017.
Aggiorno la nuova sitemap sugli strumenti per webmaster e riconosce solo 132 link indicizzati su circa 107.000.Loro dicono che 107.000 pagine indicizzate sono troppe avendo circa 10.000 prodotti, però secondo me è normale perché abbiamo 3 lingue (e quindi sono almeno 30.000 link) e in più tutti i prodotti sono raggiungibili da almeno 10 link diversi perchè gli url contengono i famosi parametri del tipo ?&l=1&idA=4&idC=168&cmd=getProd&cmdID=14670 che non sono tutti obbligatori tant'è che potrei raggiungere lo stesso prodotto anche così ?l=1&cmd=getProd&cmdID=14670 e così via.
Forse farò una domanda stupida ma si possono vedere quali link sono stati indicizzati da Google e quali no?
-
@fabrizioqdm said:
Forse farò una domanda stupida ma si possono vedere quali link sono stati indicizzati da Google e quali no?
site:myareadesign.it
Restituisce l'elenco delle pagine indicizzate.Hai un evidente problema di duplicazione dei contenuti.
Per risolverlo:- Aggiungi il tag canonical link alle tue pagine
- Imposta i parametri opzionali sui webmaster tools dei motori di ricerca
Spero d'esserti stato utile.
Ciao
-
Hai un evidente problema di duplicazione dei contenuti.
Per risolverlo:- Aggiungi il tag canonical link alle tue pagine
- Imposta i parametri opzionali sui webmaster tools dei motori di ricerca
proprio come immaginavo.
Il rel="canonical" è già impostato per i link che riteniamo migliori e i paramtetri URL sono già stati impostai sugli strumenti per webmaster in automatico come si evince da questo screenshot figura --> myareadesign.it/images/parametri-url.JPGDovrei inserirli manualmente anziché far decidere a Google quali impostare?
-
I parametri per cui non hai dubbi penso sia meglio esplicitarli.
Ciao
-
ok! grazie Federico!
-
ma per gli URL del genere miosioto.it/default.asp?l=1&cmd=getProd&cmdID=9498 è bene fare un redirect 301 verso il rispettivo URL canonico come dice qui? support.google.com/webmasters/answer/93633
O il redirect 301 va fatto solo quando una pagina non è più raggiungibile essendo stato modificato l'URL?
-
Dipende.
- Se vuoi che i tuoi utenti possano comunque raggiungere anche tramite quell'URL i tuoi contenuti - caso tipico di filtri e ordinamenti in siti e-commerce - No.
- Se alcuni parametri pur non apportando modfiche alla pagine sono destinati a essere consumati dal tuo back-end o dal tuo codice client - esempio parametri di tracciatura - No
- Se invece quegli URL sono una rappresentazione interna che non desideri essere vista dagli utenti né dai motori di ricerca: Sì (e correggi anche tutti i link interni che la usano)
Spero d'esserti stato utile
-
chiarissimo! Grazie Federico