- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Ritardo di Googlebot in re-crawling
-
@sermatica esatto. Da mesi sto notando che pesanti modifiche vengono ignorate con un re-crawling pesantemente ritardato. In tanti casi ho dato la colpa a performance insufficienti, ma negli ultimi casi parallelamente al refactoring c'è stato un forte miglioramento del TTFB.
Google perde colpi?
ps: rapporti GSC in linea con analisi log
-
La butto lì: che abbia a che vedere con il fatto che hanno ritardato il passaggio al mobile first index?
Magari hanno davvero problemi tecnici.
Hanno anche avuto il "bug" di indicizzazione ad agosto...
-
Secondo me siamo davanti a dei problemi tecnici...gli sarà saltato qualcosa con tutti i database che hanno aggiornano quello sbagliato. Mi viene in mente la cosa più stupida e semplice che possa capitargli.
2 Risposte -
@giorgiotave non oso immaginare che incubo per i sistemisti.
-
@giorgiotave io ipotizzavo anche uno scazzo nei report, ma i log confermano.
Il caso che ho postato è palese, pubblicazione con:- tutte url cambiate
- miglioramento ttfb
Scansione full dopo 1,5 mese... non ha senso.
2 Risposte -
1 Risposta -
@merlinox io sto cercando di approfondire. Ho pagine in SERP che non ci sono più (301) da quasi DUE mesi.
Sitemap aggiornate e pingate.
Server performante (più di prima).
Tutto in regola... boh.Oggi - disperato - butto su la sitemap con le URL vecchie...
secondo me ci sono problemi veri e ovviamente, Google non risponde sulle robe serie.
2 Risposte -
@merlinox ha detto in Ritardo di Googlebot in re-crawling:
che non ci sono più (301) da quasi DUE mesi.
Sitemap aggiornate e pingate.
Server performante (più di prima).
Tutto in regola... boh.
Oggi - disperato - butto su la sitemap con le URL vecchie...Un "tecnica" che ho usato in passato, ma è insensato che si debba usare, è fare scansionare manualmente le Home e le categorie principali dello Shop con la funzione della GSC --> "Controllo URL" --> "Testa Url pubblicato".
P.s.
Se hai una decina di pagine lo puoi anche fare ma se sono migliaia la vedo dura, per questo ho consigliato di fare le principali categorie.
1 Risposta -
@merlinox hai provato con questo approccio?
-
@sermatica nel frattempo mi sono fatto uno script con le Index API
1 Risposta -
@merlinox ha detto in Ritardo di Googlebot in re-crawling:
Index API
Grazie, ora so cosa far fare al programmatore ... ma spero che Google risolve il problema.
-
@merlinox ha detto in Ritardo di Googlebot in re-crawling:
cansione completa è arrivata con 1,5 mese di ritardo.
a me è successo ed avevo risolto con le Index API per pushare a mano gli URL
-
@merlinox Provare a forzare il crawling via API (lo so non si dovrebbe, viola le policy ma non hanno dichiarato nulla su cosa accadrebbe a chi le viola; in ogni caso io l'ho fatto diverse volte e funziona. Personalmente ho usato il tool di rankmath fatto proprio per questo)
1 Risposta -
@MaxxG guarda se leggi i commenti precedenti, vedrai che il pushing via Index API è già stato fatto.
Grazie
1 Risposta -
Ma lato SERP come sei messo? Per caso ti si vede sia il vecchio che il nuovo?
Anche a me è successo in passato e per circa 3 mesi ci sono state entrambe le pagine del nuovo e vecchio nella stessa SERP. E' andata anche troppo bene nel male.
1 Risposta -
@merlinox ha detto in Ritardo di Googlebot in re-crawling:
@MaxxG guarda se leggi i commenti precedenti, vedrai che il pushing via Index API è già stato fatto.
GrazieE...? Ha sortito l'effetto sperato? Ora sono curioso.
1 Risposta -
@juanin no si vedono le pagine vecchie e molte ancora non sono indicizzate.
Sto attendendo i log post Index API... gli unici che possono darmi qualche risposta.
-
@kal waiting...