Mi sono scontrato più volte con queste affermazioni* ma ritengo che la via della saggezza sia sempre la migliore, ovvero di pensare "se io fossi Google" che cosa farei, a prescindere dalle dimensioni del mio sito
È ovvio che se ho un sito di 50 pagine il problema probabilmente non si pone.
Il lato opposto è quando ti trovi un e-commerce di 5-6000 pagine reali che a causa di produttori malsani (dio mi fulmini da quanti ne ho visti negli ultimi 2 anni dai nomi più blasonati) che per mera ignoranza iniettano "inermi" bug e ti trovi degli indici da 2-3 milioni di pagine.
Un altro punto che non si vuole capire è che ci sono fondamentalmente 2 report da guardare:
report scansione Google e vedere sommariamente il flusso di googlebot log log log > a volte informazione inaccessibile o addirittura piattaforme in cloud che ti rispondono "raccogliamo solo un campione"Io ritengo ovvio che il percorso che prepariamo noi per i motori sia lineare, senza labirinti, loop o perdite di tempo.
*ricordo che Google è quello che dice che in GSC nasconde solo alcune rare query e che raro corrisponde a 40%, osservazione più volte mossa su Twitter e a cui né John né Sullivan hanno mai risposto!!!