- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- catastrofe mia O catastrofe di google?
-
Non sono d'accordo, come scritto in altro post sta togliendo pagine vere e propier non duplicate che aveva correttamente nei DB. Almeno nel mio caso.
-
Sta togliendo le copie cache che aveva nel DB, quindi non le pagine reali
sta togliendo le pagine reali.
http://sito/paginareale.html -CERCA
Spiacenti. Non ci sono informazioni sull'URL www.XXXX
Se l'URL è valido, provare a visualizzare la pagina facendo clic sul seguente collegamento: www.XXX etce ti assicuro giorgio che non erano pagine duplicate. Ma Proprio Per Niente..
-
@margheritebianche said:
Non sono d'accordo, come scritto in altro post sta togliendo pagine vere e propier non duplicate che aveva correttamente nei DB. Almeno nel mio caso.
Allora ha deciso anche per questa scelta.
Avete il sito in IP condivisi da molti siti?
-
Si, ma non ho capito la logica con cui può fare una cosa simile!
Un altro mio sito molto + vecchio ha le solite 30-40000 pagine.
-
@Giorgiotave said:
Avete il sito in IP condivisi da molti siti?
Che cavolo stai dicendo Willis, pensi che dipenda anche da questo?
A me ha tolto pagine seminutili... ip condiviso, ma quelle piene ed importanti sono rimaste...
Giorgino non mi fare questo, non ho voglia di trasferire il sito su ip fisso
-
Ragazzi, è un periodo dove si deve solo aspettare ed aggiungere contenuti.
L'Ip unico è una soluzione molto buona, ma non per i vostri problemi, per i vostri progetti
-
Il mio sito si trova su di un hosting di register.it, e immagino che ci siano una quantità enorme di siti sullo stesso ip.
Ho notato che le pagine cancellate riguardano soprattutto l'utlimo aggiornamento che ho fatto sul catalogo.
Infatti sul contatore di visite, le pagine visitate sono le medesime di poco più un mese fa.
Sembra quasi che abbiano annullato l'ultimo passaggio effettuato dallo spyder.
Ciao,
Mike
-
ci devono essere veramente tante pagine presenti sullo stesso IP per avere penalizzazioni di questo tipo, a mio avviso.
giustamente, googlebot evita di "dossare" un server, e quindi limiterà in qualche misura la spiderizzazione di un unico IP.
ma googlebot può richiedere più pagine durante una unica [url=http://www.mattcutts.com/blog/mego/]connessione persistente. basta usare un webserver anche solo appena decente
-
Intanto ragazzi la situazione si sta aggravando di giorno in giorno. Non ce la faccio più a vedere pagine eliminate dagli indici di google. VI RIPETO, SONO SICURO DI NON ESSERE INCORSO IN NESSUNA PENALIZZAZIONE.
Che mi consigliate di fare? Scrivo a google chiedendo spiegazioni? Ho letto su un forum che scrivendo a [email][email protected][/email] (o [email][email protected][/email]) non ricordo, entro 2 giorni rispondono (prima con un messaggio automatico e poi un operatore di google vero e proprio) ..
Che devo fare ? Giorgio dice di aspettare e continuare ad inserire contenuti...ma penso che questo lo fa chi ha un sito informativo..io invece devo vendere per campare
-
in linea di massima io direi di aumentare i backlink, ma così alla cieca è difficile a dirsi... puoi dire il sito in questione?