- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%
-
Ciao haser,
webnode mi da la possibilità di inserire qualunque codice html nella pagina con un tool. Nello stesso modo in cui incollo i codici di adsense o altro. Posso incollare qualunque cosa o qualunque codice.
Il file robot.txt non lo posso modificare direttamente dagli strumenti per webmaster?
Lo misi nel sito due anni fa quando iniziai. Ma potrei metterne uno nuovo e sostituire il vecchio. La sitemap la crea lui automaticamente.
Le pagine copia della home quando le visualizzo e gli dò l'ordine di cancellarle mi dice "impossibile".
-
Riesci a togliere codice html?
Per le pagine copia della home, penso che ci voglia un redirect, se riesci ad inserire il redirect seguente solo in quelle due pagine sei a cavallo:
<META HTTP-EQUIV="Refresh" CONTENT="0;URL=caf-sassari.com">
NOTA BENE: il campo url dovrebbe essere l'url completa della home del tuo sito, o il file home.html. Il codice va tra i tag <head>.
NOTA BENE2: Vedi che se sbagli qualcosa e applichi questo codice su tutte le pagine del sito hai fatto un casino.
-
@Haser said:
Riesci a togliere codice html?
Per le pagine copia della home, penso che ci voglia un redirect, se riesci ad inserire il redirect seguente solo in quelle due pagine sei a cavallo:
<META HTTP-EQUIV="Refresh" CONTENT="0;URL=caf-sassari.com">
NOTA BENE: il campo url dovrebbe essere l'url completa della home del tuo sito, o il file home.html. Il codice va tra i tag <head>.
NOTA BENE2: Vedi che se sbagli qualcosa e applichi questo codice su tutte le pagine del sito hai fatto un casino.Si posso inserire il codice in qualunque punto.
Quindi:- il codice va tra i tag head. Ok nessun problema.
- l'url della home: metto www nome sito punto com (mannaggia non mi fa mettere indirizzi) oppure semplicemente quello che hai scritto tu?
Comunque so bene dove i codici funzionano solo nella pagina e dove funzionano in tutto il sito. Lo stesso vale per widget e per banner adsense.
In ogni caso la uso come ultima chanche. Prima attendo la risposta del servizio premium. Oggi li ho contattatti di nuovo.
In ogni caso ho i beckup a disposizione da ricaricare. Dovrebbero evitare casini no?
Ti ringrazio tantissimo per l'aiuto che mi stai dando.
-
In bocca al lupo Francesco, fai tutti i tentativi e facci sapere qui sul forum com'è andata. A tempo perso, ti consiglio di passare ad un CMS più "facile", come Wordpress o Joomla (ma questo è un parere strettamente personale) e ti evitare il mega menù laterale: anni addietro, per questo motivo, furono penalizzati diversi siti...
-
Ciao, devi mettere tutta la url completa partendo da http : // senza spazi.
-
Ok lo farò e vi faccio sapere.
-
Strano effetto.
Ho messo il codice prima in uno dei siti di prova per capire come funzionava e ho capito.
Poi ho messo il codice su una delle pagine duplicate e ho pubblicato. Poi sono andato sulla pagina duplicata e correttamente mi portava alla home principale (facendo il suo mestiere di redirect) solo che la pagina principale si ricaricava in continuazione, ovvero si rimandava a se stessa di continuo.
Ergo ho tolto il codice.
Suggerimenti?
-
Curioso. Se metto una password alla pagina copia per impedire l'accesso a googlebot mi mette la pass anche alla home vera.
Insomma, sembrerebbe che qualunque azione faccia alla copia la faccio anche alla vera.
Questo spiega il redirect in tondo.
Mi chiedevo, non sarebbe meglio a questo punto inserire un comando no follow nel robot txt e nel contempo chiedere l'eliminazione delle pagine duplicate a google tramige gtw?
-
Strano..., a questo punto, si. La modifica del file robots.txt sembra che sia l'unica modifica che tu possa fare.
Ti dovrebbe bastare modificare il file robots.txt nel seguente modo:
User-agent: *
Disallow: /home/newscbm_247407/e poi rimuovi le due pagine dall'indice google. Dovresti controllare anche se hai qualche link che punta a quelle 2 pagine. Sia interno al tuo sito che esterno.
-
Ciao haser,
Si penso proprio che farò cosi come hai scritto.
Sono solo indeciso se eliminare l'intera directory oppure dare un singolo comando per ogni copia.
-
Mi sono accorto che non posso caricare il file robot.txt sul mio sito. Pare debba chiedere di farlo ai gestori.
-
Strano, dovrebbe essere fattibile... prova ad aprire un ticket.
-
Insomma:
il redirect non va bene perchè fa effetto anche nella home.
stesso discorso dovrebbe valere per un meta tag no index (anche se non l'ho provato)
il file robot non lo posso caricare
Se non mi aiutano dal servizio premium non mi rimane che far emigrare il sito.
-
@zackmckacken said:
Strano, dovrebbe essere fattibile... prova ad aprire un ticket.
Cioè? aprire un ticket?
-
In data domenica 14 dicembre la scansione di google ha eliminato le pagine duplicate dagli strumenti per webmaster.
Ora ho soltanto una pagina tag duplicata ma nessuna homepage.
(ho usato rel="canonical)
Oggi, Lunedì 15 dicembre, a distanza di 24 ore, il traffico del sito è lievemente aumentato (da 200 a 300 accessi unici). In termini percentuali è un buon 50%.
Dalle vostre esperienze, dite che la penalizzazione è passata e il sito comunque ci metterà un pò a riprendersi? O se non si riprende nell'arco di tot ore vuol dire che la penalizzazione persiste?
-
Io direi di attendere l'evoluzione e vedere, nel giro di una settimana, cosa succede. Tieni presente che le variazioni di traffico a dicembre potrebbero dipendere da altri fattori (le festività, in genere, riducono il traffico su alcuni siti di economia che gestisco).
-
si zack infatti oggi sembra risceso ai 200 accessi come media. Meglio aspettare qualche giorno. Per il resto, dopo aver eliminato molti tag e le pagine doppie non credo rimanga molto altro da fare.
(a parte qualche banner della concorrenza ancora sul sito ma non credo che google sia così cattivello da penalizzarmi per quello).