- Home
- Categorie
- Digital Marketing
- SEO
- Penalizzazione: mi aiutate a capire il motivo
-
Grazie mille RoPa per la risposta! Davvero, almeno inizio a capirci qualcosa perchè avere una penalizzazione del genere senza alcuna idea è bruttisssimo!
Ora che ci penso le keywords le abbiamo rese visibili giusto da 3-4 mesi.....:():
Potrebbe essere la causa?Comunque le ho rimosse, come mi hai detto tu!
Inoltre ho una domanda per te che sei così gentile da aiutarmi: se guardi il blog (lo trovi cliccando sul tasto in homepage) puoi dirmi se secondo te i tanti tag per ogni articolo possono essere considerati contenuti duplicati?
Adesso li sto togliendo e ne lascio 2-3 per ogni articolo (quindi negli articoli più recenti ne vedi pochi), ma prima erano anche 10 per articolo!!
Ho questo dubbio perchè negli ultimi mesi ho lavorato molto sul blog perchè comunque funzionava bene...e non vorrei fosse stato proprio lui a suggerire la penalizzazione a mr google...
Altra domanda, per tutti....una volta eliminato quel contenuto duplicato devo fare la richiesta di reinclusione a Google?
Mi potete spiegare un po' come funziona? Vi ringrazio molto
Sara
-
Hai controllato di non avere indicizzato anche le categorie?
Se sono indicizzate è prebabile che assieme ai tag producano contenuti duplicati.
-
Qualcuno mi corregga se mi sbaglio, ma i contenuti doppi non dovrebbero richiamare penalizzazioni. Google a questo punto tra le pagine che considera avere contenuti troppo simili ne sceglie una da indicizzare ed alle altre non fa caso come indicizzazione. Ricordo che esiste un tag specifico per indicare a Google quale pagina considerare originale tra i "doppioni".
-
Mi correggo - non è un tag, ma un parametro. "canonical". ed indica la pagina da indicizzare. Evitando sorprese de tipo che google indicizzi una pagina a caso tra quelle che ritiene di contenuti raddoppiati. Ribadisco che di regola Google non penalizza per pagine con contenuti doppi. Eccetto il caso quando pensa che i doppioni siano fatti a scoppo di manipolare il posizionamento del sito nelle SERP.
-
Ciao Monte_Cristo e benvenuto nel Forum GT.
In realtà c'è una certa differenza. Usare il robots.txt e il metatag robots con noindex o noindex,nofollow sulle pagine duplicate risparmia risorse ai crawler in quanto si eviterà che la pagina venga processata.
Invece l'applicazione del rel="canonical" -che lo ripetiamo è un semplice consiglio di Google e non una direttiva ufficiale del W3C- implica che comunque la pagina venga scaricata negli indici di Google e processata.
Quanto indicato dal suggerimento rel="canonical" viene quindi applicato alle pagine solo in una fase successiva al crawling e all'indexing.
-
Grazie a tutti dei consigli...
Qualcuno sa dirmi qualcosa circa i Tag del Blog? Pensate possano incidere ed essere considerati contenuti duplicati essendo tanti per ogni articolo?
Inoltre...come devo procedere ora che ho rimosso le keywords visibili da ogni pagina come suggerito da RoPa?
Devo chiedere la riconsiderazione del dominio a Google?
GrazieSara
-
No, aspettiamo un po' e vediamo eventuali novità. La riconsiderazione teniamola per casi eccezionali.
-
Dici? ma c'è possibilità che si riprenda da solo?
-
@mister.jinx said:
Ciao Monte_Cristo e benvenuto nel Forum GT.
In realtà c'è una certa differenza. Usare il robots.txt e il metatag robots con noindex o noindex,nofollow sulle pagine duplicate risparmia risorse ai crawler in quanto si eviterà che la pagina venga processata.
Invece l'applicazione del rel="canonical" -che lo ripetiamo è un semplice consiglio di Google e non una direttiva ufficiale del W3C- implica che comunque la pagina venga scaricata negli indici di Google e processata.
Quanto indicato dal suggerimento rel="canonical" viene quindi applicato alle pagine solo in una fase successiva al crawling e all'indexing.
Bentrovati Mister.jinx. E' verissimo quello che dici. Ma il mio ragionamento era proprio quello - visto che Google stessa consiglia il canonical vuole dire che non può essere troppo fiscale riguardo le ripetizioni. E poi, se le pagine indicizzate da mesi cominciano a crollare adesso, ma delle modifiche nel frattempo non hanno sofferto, ci sono solo 2 ipotesi - 1 google ha cambiato qualcosa nei suoi principi di posizionamento, e le pagine vengono riposizionati secondo quei principi, oppure Google ha capito appena tra un paio di mesi che ci sono dei doppioni tanto gravi da essere considerati spam... La seconda mi sembra improbabile. Non puo metterci tanto. M d'altra parte se fosse una faccenda a livello di principi interni di google per posizionamento, l'effetto sarebbe notato da un sacco di siti, e quindi e ancora più improbabile che sia questo il motivo. Escluso il google dance, per me i fattori onpage sono esauriti.
Manca l'offpage. Chissà chi ti linka, e chi linki tu? Ne sei sicuro della qualità dei tuoi partner di linking?. D'altra parte non ho ancora esperienza vastissime nel campo. Sarei curioso dei commenti degli senior SEO sul mio ragionamento.
-
cavoli, ho appena visto le tue pagine (avrei dovuto farlo subito, invece mi sono perso a teorizzatore). Sono veramente troppo simili e sono tantissime di loro troppo simili. Almeno i titoli e le description. inoltre ho visto i tuoi links. Hai per caso acquistato dei links in entrata?
-
Ipotizzando che i duplicati interni a un sito puoi sempre risolverli perché ne hai il pieno controllo (anche attraverso alcuni tool che trovi dentro gli strumenti per webmaster), per il rel="canonical" io immagino una cosa diversa.
Immagina una serie di siti che dall'esterno ti backlinkano una stessa pagina con parametri sulla URL differenti che cosa accade ? Che probabilmente Google troverà URL diverse per la stessa pagina.
Ecco che in quel caso specifico il canonical è l'unica soluzione che il webmaster ha per suggerire a Google la forma di URL più appropriata.
-
Grande Mister.jinx. Nel caso di cui parli, il rel="canonical" è veramente utilissimo. Buono anche il video di Madri. Non lo avevo visto. Grazie
-
Grazie a tutti per le segnalazioni...
Avendo visto il video che ha postato Mister.jinx. ne deduco che i tanti tag sono un problema...quindi vado ad eliminare quelli di troppo, giusto?No, mai acquistato link....
Quindi come mi consigliate di procedere?
-
Sara, direi intanto - non smettere di "rompere" anche se delle volte nessuno ti risponda continua a chiedere. Io ti vorrei dare dei consigli da esperto, ma non ho una tal esperienza come RoPa o Mister.jinx
A livello teorico, ne ho trovate 95% di pagine tra il migliaio che Google mostra con i contenuti del title e description automatizzato. Non ho avuto a che fare con i negozi grandi come il tuo. Certamente, fare 10000 descrizioni a mano e cercare di renderle tutte diverse, sarebbe una pazzia. Ma Google da valore ai Title. E comunque se non ai fini di posizionamento, ma anche ai description. Per me la tua è una percentuale veramente elevatissima di pagine troppo simili a quei livelli. Per me potrebbe essere un problema. Ma dirti - metti a cambiare i title e description delle 10000 pagine e vediamo che fa Google, non me la sento affatto. Magari potresti indagare un po di più su come fanno i title dei altri grandi negozi. Ad esempio amazon? Basterebbe una ricerca "site:" per prendere le 1000 pagine da google del sito e vedere l'elenco dei title e description? Inoltre -è possibile che i soliti principi di automatizzazione li utilizzi anche in qualche tag h1 nelle pagine?
-
I tag sono sicuramente un problema da valutare, così come i contenuti duplicati interni ed esterni e altri problemi. Ora abbiamo fatto solo la prima modifica, aspettiamo eventuali novità e agiamo di conseguenza.
Riguardo al guardare gli altri siti, è un consiglio assolutamete da seguire ma da prendere con le pinze. E' giustissimo farlo sempre e comunque, ma non pensare che se una cosa la fanno su Amazon allora sia una cosa giusta. Ci sono tantissimi fattori dietro e spesso azioni compiute da un nostro concorrente a noi sarebbero letali o viceversa.
-
100% D'accordo. E' un campo minato. Non intendevo dire copiare, se questo era il vero messaggio, mi devo scusare. Intendevo fare un opinione sulla massa di negozi. ho preso come esempio Amazon, ma no intendevo limitarsi a quello. E mentre copiare parte della strategia di un solo concorrente, potrebbe essere dannoso, perché non si conosce mai cosa in primis lo tiene attaccato al primo posto - se si trova che la maggioranza dei negozi studiati hanno i titoli simili a quelli di Sara - intendo automatizzati e molto simili tra di loro ed in cosi grande quantità - io personalmente traggo la conclusione che la tecnica è inoffensiva. Per me quella può essere definita normalità e prenderla come regola. Ma ripeto sto teorizzando - le critiche dei colleghi pratici con esperienza alle spalle sono più che benvenute!
-
@Monte_Cristto said:
A livello teorico, ne ho trovate 95% di pagine tra il migliaio che Google mostra con i contenuti del title e description automatizzato. Non ho avuto a che fare con i negozi grandi come il tuo. Certamente, fare 10000 descrizioni a mano e cercare di renderle tutte diverse, sarebbe una pazzia. Ma Google da valore ai Title. E comunque se non ai fini di posizionamento, ma anche ai description. Per me la tua è una percentuale veramente elevatissima di pagine troppo simili a quei livelli. Per me potrebbe essere un problema.
Le pagine sono scritte a mano, tutte. Non abbiamo alcun sistema automatizzato. Ovvio che quando tratti negozi che vendono lo stesso articolo non si ha molta scelta e dopo più di 7000 schede negozi i titoli è facile farli simili tra loro....
Il fatto è che il sito non ha mai avuto problemi in un anno e mezzo che è online con questo sistema...
Le uniche cose relativamente recenti sono il blog (da marzo 2010) e le parole chiave visibili su ogni scheda (ora rimosse su consiglio di RoPa) aggiunte 3-4 mesi fa.Altri consigli?
-
Allora VIVA RoPa.
Secondo me hai proprio risolto. Mi sa che li devi una birra come minimo, diversamente, un paio di cartoni
In Bocca al lupo!
-
@RoPa said:
No, aspettiamo un po' e vediamo eventuali novità.
Risolto il problema?
Concordo sempre con il mitico RoPa ma questa volta non capisco perchè bisogna aspettare. Io procederei subito con la rimozione dei tag o meglio lasciali pure ma non li farei leggere a google seguendo sempre i condigli di mister.jinx e del video di madri.
Prima di agire magari aspetta che Ro.Pa ci illustri il perchè aspettare. Aspettare ed avere pazienza è sempre una buona arma in campo SEO ma in questa occasione io procederei.
-
Ciao, Egidio. Credo che ti sei perso qualche sequenza
Capita anche a me quando il topic diventa abbastanza lungo. Se ben ricordo l'aspettare di RoPa si riferiva alla chiedere la riconsiderazione del sito, non al agire sulle pagine. Mentre quanto prima consigliato è già stato implementato da Sara. Questa rimane la mia visione della situazione. Vado a memoria, ma credo di dire tutto correttamente.