- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Strana penalizzazione: nuovi duplicati o nuovo Mayday?
-
Ma il link proviene da TwitterFeed, uno strumento pubblico. Non è nostro.
-
Anna
io non so come avete configurato quel programma.
Sta di fatto che google vede due pagine esattamente uguali e non può vederle.O il tuo programmatore ha conoscenze seo ed è in grado di risolvere questi problemi altrimenti, consiglio sincero e da amica, fatti seguire da qualcuno, che sa dove mettere le mani.
Perchè se mi rispondi "non è nostro" capisco che il tuo programmatore non ha capito il problema e non ti basta una semplice consulenza. Devi trovare qualcuno che ti metta le mani nel codice.
Altrimenti rischi di fare pastrocchi.
-
Scusa Deborah ma ora non ti seguo. Il secondo url è il nostro, questo non ci piove. Il primo è di Twitter Feed, un software che permette (tramite l'inserimento di un feed) di postare su Twitter. Non credo che siamo i soli ed unici ad usare quello strumento che non richiede conosce SEO e di informatica. Secondo la tua teoria, però, quello strumento è da mettere sotto osservazione. Se è così, però, apri un altro scenario che se permetti esula un po' dal discorso strutturale del nostro sito ma va applicato al software del feed per Twitter e all'indice di Google.
-
No, è generato dal vostro sito dove è stato installato Twitter Feed ma non è stato previsto di non farlo vedere ai motori di ricerca.
Dovete di fatto, no far vedere le due pagine ai mdr ma solo una.
-
Ho inserito pari pari tutti i link degli articoli di oggi (presenti sulla home), eccezion fatta per il tuo esempio di prima non c'è nessun duplicato e meno che io vedo qualcosa di diverso. Questo dimostra che puo' trattarsi di casa eccezionale. Eppure tutti gli articoli presi in esame usano TwitterFeed.
-
@collega-deborahdc said:
No, è generato dal vostro sito dove è stato installato Twitter Feed ma non è stato previsto di non farlo vedere ai motori di ricerca.
TwitterFeed non un client ma risiede su server terzi. Non è un nostro strumento ma un servizio pubblico e molto ma molto noto. Dalla home di TwiterFeed: oltre 2 milioni di feed.
-
fai come credi.
-
Questo problema (dei parametri) qua si risolve introducendo il rel=canonical negli articoli
comunicando quindo qual è l'URL canonica che Google deve seguire
-
Aggiornamento delle 17.44 con chiave "Google Chrome il più vulnerabile" modalità più recente. Sono solo 9 i risultati rispetto ai 10 di prima.
- risultato non pertinente;
2: come sopra; - come sopra;
- aggregatore che prenda la news dell'unico sito italiano (oltre il nostro) che ha riportato la notizia;
- sito italiano come il nostro che ha riportato la notizia;
- risultato non pertinente;
- nostro risultato proveniente da Google News;
- secondo aggregatore che ha copiato ed incollato il sito italiano al quinto posto;
- risultato non pertinente.
- risultato non pertinente;
-
Ho appena parlato con un ex dipendente Google Irlanda facente parte del Team di Matt Cutts.
Mi dice che:-
quanto Matt cita qualcosa nel suo blog o twitter significa che è qualcosa di grave (altrimenti non ne parla)
-
e' quasi sicuramente qualcosa riguardante i filtri antispam per le serp
-
quando succedono queste cose è bene sapere che ci va parecchio tempo perchè vengano sistemate da Google
-
E' meglio cercare di capire cosa generi il problema ed adeguarsi
-
mi dice di mandare sicuramente una richiesta di re-inclusione (anche se non sono certo al 100% del motivo della penality)
-
mi dice che da quanto sa ultimamente il focus è molto sulla velocità di caricamento delle pagine e che influiscono molto gli episodi di site down
In funzione di questo sto cambiando nameservers e dns (non hosting).
Spero che qualcuno ne capisca qualcosa di più e voglia condividere qui.grazie a tutti
-
-
Sulla velocità non punterei neanche una cicca, il nostro sito risulta il 67% più veloce degli altri e ho letto da più parti che influisce per l'1%, sugli altri aspetti farei una riflessione anche se alcune cose, scusami, sono abbastanza scontate...
-
Sono scontate ma sono gli unici dati certi che ho. Parto da questi.
Sulla velocità non affretterei una risposta così velocemente.
Considera che google ha sviluppato un apposito tool per misurarla e che nel webmaster central , sezione labs sono presenti informazioni molto dettagliate a riguardo.Anche io vedo il tipo di informazione che il sito è più performante della media ma la fluttuazione di performance è abbastanza evidente, sopratutto per un sito così corposo.
-
<br /><b>Dominio</b>: <br />fullpress dot it<br /><br /><b>Motori</b>: <br />Google<br /><br /><b>Prima indicizzazione o attività</b>: <br />anni fa<br /><br /><b>Cambiamenti effettuati</b>: <br />nessuno<br /><br /><b>Eventi legati ai link</b>: <br />nessuno<br /><br /><b>Sito realizzato con</b>: <br />cms<br /><br /><b>Come ho aumentato la popolarità</b>: <br />nulla<br /><br /><b>Chiavi</b>: <br />tutte<br /><br /><b>Sitemaps</b>: <br />Si<br />
-
Aggiornamento delle 23.00 con chiave "Google Chrome il più vulnerabile" modalità più recente. Ancora solo 9 risultati.
- aggregatore che prenda la news dell'unico sito italiano (oltre il nostro) che ha riportato la notizia;
2: risultato non pertinente; - eccoci per la prima volta, la news è presa dalla sezione NEWS che raggruppa tutte le News. Il title e il link è relativo alla sezione e non al singolo articolo;
- risultato non pertinente;
- risultato non pertinente;
- risultato non pertinente;
- sito italiano come il nostro che ha riportato la notizia;
- risultato non pertinente;
- nostro risultato proveniente da Google News.
- aggregatore che prenda la news dell'unico sito italiano (oltre il nostro) che ha riportato la notizia;
-
Ciao FullPress,
ti suggerirei di fare ricerche usando un ambiente di test sterile, ovvero: usare diversi indirizzi IP, non essere loggati su nessun servizio Google, essersi assicurati di aver svuotato i cookies e qualsiasi cache.
Al momento ore 1,42 ora italiana vedo...
Per Google Chrome il più vulnerabile (ricerca senza doppi apici), al 10° risultato vedo il box di Google News che riporta FullPress. FullPress è presente al 28° risultato con questa URL /News/Google-Chrome-il-piu-vulnerabile-nella-classifica-Dirty-Dozen/7-40659-1.html
Invece per "Google Chrome il più vulnerabile" (ricerca con doppi apici) 3 risultati di cui il 1° è Google News, il 2° FullPress URL News/Google-Chrome-il-piu-vulnerabile-nella-classifica-Dirty-Dozen/7-40659-1.html, il terzo /News/7-1.html .
Se espando il filtro duplicati cliccando su "ripetere la ricerca includendo i risultati omessi" vedo un altro risultato con i parametri twitterfeed come indicato in precedenza da collega-deborahdc.
Ultima nota: Google News riporta correttamente l'indicazione 13 ore fa.
-
Saluto tutti e faccio un in bocca al lupo a FullPress.
Volevo dire solo: il fatto che twitterfeed appenda quei parametri alla url che twitta è un 'problema noto' ... o almeno, noto agli utilizzatori di Twitterfeed che abbiano cognizioni seo.
E' un problema 'piccolo', nella maggioranza dei casi: intanto perchè i cms migliori hanno implementato il tag canonical di default (come Wordpress), quindi quelle url parametriche vengono successivamente filtrate in favore della URL vera.
Se proprio vogliamo dirla tutta TwitterFeed non è il solo tool che crea questo genere di url 'duplicate'... lo fa anche FeedBurner, tanto per parlare del diavolo (che fa le pentole ma non i coperchi, as usual).
Anche non utilizzando WP quei duplicati spariscono in brevissimo tempo (vengono filtrati al volo).... ma accade che invece a volte questo non succeda, perchè magari il link con i parametri è andato a finire su una pagina ben indicizzata che rischia quindi di tenere in indice (in un indice secondario) anche quelle url più lunghe generate dal tool per esigenze di tracking.
Ma non è Twitterfeed il problema di FullPress.it, questo è poco ma sicuro.
L'introduzione del canonical in questo caso è sicuramente stra-consigliata... ma temo che il sito sia comunque stato colpito da quel 'problema di indicizzazione' che Google ha ammesso il 19 ottobre.
Non capisco invece perchè Fullpress ritenga diverso il fenomeno che a suo avviso è cominciato il 21/22 ottobre.
Semmai il problema è capire in base a quale fattore alcuni siti vengono indicizzati lentamente e male, dalla fine di ottobre, e altri invece no.
Personalmente non ho registrato cali nè ritardi, quindi non saprei dire molto su questo particolare episodio.
Ho delle mie opinioni di lungo periodo sul modo di gestire le strutture di archiviazione dei blog (o assimilabili) da parte di Google... e mi viene sempre da chiedermi se questi filtri più recenti non abbiano come bersaglio l'uso e l'abuso dei 'tag' da parte dei produttori di contenuti.
L'ipotesi di Alexa - che ne fa una questione di 'settore' (siti d'informazione/siti di download) - mi sembra assai discutibile, sinceramente.
-
Giusto 2 righe riguardo al canonical.... Ho postato qui una URL che al momento dice abbastanza:
http://www.giorgiotave.it/forum/consigli-seo-e-penalizzazioni/153646-url-penalizzanti-duplicazione-contenuti.html#post818504
-
@WWW said:
Saluto tutti e faccio un in bocca al lupo a FullPress.
Volevo dire solo: il fatto che twitterfeed appenda quei parametri alla url che twitta è un 'problema noto' ... o almeno, noto agli utilizzatori di Twitterfeed che abbiano cognizioni seo.
E' un problema 'piccolo', nella maggioranza dei casi: intanto perchè i cms migliori hanno implementato il tag canonical di default (come Wordpress), quindi quelle url parametriche vengono successivamente filtrate in favore della URL vera.
Se proprio vogliamo dirla tutta TwitterFeed non è il solo tool che crea questo genere di url 'duplicate'... lo fa anche FeedBurner, tanto per parlare del diavolo (che fa le pentole ma non i coperchi, as usual).
Anche non utilizzando WP quei duplicati spariscono in brevissimo tempo (vengono filtrati al volo).... ma accade che invece a volte questo non succeda, perchè magari il link con i parametri è andato a finire su una pagina ben indicizzata che rischia quindi di tenere in indice (in un indice secondario) anche quelle url più lunghe generate dal tool per esigenze di tracking.
Ma non è Twitterfeed il problema di FullPress.it, questo è poco ma sicuro.
L'introduzione del canonical in questo caso è sicuramente stra-consigliata... ma temo che il sito sia comunque stato colpito da quel 'problema di indicizzazione' che Google ha ammesso il 19 ottobre.
Non capisco invece perchè Fullpress ritenga diverso il fenomeno che a suo avviso è cominciato il 21/22 ottobre.
Semmai il problema è capire in base a quale fattore alcuni siti vengono indicizzati lentamente e male, dalla fine di ottobre, e altri invece no.
Personalmente non ho registrato cali nè ritardi, quindi non saprei dire molto su questo particolare episodio.
Ho delle mie opinioni di lungo periodo sul modo di gestire le strutture di archiviazione dei blog (o assimilabili) da parte di Google... e mi viene sempre da chiedermi se questi filtri più recenti non abbiano come bersaglio l'uso e l'abuso dei 'tag' da parte dei produttori di contenuti.
L'ipotesi di Alexa - che ne fa una questione di 'settore' (siti d'informazione/siti di download) - mi sembra assai discutibile, sinceramente.
Crepi il lupo WWW, sei molto gentile.
Sono d'accordo con te che il nostro caso è in qualche modo collegato con la sfiga del 19 ottobre (noi l'abbiamo notato dal 22 ottobre) anche se da più parti e anche in versione ufficiale Google ha dichiarato che il problema è stato risolto. Poichè, invece, il problema a noi non è stato risolto quando dico che per noi non è la stessa cosa mi riferisco che non si è risolto come affermato da più parti (anche in blog che riportano senza verifiche le parole "ufficiali" di Google). Quindi? Quindi, secondo me i momenti sono due: caos dell'indice di Google e conseguenza. Quando riporto quello che scrive Alexa non volevo soffermarmi sull'analisi che fa sui siti peer to peer che ne escono avvantaggiati ma sul crollo di siti che dal 19 ottobre in poi non si sono più ripresi. Non credo, come qualcuno vuol far apparire, che sia un problema di SEO bravo e di informatico capace. Qui il problema ha colpito una quantità enorme di siti, in tutto il mondo, di settori e target completamente differenti. Ho detto al webmaster di inserire il canonical sperando di essere ottimisti anche se non è facile perchè oltre alla vostra gentilissima disponibilità non ho visto in giro (soprattutto in Italia) interrogarsi su cosa sta facendo o cosa ha combinato Google. Sono altrettanto consapevole che per Google noi siamo un semplice numero, morte nostra avanti un altro.
-
Aggiungo solo che, con l'ultimo aggiornamento, la query "site:sito.etx a" sembra non funzionare più.
Quindi, purtroppo, non possiamo più farci affidamento.
-
Scusami Fullpress ma non sono d'accordo con cosa dici.
Concordo al 101% con collega-deborahdc.E ti segnalo le parole di JohnMu qui (i grassetti sono miei) http://www.google.com/support/forum/p/Webmasters/thread?tid=7908355c3d1637e8&hl=en&start=280
In general, it's hard for our algorithms to review sites like yours on a post-by-post basis, so we try to look at the bigger picture. If the bigger picture shows issues that we wouldn't expect (such as some duplicated content like that), then that may make it hard for us to treat the rest of the content with as much weight as we would like. If you're aware of those posts being somewhat sub-optimal, then I'd recommend taking steps towards removing them from your site (or at least to block them from being indexed -- if they otherwise provide value to your users).
Google's algorithms are constantly being worked on, so even if you have not changed anything on your side, it might be that our algorithms' view of parts of your site changes over time. So personally, I would really not fuss too much over the technical issues we had, and instead focus on what you can do on your side to improve the bigger picture of your site.
I realize that working with user generated content makes things a bit more complicated, or at least it requires creative thinking... I imagine you probably have much more experience and many more ideas around that than I would, so I'm certain you'll find something in that direction