• Moderatrice

    Aggiornamento delle 23.00 con chiave "Google Chrome il più vulnerabile" modalità più recente. Ancora solo 9 risultati.

    1. aggregatore che prenda la news dell'unico sito italiano (oltre il nostro) che ha riportato la notizia;
      2: risultato non pertinente;
    2. eccoci per la prima volta, la news è presa dalla sezione NEWS che raggruppa tutte le News. Il title e il link è relativo alla sezione e non al singolo articolo;
    3. risultato non pertinente;
    4. risultato non pertinente;
    5. risultato non pertinente;
    6. sito italiano come il nostro che ha riportato la notizia;
    7. risultato non pertinente;
    8. nostro risultato proveniente da Google News.

  • ModSenior

    Ciao FullPress,

    ti suggerirei di fare ricerche usando un ambiente di test sterile, ovvero: usare diversi indirizzi IP, non essere loggati su nessun servizio Google, essersi assicurati di aver svuotato i cookies e qualsiasi cache.

    Al momento ore 1,42 ora italiana vedo...

    Per Google Chrome il più vulnerabile (ricerca senza doppi apici), al 10° risultato vedo il box di Google News che riporta FullPress. FullPress è presente al 28° risultato con questa URL /News/Google-Chrome-il-piu-vulnerabile-nella-classifica-Dirty-Dozen/7-40659-1.html

    Invece per "Google Chrome il più vulnerabile" (ricerca con doppi apici) 3 risultati di cui il 1° è Google News, il 2° FullPress URL News/Google-Chrome-il-piu-vulnerabile-nella-classifica-Dirty-Dozen/7-40659-1.html, il terzo /News/7-1.html .

    Se espando il filtro duplicati cliccando su "ripetere la ricerca includendo i risultati omessi" vedo un altro risultato con i parametri twitterfeed come indicato in precedenza da collega-deborahdc.

    Ultima nota: Google News riporta correttamente l'indicazione 13 ore fa.


  • Moderatore

    Saluto tutti e faccio un in bocca al lupo a FullPress.

    Volevo dire solo: il fatto che twitterfeed appenda quei parametri alla url che twitta è un 'problema noto' ... o almeno, noto agli utilizzatori di Twitterfeed che abbiano cognizioni seo.

    E' un problema 'piccolo', nella maggioranza dei casi: intanto perchè i cms migliori hanno implementato il tag canonical di default (come Wordpress), quindi quelle url parametriche vengono successivamente filtrate in favore della URL vera.

    Se proprio vogliamo dirla tutta TwitterFeed non è il solo tool che crea questo genere di url 'duplicate'... lo fa anche FeedBurner, tanto per parlare del diavolo (che fa le pentole ma non i coperchi, as usual).

    Anche non utilizzando WP quei duplicati spariscono in brevissimo tempo (vengono filtrati al volo).... ma accade che invece a volte questo non succeda, perchè magari il link con i parametri è andato a finire su una pagina ben indicizzata che rischia quindi di tenere in indice (in un indice secondario) anche quelle url più lunghe generate dal tool per esigenze di tracking.

    Ma non è Twitterfeed il problema di FullPress.it, questo è poco ma sicuro.

    L'introduzione del canonical in questo caso è sicuramente stra-consigliata... ma temo che il sito sia comunque stato colpito da quel 'problema di indicizzazione' che Google ha ammesso il 19 ottobre.

    Non capisco invece perchè Fullpress ritenga diverso il fenomeno che a suo avviso è cominciato il 21/22 ottobre.

    Semmai il problema è capire in base a quale fattore alcuni siti vengono indicizzati lentamente e male, dalla fine di ottobre, e altri invece no.


    Personalmente non ho registrato cali nè ritardi, quindi non saprei dire molto su questo particolare episodio.

    Ho delle mie opinioni di lungo periodo sul modo di gestire le strutture di archiviazione dei blog (o assimilabili) da parte di Google... e mi viene sempre da chiedermi se questi filtri più recenti non abbiano come bersaglio l'uso e l'abuso dei 'tag' da parte dei produttori di contenuti.

    L'ipotesi di Alexa - che ne fa una questione di 'settore' (siti d'informazione/siti di download) - mi sembra assai discutibile, sinceramente.

    :ciauz:


  • ModSenior

    Giusto 2 righe riguardo al canonical.... Ho postato qui una URL che al momento dice abbastanza:
    http://www.giorgiotave.it/forum/consigli-seo-e-penalizzazioni/153646-url-penalizzanti-duplicazione-contenuti.html#post818504


  • Moderatrice

    @WWW said:

    Saluto tutti e faccio un in bocca al lupo a FullPress.

    Volevo dire solo: il fatto che twitterfeed appenda quei parametri alla url che twitta è un 'problema noto' ... o almeno, noto agli utilizzatori di Twitterfeed che abbiano cognizioni seo.

    E' un problema 'piccolo', nella maggioranza dei casi: intanto perchè i cms migliori hanno implementato il tag canonical di default (come Wordpress), quindi quelle url parametriche vengono successivamente filtrate in favore della URL vera.

    Se proprio vogliamo dirla tutta TwitterFeed non è il solo tool che crea questo genere di url 'duplicate'... lo fa anche FeedBurner, tanto per parlare del diavolo (che fa le pentole ma non i coperchi, as usual).

    Anche non utilizzando WP quei duplicati spariscono in brevissimo tempo (vengono filtrati al volo).... ma accade che invece a volte questo non succeda, perchè magari il link con i parametri è andato a finire su una pagina ben indicizzata che rischia quindi di tenere in indice (in un indice secondario) anche quelle url più lunghe generate dal tool per esigenze di tracking.

    Ma non è Twitterfeed il problema di FullPress.it, questo è poco ma sicuro.

    L'introduzione del canonical in questo caso è sicuramente stra-consigliata... ma temo che il sito sia comunque stato colpito da quel 'problema di indicizzazione' che Google ha ammesso il 19 ottobre.

    Non capisco invece perchè Fullpress ritenga diverso il fenomeno che a suo avviso è cominciato il 21/22 ottobre.

    Semmai il problema è capire in base a quale fattore alcuni siti vengono indicizzati lentamente e male, dalla fine di ottobre, e altri invece no.


    Personalmente non ho registrato cali nè ritardi, quindi non saprei dire molto su questo particolare episodio.

    Ho delle mie opinioni di lungo periodo sul modo di gestire le strutture di archiviazione dei blog (o assimilabili) da parte di Google... e mi viene sempre da chiedermi se questi filtri più recenti non abbiano come bersaglio l'uso e l'abuso dei 'tag' da parte dei produttori di contenuti.

    L'ipotesi di Alexa - che ne fa una questione di 'settore' (siti d'informazione/siti di download) - mi sembra assai discutibile, sinceramente.

    :ciauz:

    Crepi il lupo WWW, sei molto gentile.
    Sono d'accordo con te che il nostro caso è in qualche modo collegato con la sfiga del 19 ottobre (noi l'abbiamo notato dal 22 ottobre) anche se da più parti e anche in versione ufficiale Google ha dichiarato che il problema è stato risolto. Poichè, invece, il problema a noi non è stato risolto quando dico che per noi non è la stessa cosa mi riferisco che non si è risolto come affermato da più parti (anche in blog che riportano senza verifiche le parole "ufficiali" di Google). Quindi? Quindi, secondo me i momenti sono due: caos dell'indice di Google e conseguenza. Quando riporto quello che scrive Alexa non volevo soffermarmi sull'analisi che fa sui siti peer to peer che ne escono avvantaggiati ma sul crollo di siti che dal 19 ottobre in poi non si sono più ripresi. Non credo, come qualcuno vuol far apparire, che sia un problema di SEO bravo e di informatico capace. Qui il problema ha colpito una quantità enorme di siti, in tutto il mondo, di settori e target completamente differenti. Ho detto al webmaster di inserire il canonical sperando di essere ottimisti anche se non è facile perchè oltre alla vostra gentilissima disponibilità non ho visto in giro (soprattutto in Italia) interrogarsi su cosa sta facendo o cosa ha combinato Google. Sono altrettanto consapevole che per Google noi siamo un semplice numero, morte nostra avanti un altro.


  • Super User

    Aggiungo solo che, con l'ultimo aggiornamento, la query "site:sito.etx a" sembra non funzionare più.

    Quindi, purtroppo, non possiamo più farci affidamento.


  • ModSenior

    Scusami Fullpress ma non sono d'accordo con cosa dici.
    Concordo al 101% con collega-deborahdc.

    E ti segnalo le parole di JohnMu qui (i grassetti sono miei) http://www.google.com/support/forum/p/Webmasters/thread?tid=7908355c3d1637e8&hl=en&start=280

    In general, it's hard for our algorithms to review sites like yours on a post-by-post basis, so we try to look at the bigger picture. If the bigger picture shows issues that we wouldn't expect (such as some duplicated content like that), then that may make it hard for us to treat the rest of the content with as much weight as we would like. If you're aware of those posts being somewhat sub-optimal, then I'd recommend taking steps towards removing them from your site (or at least to block them from being indexed -- if they otherwise provide value to your users).

    Google's algorithms are constantly being worked on, so even if you have not changed anything on your side, it might be that our algorithms' view of parts of your site changes over time. So personally, I would really not fuss too much over the technical issues we had, and instead focus on what you can do on your side to improve the bigger picture of your site.

    I realize that working with user generated content makes things a bit more complicated, or at least it requires creative thinking... I imagine you probably have much more experience and many more ideas around that than I would, so I'm certain you'll find something in that direction 🙂


  • ModSenior

    Riguardo a questa:
    @Karapoto said:

    Aggiungo solo che, con l'ultimo aggiornamento, la query "site:sito.etx a" sembra non funzionare più.

    Quindi, purtroppo, non possiamo più farci affidamento.

    Si ho riverificato quanto indicato da FullPress in un precedente post.
    Ma la sostanza delle cose non cambia: FullPress ha duplicati interni che in un modo o in un altro vanno tolti. Punto. Non ci sono se o ma per tentennare.

    Aggiungo anche e sospetto un cambio algoritmico nel calcolo delle hash del filtro anti-duplicazione come ho twittato stamane.


  • Moderatore

    Facciamo a capirci Fullpress: non è una novità che la comunicazione di Google sia 'per sommi capi'... mentre invece le interpretazioni e le soluzioni - come dice e rimarca mrJinx con le sue citazioni - vanno fatte sito per sito.

    Ora, la citazione ripresa da mrJinx è importante: Google valuta un sito 'nel suo complesso', e molto spesso in base a questa valutazione complessiva adatta le risorse da dedicare ad un determinato dominio.

    Problemi di duplicati? Ok, probabile. Ma magari hai anche un rapporto tra tag e articoli che non va bene... o almeno, non va più bene secondo i nuovi algoritmi che GG usa per indicizzare siti come il tuo.

    Intendo dire una cosa molto semplice: hai ragione a dire che non è il tuo seo o il tuo webmaster che 'ha fatto qualcosa di male', mentre invece hai torto se pensi che proprio un sito come FullPress possa fare a meno di curare - direi *maniacalmente *- i suoi rappporti con Big G, ivi comprendendo anche le sue più recenti idiosincrasie.

    Non vorrei sbagliarmi e non conosco bene il tuo sito, anche se so che è tra i più famosi nel suo settore - ed ha anche 10 anni di storia alle spalle.

    Ma è chiaro che si colloca esattamente in un settore in cui il tema dei 'duplicati' - intendo interi contenuti duplicati - è all'ordine del giorno.

    Sappiamo che i comunicati stampa vengono pubblicati a destra e a manca... dal più piccolo webmaster fino alla più prestigiosa agenzia.

    :rollo:

    Poi se non mi sbaglio avete anche una sezione che aggrega dalla blogosfera (mi sbaglio?).... anche con l'aggregazione si gioca al filo - tra frequenza di scansione e contenuti duplicati con il relativo filtro...

    Insomma, mi sembra chiaro che anche un'apparente fesseria come l'utilizzo o meno del canonical - su un sito di quelle dimensioni - possa incidere parecchio sulle dinamiche di scala. E sulle performance, quindi.

    Il canonical mancante?
    Troppi archivi (tag)?
    Magari un server non sempre in splendida forma? (e il vostro db è ottimizzato?)
    Oppure addirittura una flessione importante nel flusso di link in ingresso?

    Insomma, quello che penso è che proprio nel vostro settore e con il vostro genere di sito potrebbero esserci diversi 'dati di fondo' da tenere sempre sotto controllo.

    Ma proprio per questo è difficile dare delle risposte subito risolutive: devi tentare ugualmente delle soluzioni.

    Come citava MrJinx dalla bocca di J Mu: "curare le prestazioni generali" del sito.

    Voglio dire: non scoraggiarti, assolutamente. Ma non limitarti nemmeno a seguire qualche consiglio trovato qua e là sulla rete: purtroppo siti di grandi dimensioni devono fare affidamento alla propria capacità interna di curare o prevenire eventuali problemi... è perfettamente comprensibile che non ci sia una risposta univoca che vada bene per il tuo sito, mentre questa va cercata testando e limitando ogni possibile frizione.

    Che è poi quello che ti invitiamo a fare (sperando che magari poi tu potrai venire qui a condividere la tua soluzione, naturalmente).

    🙂


    Sul commando site:

    Avevo aperto un 3D mesi fa, ma proprio ieri ho notato una cosa.

    Provate a digitare il classico site: dominio.ext

    Restituisce 'pochi' risultati, almeno in rapporto al sito su cui lo esercitate e rispetto a 'prima'.

    Ok.

    Ma poi andate sulla sidebar di ricerca avanzata che avete sulla sinistra, se siete loggati in google.

    Per la stessa query site:dominio.ext ora premete intervalli di data diversi (" nell'ultimo anno" "nell'ultimo mese" etc etc).

    Ecco che tornano le url che prima sembravano essere state escluse dal comando site:

    Ora la domanda che farei a voi, e proprio in questo interessante 3D, è la seguente: forse possiamo servirci di questi dati 'temporali' restituiti da questo 'nuovo' comando site: per basare le nostre analisi sui siti?

    Naturalmente non conosco l'algo di Google... ma 'sta cosa che ho beccato ieri mi ha mooooolto incuriosito.

    Chissà che non riusciamo a recuperare - in qualche modo nuovo - la funzione di 'controllo' e di 'test' che molti riconoscevamo al comando site: ....

    :mmm:


  • Moderatrice

    @WWW said:

    Facciamo a capirci Fullpress: non è una novità che la comunicazione di Google sia 'per sommi capi'... mentre invece le interpretazioni e le soluzioni - come dice e rimarca mrJinx con le sue citazioni - vanno fatte sito per sito.

    Ora, la citazione ripresa da mrJinx è importante: Google valuta un sito 'nel suo complesso', e molto spesso in base a questa valutazione complessiva adatta le risorse da dedicare ad un determinato dominio.

    Problemi di duplicati? Ok, probabile. Ma magari hai anche un rapporto tra tag e articoli che non va bene... o almeno, non va più bene secondo i nuovi algoritmi che GG usa per indicizzare siti come il tuo.

    Intendo dire una cosa molto semplice: hai ragione a dire che non è il tuo seo o il tuo webmaster che 'ha fatto qualcosa di male', mentre invece hai torto se pensi che proprio un sito come FullPress possa fare a meno di curare - direi *maniacalmente *- i suoi rappporti con Big G, ivi comprendendo anche le sue più recenti idiosincrasie.

    Non vorrei sbagliarmi e non conosco bene il tuo sito, anche se so che è tra i più famosi nel suo settore - ed ha anche 10 anni di storia alle spalle.

    Ma è chiaro che si colloca esattamente in un settore in cui il tema dei 'duplicati' - intendo interi contenuti duplicati - è all'ordine del giorno.

    Sappiamo che i comunicati stampa vengono pubblicati a destra e a manca... dal più piccolo webmaster fino alla più prestigiosa agenzia.

    :rollo:

    Poi se non mi sbaglio avete anche una sezione che aggrega dalla blogosfera (mi sbaglio?).... anche con l'aggregazione si gioca al filo - tra frequenza di scansione e contenuti duplicati con il relativo filtro...

    Insomma, mi sembra chiaro che anche un'apparente fesseria come l'utilizzo o meno del canonical - su un sito di quelle dimensioni - possa incidere parecchio sulle dinamiche di scala. E sulle performance, quindi.

    Il canonical mancante?
    Troppi archivi (tag)?
    Magari un server non sempre in splendida forma? (e il vostro db è ottimizzato?)
    Oppure addirittura una flessione importante nel flusso di link in ingresso?

    Insomma, quello che penso è che proprio nel vostro settore e con il vostro genere di sito potrebbero esserci diversi 'dati di fondo' da tenere sempre sotto controllo.

    Ma proprio per questo è difficile dare delle risposte subito risolutive: devi tentare ugualmente delle soluzioni.

    Come citava MrJinx dalla bocca di J Mu: "curare le prestazioni generali" del sito.

    Voglio dire: non scoraggiarti, assolutamente. Ma non limitarti nemmeno a seguire qualche consiglio trovato qua e là sulla rete: purtroppo siti di grandi dimensioni devono fare affidamento alla propria capacità interna di curare o prevenire eventuali problemi... è perfettamente comprensibile che non ci sia una risposta univoca che vada bene per il tuo sito, mentre questa va cercata testando e limitando ogni possibile frizione.

    Che è poi quello che ti invitiamo a fare (sperando che magari poi tu potrai venire qui a condividere la tua soluzione, naturalmente).

    🙂


    :mmm:

    Ciao WWW, intanto ti ringrazio per la pacatezza che utilizzi nello scrivere e anche per la capacità di argomentare. Vado per ordine:

    1. tag, forse...sono stati disattivati con tutte le modalità (ci lavora un SEO) oramai da diversi giorni, senza ottenere (ad oggi) nessun risultato (ma forse c'è da aspettare);
    2. contenuti duplicati, sicuramente non sono il top anche se un comunicato stampa, se guardo il tutto con occhio del giornalista, non deve essere modificato. Anni fa, era il 1999, quando iniziai a mettere a disposizione dei colleghi (principalmente) ma anche degli utenti i comunicati stampa che mi arrivavano, non esistevano i blogger e un sito era realizzato da informatici (non esistevano wordpress, etc.). Hai ragione il mondo del web è cambiato e bisogna adeguarsi. A tal proposito stiamo scrivendo dei nostri articoli originali mentre su altri due siti che gestiamo, oltre a questo, lo facciamo da sempre;
    3. abbiamo inserito il canonical;
    4. ci siamo affidati sempre ad informatici e a SEO in questi anni. L'ultimo restyling è di aprile ma le modifiche sono giornaliere. Il sito non è stato mai trascurato, almeno nelle intenzioni. Forse la nostra colpa è stata di non aver mai fatto una politica di link perchè chi parla di noi non è stai mai costretto a farlo, anzi!
    5. I nostri contenuti originali sugli aggregatori degli altri. Questa non è una colpa nostra, ma una piaga. Quando gentilmente chiediamo di rimuovere in alcuni casi ci è stato risposto che sono sperimentazioni SEO;
    6. Non abbiamo mai avuto un aggregatore. Stavamo implementando da settembre un aggregatore ed eravamo seguiti da un SEO. Il test non ci ha dato risultati quindi l'abbiamo disattivato;
    7. abbiamo un server dedicato solo su FullPress. Il server un PRO con doppio alimentatore, banda e RAM a go' go.
    8. Usiamo il caching

  • Moderatore

    @FullPress said:

    Stavamo implementando da settembre un aggregatore ed eravamo seguiti da un SEO. Il test non ci ha dato risultati quindi l'abbiamo disattivato;

    E infatti tempo fa avevo visto quel test, mi riferivo a quello.

    Perfetto, ho fatto una ricerca su SiteExplorer per FullPress: ora, è chiaro che il 'conto' dei link in ingresso è un terno al lotto, almeno se uno può usare solo il vecchio strumento di Yahoo (ma anche sui dati del GWT potremmo discutere per settimane, anche se sembra che abbiano potenziato almeno quest'aspetto relativo al conto dei link).

    Naturalmente avete moltissimi link (e un ottimo PR, se lo vogliamo dire :)).

    Ma - sempre per rimanere ai miseri dati del site explorer di Y - se si escludono i link interni invece degli oltre 67 mila link rilevati sull'intero dominio, arriviamo a poco meno di 17 mila link in ingresso da fonti esterne.

    Su oltre 83 mila pagine che avete - sempre stando a Yahoo!

    Per un sito normale sarebbero numeri PERFETTI.

    Ma per un sito che si pone nel campo della promozione online e che - costituzionalmente o 'per forza', giornalisticamente parlando - può trovarsi a pubblicare anche dei testi duplicati ... beh, anche 20 mila link sarebbero pochi, volendo.

    Do per scontato che ne abbiate molti di più, perchè senza dubbio i link più vecchi sono stati filtrati da anni...

    🙂

    Ma appunto, parliamo di 'grandi numeri'... se fosse questo il problema ti basterebbe fare un confronto con siti simili al tuo... anche se sappiamo che il Site Explorer di Yahoo non è affidabile e che il 'conto' della link popularity è tutt'altro che di semplice determinazione.

    Sicuramente avete link forti, in ottimo trust... ma magari - azzardo - avete pochi link 'freschi'?
    Cioè il flusso dei vostri link in ingresso ha subito dei progressivi rallentamenti?

    Basta un calo nella frequenza e nella profondità di scansione per giustificare i problemi di indicizzazione che hai descritto... e nonostante tutto quel che si dice sulla seo, i link c'entrano eccome con questi due fattori.

    Beh, sinceramente parlando anche 200 mila link in ingresso sono 'relativamente pochi' per non avere affatto problemi di indicizzazione, nel settore di cui stiamo parlando.

    Ti sembrerò esagerato .... ma la verità è che la polarizzazione tra grandissimi siti e piccoli publisher passa anche per dei numeri generali che ormai si sono moltiplicati per mille (perchè per mille si sono moltiplicati i fruitori attivi della 'rete').

    Quindi tra i parametri generali di cui Big G tiene conto potrebbe esserci - perfino nel tuo caso, per un sito importante e storico come FullPress - un'anemia di link che ha fatto abbassare le performance della vostra 'speranza di indicizzazione'.

    Per 'speranza di indicizzazione' intendo possibilità che un documento non-originale permanga nell'indice primario di Google (e per quanto tempo).
    O che vi entri del tutto anche solo una prima volta, nei casi gravi (se per esempio parliamo di aggregazione tout court, senza andare troppo lontani....).

    Hai già due bei problemi da curare: canonical e magari un paio di decine di migliaia di link in più, tanto per rinfrescare la memoria agli spider.

    Scommetto 50 euro che se ti muovi in questa direzione risolvi.


  • Moderatore

    @FullPress said:

    1. tag, forse...sono stati disattivati con tutte le modalità (ci lavora un SEO) oramai da diversi giorni, senza ottenere (ad oggi) nessun risultato (ma forse c'è da aspettare);

    Si, chiaramente una modifica del genere ci mette parecchio tempo ad incidere, ma è una delle prime cose che avrei guardato... ma che intendi per 'disattivati con tutte le modalità'?

    Se ti va o se hai facilità ad accedere a questi numeri sapresti dire quanti tag avete su quanti articoli pubblicati, in totale?

    Te lo chiedo per farmi un'idea meno vaga.

    In ogni caso se per 'disattivati' intendi un meta noindex, o anche una configurazione via foglio robots.txt... beh, si, ci vuole molto tempo per farla digerire a google....

    Comunque anche le piante migliori, soprattutto le più grosse e 'gonfie', hanno bisogno ogni tanto di una bella potatina.

    Quindi se il rapporto tra tag ed articoli è del tutto sproporzionato ... beh, non escluderei nemmeno una vera e propria potatura in tal senso, magari un riaccorpamento...


  • Moderatrice

    @WWW said:

    E infatti tempo fa avevo visto quel test, mi riferivo a quello.

    Perfetto, ho fatto una ricerca su SiteExplorer per FullPress: ora, è chiaro che il 'conto' dei link in ingresso è un terno al lotto, almeno se uno può usare solo il vecchio strumento di Yahoo (ma anche sui dati del GWT potremmo discutere per settimane, anche se sembra che abbiano potenziato almeno quest'aspetto relativo al conto dei link).

    Naturalmente avete moltissimi link (e un ottimo PR, se lo vogliamo dire :)).

    Ma - sempre per rimanere ai miseri dati del site explorer di Y - se si escludono i link interni invece degli oltre 67 mila link rilevati sull'intero dominio, arriviamo a poco meno di 17 mila link in ingresso da fonti esterne.

    Su oltre 83 mila pagine che avete - sempre stando a Yahoo!

    Per un sito normale sarebbero numeri PERFETTI.

    Ma per un sito che si pone nel campo della promozione online e che - costituzionalmente o 'per forza', giornalisticamente parlando - può trovarsi a pubblicare anche dei testi duplicati ... beh, anche 20 mila link sarebbero pochi, volendo.

    Do per scontato che ne abbiate molti di più, perchè senza dubbio i link più vecchi sono stati filtrati da anni...

    🙂

    Ma appunto, parliamo di 'grandi numeri'... se fosse questo il problema ti basterebbe fare un confronto con siti simili al tuo... anche se sappiamo che il Site Explorer di Yahoo non è affidabile e che il 'conto' della link popularity è tutt'altro che di semplice determinazione.

    Sicuramente avete link forti, in ottimo trust... ma magari - azzardo - avete pochi link 'freschi'?
    Cioè il flusso dei vostri link in ingresso ha subito dei progressivi rallentamenti?

    Basta un calo nella frequenza e nella profondità di scansione per giustificare i problemi di indicizzazione che hai descritto... e nonostante tutto quel che si dice sulla seo, i link c'entrano eccome con questi due fattori.

    Beh, sinceramente parlando anche 200 mila link in ingresso sono 'relativamente pochi' per non avere affatto problemi di indicizzazione, nel settore di cui stiamo parlando.

    Ti sembrerò esagerato .... ma la verità è che la polarizzazione tra grandissimi siti e piccoli publisher passa anche per dei numeri generali che ormai si sono moltiplicati per mille (perchè per mille si sono moltiplicati i fruitori attivi della 'rete').

    Quindi tra i parametri generali di cui Big G tiene conto potrebbe esserci - perfino nel tuo caso, per un sito importante e storico come FullPress - un'anemia di link che ha fatto abbassare le performance della vostra 'speranza di indicizzazione'.

    Per 'speranza di indicizzazione' intendo possibilità che un documento non-originale permanga nell'indice primario di Google (e per quanto tempo).
    O che vi entri del tutto anche solo una prima volta, nei casi gravi (se per esempio parliamo di aggregazione tout court, senza andare troppo lontani....).

    Hai già due bei problemi da curare: canonical e magari un paio di decine di migliaia di link in più, tanto per rinfrescare la memoria agli spider.

    Scommetto 50 euro che se ti muovi in questa direzione risolvi.
    Sempre interessante leggerti.

    Per quanto riguarda il canonical è attivo da stamattina. Per cio' che concerne i link, siamo consci che sono importantissimi, anzi! Forse proprio perchè non abbiamo mai voluto acquistare link e similari, ci troviamo in queste condizioni. Siamo certi che gli altri, invece, si sono attrezzati eccome. Paradossalmente, se questo è il problema, siamo vittima di Google che nel tentativo di dare più o meno importanza ad un sito, si sofferma soprattutto su questo aspetto (backlink) pur essendo conscio che i link si costruiscono anche artificialmente.
    Ora, visto che sottolinei i due punti, uno è stato risolto (canonical) cosa dovremmo fare per il secondo punto? E' chiaro che vogliamo rimanere nella legalità perchè le tecniche bordeline non portano da nessuna parte.


  • Moderatrice

    @WWW said:

    Si, chiaramente una modifica del genere ci mette parecchio tempo ad incidere, ma è una delle prime cose che avrei guardato... ma che intendi per 'disattivati con tutte le modalità'?

    Se ti va o se hai facilità ad accedere a questi numeri sapresti dire quanti tag avete su quanti articoli pubblicati, in totale?

    Te lo chiedo per farmi un'idea meno vaga.

    In ogni caso se per 'disattivati' intendi un meta noindex, o anche una configurazione via foglio robots.txt... beh, si, ci vuole molto tempo per farla digerire a google....

    Comunque anche le piante migliori, soprattutto le più grosse e 'gonfie', hanno bisogno ogni tanto di una bella potatina.

    Quindi se il rapporto tra tag ed articoli è del tutto sproporzionato ... beh, non escluderei nemmeno una vera e propria potatura in tal senso, magari un riaccorpamento...

    I tag sono stati rimossi anche dall'indice di Google, quelli che vedi ora sono sono 443 su 10.000 (circa)


  • Moderatore

    @FullPress said:

    quelli che vedi ora sono sono 443 su 10.000 (circa)

    Beh, ottimo intervento direi. 10 mila erano forse un po' troppi.... anzi, senza 'forse'.

    Si è trattato di una 'manutenzione dovuta'.


  • Moderatrice

    @WWW said:

    Beh, ottimo intervento direi. 10 mila erano forse un po' troppi.... anzi, senza 'forse'.

    Si è trattato di una 'manutenzione dovuta'.

    La rimozione è stata fatta intorno al 7 di novembre, da allora nessuna novità


  • Moderatore

    @FullPress said:

    Per cio' che concerne i link, siamo consci che sono importantissimi, anzi! Forse proprio perchè non abbiamo mai voluto acquistare link e similari, ci troviamo in queste condizioni. Siamo certi che gli altri, invece, si sono attrezzati eccome. Paradossalmente, se questo è il problema, siamo vittima di Google che nel tentativo di dare più o meno importanza ad un sito, si sofferma soprattutto su questo aspetto (backlink) pur essendo conscio che i link si costruiscono anche artificialmente.
    Ora, visto che sottolinei i due punti, uno è stato risolto (canonical) cosa dovremmo fare per il secondo punto? E' chiaro che vogliamo rimanere nella legalità perchè le tecniche bordeline non portano da nessuna parte.

    Beh, ma moltissimi siti hanno centinaia di migliaia di backlink senza usare alcuna tecnica illegale o comunque scarsamente etica.

    Non voglio dire che sia uno scherzo... molti dei siti 'clienti' che promuovo se la cavano con cifre moooooooooolto inferiori.

    Ma si tratta anche di siti infinitamente più piccoli.... voglio dire che tutto è proporzionato.

    Ma ad esempio ... vi promuovete bene sui social?
    Un sito come il vostro può senza dubbio contare su un *seguito naturale *abbastanza consistente... forse è proprio da quell'orto che potreste iniziare una strategia di linking capace di rinfrescare i vostri rapporti con Google.

    Ora non voglio buttare tutto nel calderone del social media marketing.... ma insomma, anche solo promuovendo il vostro feed riuscireste a rimpinguare il vostro attuale bottino di inbound... che è assolutamente ragguardevole e di qualità - chiaramente - ma magari merita di essere coltivato, in questa fase di passaggio e di rimescolio.


  • Moderatore

    @FullPress said:

    La rimozione è stata fatta intorno al 7 di novembre, da allora nessuna novità
    So che c'è una scuola di pensiero che dopo un intervento del genere - e in presenza di un sospetto di penalizzazione - correrebbe subito a fare la richiesta di reinclusion presso Google.

    Che poi è la prassi che indica Google in questi casi, almeno ufficialmente.

    Cioè:
    1 - mi accorgo di avere dei problemi di indicizzazione;
    2 - correggo quello che ritengo essere il problema tecnico che ha determinato la penalizzazione;
    3 - mi autodenuncio a Google dicendo che ormai il disguido è chiarito e il sito va rivalutato.

    Questa scuola di seo (che fra l'altro popola abbondantemente questo forum) sostiene che si possano invertire delle penalizzazioni anche dall'oggi al domani, in certi casi.

    Personalmente sono molto più cauto con questo genere di procedura.... proprio perchè non è detto che io sia certo di aver effettivamente corretto il determinato problema tecnico che ha generato la penalty, considerato il fatto che l'unica possibilità è quella di interpretare Google.

    10.000 tags sono ..... veramente tanti. Senza dubbio si tratta di un intervento che altera i vecchi equilibri del sito e che necessita di diverso tempo per essere completamente assorbito.

    Io non ti direi di fare richiesta per la reinclusion (anche perchè il tuo è un problema di crawling e non di posizionamenti, se non ho capito male)... ma probabilmente molti qui dentro direbbero il contrario, dopo tutte le modifiche che avete apportato.

    Cioè tra canonical e revisione dei tag avete agito in maniera energica contro la duplicazione interna: potreste richiedere legittimamente una rivalutazione.... vediamo se qualcuno può consigliarti in questo, qualcuno che ha esperienze significative sul processo di reinclusion.


  • Moderatrice

    Il 16 novembre 2010 Google
    ha inserito un aggiornamento importante per tutti coloro che rientrano nel target news e comunicati stampa.

    Dice:

    “Google News indexes tens of thousands of articles a day, but not all of them are original. Publishers can now use two metatags to help us determine us which URL we should consider the original version of an article: “
    che tradotto al volo significa che Google riceve tantissimi articoli al giorno ma non tutti sono originali.
    I Publishers possono ora usare 2 metatags da inserire per aiutare a determinare ....

    Attenzione che specifica anche:

    Important note: At this time, Google News will not make any changes to article ranking based on this tag. We think it is a promising method for detecting originality among a diverse set of news articles, but we won't know for sure until we've seen a lot of data.
    Che tradotto in soldoni significa, guarda che siamo nella fase Beta, non ti promettiamo niente.

    Google si sta muovendo molto ultimamente nei confronti dei contenuti duplicati e dei comunicati stampa.
    Sta inserendo meta tag “dedicati” ai giornalisti (notizia di pochi giorni fa), ha aggiornato le linee guida con una particolare attenzione nei confronti dei contenuti duplicati (notizia di meno di un mese fa).

    Si sta muovendo per penalizzare non chi svolge realmente l’attività di diffusione di comunicati stampa ma per penalizzare tutti gli spam che hanno rubato, rubano e continueranno a rubare in maniera fraudolenta, testi originali con il solo scopo di arricchirsi alle spalle di altri. (quello che ho subito un anno fa è conosciuto da molti).

    In questi giorni sono molti i casi presenti su gt che si riferiscono a un calo brusco a partire dal 22 ottobre.
    Ma se prendete questi testi uno per uno vedete che hanno un unico denominatore: testi duplicati.

    Mi rivolgo a Full press perché, tra tutti, è quello che più si avvicina al vecchio concetto offline di diffusore di comunicati stampa.

    Avete già valutato la possibilità di inserire questi meta tag?


  • Moderatrice

    doppio cancellate