• User Attivo

    @deborahdc said:

    In questi giorni sono molti i casi presenti su gt che si riferiscono a un calo brusco a partire dal 22 ottobre.
    Ma se prendete questi testi uno per uno vedete che hanno un unico denominatore: testi duplicati.

    Sto seguendo con interesse questa discussione ma non sono del tutto d'accordo con quanto ho appena quotato.
    Come si fa a determinare se/chi/quanto ci viene copiato dai nostri siti?
    Come si fa soprattutto ad intervenire?

    Noi il 22 ottobre abbiamo riscontrato l'identico problema di cui si sta discutendo, oggi per fortuna (da sabato) con la parola chiave principale siamo ritornati in prima SERP di Google, ma per il resto è ancora buio, cioè i contenuti faticano ad uscire.

    Oggi mi è stato chiesto di ELIMINARE le fonti XML, cioè... dobbiamo arrivare a questo? Dobbiamo metterci a fare i carabinieri controllando se ogni giorno qualcuno copia i nostri contenuti?

    In questo modo le redazioni rischiano di chiudere per diventare delle agenzie investigative 🙂

    Ultima annotazione sui due nuovi TAG suggeriti da Google.
    Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.

    A questo punto il problema non sarà mai risolto, perchè chi è "forte", potrà tranquillamente inserire il tag come fosse contenuto originale, e quindi avrà sempre una posizione di vantaggio su chi, magari una redazione, quel contenuto l'ha scritto e l'ha reso disponibile sul web.


  • Moderatrice

    @fabiogentile said:

    Sto seguendo con interesse questa discussione ma non sono del tutto d'accordo con quanto ho appena quotato.
    Come si fa a determinare se/chi/quanto ci viene copiato dai nostri siti?
    Come si fa soprattutto ad intervenire?

    Noi il 22 ottobre abbiamo riscontrato l'identico problema di cui si sta discutendo, oggi per fortuna (da sabato) con la parola chiave principale siamo ritornati in prima SERP di Google, ma per il resto è ancora buio, cioè i contenuti faticano ad uscire.

    Oggi mi è stato chiesto di ELIMINARE le fonti XML, cioè... dobbiamo arrivare a questo? Dobbiamo metterci a fare i carabinieri controllando se ogni giorno qualcuno copia i nostri contenuti?

    In questo modo le redazioni rischiano di chiudere per diventare delle agenzie investigative 🙂

    Ultima annotazione sui due nuovi TAG suggeriti da Google.
    Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.

    A questo punto il problema non sarà mai risolto, perchè chi è "forte", potrà tranquillamente inserire il tag come fosse contenuto originale, e quindi avrà sempre una posizione di vantaggio su chi, magari una redazione, quel contenuto l'ha scritto e l'ha reso disponibile sul web.
    Ciao Fabio,
    ho seguito il tuo caso anche in altri forum.
    Sono pienamente d'accordo con te e aggiungo che forse il copia e incolla (quanti ancora oggi copiano ed incollano da altri siti?) e gli aggregatori (i nostri articoli originali, non solo quelli di FullPress ma anche quelli degli altri nostri siti, finiscono giornalmente in aggregatori che pescano da Google News arrecandoci due danni: 1) si posizionano prima di noi perchè sono più bravi di noi in alcune tecniche; 2) restituiscono il link della fonte a noi attraverso il reindirizzamento di Google News).
    Per non parlare poi di chi aggrega con tecniche ancora più sporche che non prevedono neanche la citazione della fonte.

    A parte i nostri casi, quello che chiedo in questo forum partecipato da esperti SEO, è di farsi carico con gli editori di questa situazione e insieme di combattere gli abusi.

    Anna Bruno


  • Super User

    @FullPress said:

    Ho letto il 3D, sembra che il blog non abbia risolto in quanto è di nuovo giù
    Si, ho appena letto la cattiva notizia. Vediamo di cercare ancora..

    Novità sulla tua situazione? Direi che sarebbe meglio fare un riepilogo di tutti i fronti su cui ti sei mossa e su cui ti stai muovendo. Fatta la segnalazione?


  • Moderatrice

    @RoPa said:

    Si, ho appena letto la cattiva notizia. Vediamo di cercare ancora..

    Novità sulla tua situazione? Direi che sarebbe meglio fare un riepilogo di tutti i fronti su cui ti sei mossa e su cui ti stai muovendo. Fatta la segnalazione?

    Ciao, ancora nessuna novità, anzi!
    Comunque abbiamo fatto ieri la segnalazione (nessun messaggio ad oggi ma è presto, forse). Abbiamo inserito il rel canonical, i pochissimi comunicati che passano sono tutti originali al momento della pubblicazione in più stiamo producendo nostri contenuti. La cosa più ridicola è il nostro site, se provi a farlo troverai poco più di 5000 contenuti indicizzati. Pensare che dal WMT ne segnala oltre 26.000 dalla sitemap e la nostra sitemap ne contiene oltre 33.000 sono per la sezione News. Se provi a fare il site del sito per anni (esempio solo il 2008) ti tira fuori circa 200 contenuti indicizzati. Che dirti? Non sappiamo cosa altro fare e soprattuto cosa altro annotare.


  • User

    Ultima annotazione sui due nuovi TAG suggeriti da Google.
    Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.

    Google esce sempre con versioni Beta ma quando esce un motivo c'è.

    Mi sorprende con quanta semplicità sostieni che "non li considererà", visto che non c'è un precedente al momento.
    Questa notizia è uscita da pochissimi giorni ed è fonte ufficiale.

    Per sostenere tale tesi devi avere o una fonte ufficiale o una esperienza diretta.
    Hai forse un sito dove hai inserito questi meta? E quanto tempo fa sono stati inseriti?

    Mentre se ti stai rivolgendo a questo

    Important note: At this time, Google News will not make any changes to article ranking based on this tag. We think it is a promising method for detecting originality among a diverse set of news articles, but we won't know for sure until we've seen a lot of data.

    Non significa "non li considero".


  • User

    @fullpress
    ma i testi nuovi che inserite, quelli originali , sono penalizzati?


  • Moderatrice

    @collega-deborahdc said:

    @fullpress
    ma i testi nuovi che inserite, quelli originali , sono penalizzati?
    Si, stesso iter...ti posto il titolo di un articolo scritto da una nostra redattrice "
    Sony Ericsson e Windows Phone 7: dubbi e incertezze" se togli "e incertezze" non lo vedi più (eccezion fatta per il risultato di Google News)


  • User Attivo

    @collega-deborahdc said:

    Mi sorprende con quanta semplicità sostieni che "non li considererà", visto che non c'è un precedente al momento.
    Questa notizia è uscita da pochissimi giorni ed è fonte ufficiale.

    Per sostenere tale tesi devi avere o una fonte ufficiale o una esperienza diretta.
    Hai forse un sito dove hai inserito questi meta? E quanto tempo fa sono stati inseriti?
    Perdonami, forse mi sono espresso male.
    Da quello che ho seguito sulla vicenda dei due nuovi meta tag (syndication-source e original-source), pare che Google li debba ancora testare per verificarne l'effettivà utilità.

    Il test sembra possa includere solo un bouquet di siti "fidati" (si... fidati per Google però...).

    Già questo è un motivo per cui il test parte zoppo, quali sono i siti fidati?
    Perchè ci sono siti che sono "fidati"?
    E se questi siti fidati comprendono anche aggregatori o comunque fagocitatori di contenuti altrui?

    Comunque, lasciamo perdere questo punto, passiamo al successivo, ovvero il mio punto di vista secondo cui sono tag inutili e fallimentari.

    Con questi due nuovi tag, tutto sta all'onestà di chi progetta i siti, ovvero, se uno è onesto userà syndication e original a seconda del fatto che avrà contenuti proprietari o presi da altri siti.

    Cosa cambia allora da adesso? Cioè, cosa cambia rispetto a oggi dove un aggregatore/copy prende una notizia citandone il link correttamente rispetto a chi invece prende la notizia e basta?

    Chi ci può garantire che ogni sito sarà corretto nell'indicare i link in syndication e original?

    E quale sarà il metro di giudizio della "proprietà" di una notizia?
    Cioè, se la notizia non sarà identica su due siti diversi, ma avrà qualche parola diversa, chi dei due siti potrà dimostrare (a parità di data di emissione per esempio) di esserne la FONTE ORIGINALE?

    Chiudo il concetto aggiungendo che se io metto una notizia MIA, ma valgo 5, e la stessa notizia me la riporta magari il Corriere che vale 8, se il Corriere invece di usare correttamente i tag syndication e original non usa nulla o peggio, li usa in modo che sembri lui il fornitore originale della notizia, lui diventa per Google LA VERA FONTE, e io vengo escluso.

    Per questo motivo il MIO PENSIERO, che non vuole essere ne' la verità, ne' il pensiero di tutti, è che Google sta cercando di far fare a noi il suo lavoro (determinare i contenuti validi), e lo sta facendo in un modo scorretto, che probabilmente agevolerà ancora di più i network più "trust", a danno di tutti gli altri.

    Tutto qui.
    Sarei ben lieto di essere smentito, ma Google negli ultimi 4 anni è andato sempre peggio, e per quanto mi riguarda potrei dimostrarlo semplicemente con delle SERP che oggi danno risultati ignobili, sotto gli occhi di tutti.
    Non parlo di ignobili perchè qualcuno esce prima di me, sia chiaro, parlo di ignobili proprio per la qualità dei siti che escono a prescindere che ci siano dei risultati di miei siti o meno.

    Spero di aver chiarito quello che intendevo 🙂


  • Moderatrice

    @fabiogentile said:

    🙂
    Stavo notando il comportamento di Google con il tuo sito, è molto simile al nostro. Eppure i due siti sono completamente diversi, perfino nell'argomento. Ho inserito un titolo tratto da un tuo articolo, basta eliminare dal titolo una parola generica non determinante e zac...il titolo scompare nelle SERP...Ho inserito il titolo "Diego Dalla Palma presenta A Nudo, edita da Sperling & Kupfer", il risultato è in ottava posizione (chi ti precede non è pertinente o comunque non come il tuo titolo), poi ho tolto "edito da" e il tuo articolo scompare...


  • User Attivo

    E io ho visto il tuo titolo del Sony Ericsson... che dire... noi ora abbiamo un team di SEO che sta studiando la situazione e sta facendo delle correzioni, ma ti posso dire che ad oggi le correzioni che stiamo apportando sono veramente delle inezie, perchè il sito è già comunque google compliant.

    Per assurdo, la versione inglese del nostro sito non ha subito alcuna penalizzazione, anzi, nelle ultime 2 settimane ha avuto un incremento del 20% del traffico (buona parte dai social), e non ha ancora assorbito le modifiche fatte dai SEO, e finchè va così bene penso che non farò modificare nulla. Oltretutto la versione inglese è molto più competitiva di quella italiana perchè la mole di informazioni in lingua inglese è 10 volte superiore.

    I casi della vita... costretti ad investire in SEO per un sito che è sempre stato ottimamente posizionato e che i SEO stessi non sanno già più come migliorare nel codice. 🙂

    Voi come vi state muovendo? Anche voi avete "noleggiato" una squadra di tecnici SEO per ritornare a galla?

    PS: facendo site:XXXX mi sono reso conto che da circa 20.000 risultati adesso ce ne danno 5.300 circa... come per il tuo... singolare eh?


  • Moderatrice

    Ciao, anche noi abbiamo un SEO che ci ha fatto fare una miriade di piccole modifiche che hanno portato al nulla. Da ieri abbiamo chiesto la riconsiderazione in Google, ultimo atto. Abbiamo scritto la nostra storia, non so se avranno voglia e tempo di leggerla, ma ad oggi nessuna risposta. Oramai non mi aspetto più nulla, non credo che il caso si risolverà. Ho visto nell'altro forum, dove ho letto il tuo caso, che in Italia si sono verificate altre storie del genere. Google risponde allo stesso modo (sembra che le risposte siano telecomandate da algorimi) e non ammetterà mai l'errore. Mi vado sempre più convingendo che di errore si tratta. Evidentemente siamo finiti su qualche server comune nel trasferimento che c'è stato, da parte di Google, dei suoi server. Sembra che nelle date fatidiche Google abbia concentrato diversi server a Mountain View. Tutto questo, unito al famoso problema di indicizzazione di quei giorni, lascia più propendere per un errore che una penalizzazione. In ogni caso, il nostro traffico oramai si è ridotto al solo Google News che porta quel che porta.

    Per quanto riguarda il site, siamo nel ridicolo. Nell'ultimo anno ci segnala 200 articoli in indice mentre dalla sitemap del WMT i numeri sono ben altri. Per non parlare di altre cose assurde che ho visto, roba che ti fa pensare che 2 + 2 non sempre fa 4. Evidentemente Google questo pensa.
    Ciao
    Anna Bruno


  • User Attivo

    Ti capisco, io dopo gli scherzi degli anni scorsi ho cominciato a guardare più seriamente gli altri motori, Yahoo e Bing su tutti ovviamente.
    Bing oggi è quello che da i risultati più performanti se cerco qualsiasi cosa, su Google invece capita spesso di trovare nella prima SERP delle informazioni di 3-4 anni fa...ed è tutto dire su quanto sia migliorato nell'ultimo anno Google...

    Le Google news non so dirti quanto portino a noi, comunque nel complesso meno di Facebook, ed è singolare visto che abbiamo meno di 5000 iscritti alla pagina del sito, mentre le Google News vengono viste da migliaia di utenti ogni giorno.

    Sulla riconsiderazione io invece temporeggio, l'ho fatto 2 anni fa...non ho avuto soddisfazione, per ora rimango in attesa...come i cinesi sul bordo del fiume.

    Ciao
    Fabio


  • Moderatrice

    A noi è la prima volta che sucede una roba del genere, due anni fa sei stato poi preso in considerazione? Hai abbandonato il progetto?

    P.S. Bing porta il nulla, sei riuscito ad avere traffico da Bing Italia?


  • User Attivo

    Noi abbiamo fatto la riconsiderazione due anni fa, non ho notato un cambiamento in meglio, è stato graduale, ma il traffico proveniente da Google di 2-3 anni fa non è più tornato tale, in compenso negli ultimi 2 anni è comunque cresciuto molto, quasi al pareggio, diciamo che per ogni 1000 utenti giornalieri da Google nel 2007-2008, nel 2009-2010 eravamo riusciti a riportarci almeno ad 800, quindi uno scarto del -20% circa.

    Oggi invece ogni 1000 utenti del 2007-2008, dopo il 22 ottobre posso dire che siamo sui 200, quindi -80% rispetto a quel periodo ma solo -60% rispetto al 2009-2010.

    Bing porta zero confronto a Google, anche Yahoo porta zero, però sono in crescita (soprattutto Bing), e forse qualcuno comincerà ad usarli di più se si renderà conto che sono efficaci.

    Come ho già scritto, su Google a volte ci sono risultati incongruenti, anche per il problema penalizzazione/seo/ecc, si trovano nella prima SERP articoli datati 2006-2007...assurdo, trovo risorse più recenti su Bing per esempio.

    Poi è logico, Google non cadrà per me e te, però stavolta di danni ne ha fatti molti, penso solo a tutti i siti di ecommerce... loro guadagnano su quello che vendono, e se non arrivano utenti non vendono nulla.


  • Moderatrice

    Ho letto oggi su un sito americano che lì i problemi post 22 ottobre, come da noi, continuano. Non so cosa aggiungere se non che anche oggi è come ieri. Articoli originali che non vengono mostrati neanche a parità di titolo, ad eccezione di Google News. Abbiamo una notizia in Google News oggi che è capofila con diverse parole chiavi mentre nell'organico non compare neanche con il titolo intero.
    Siamo sempre convinti che la colpa è dei contenuti duplicati??

    Ciao


  • User

    Se continuate a chiedere aiuto al forum ma non seguite le indicazioni, diventa difficile aiutarvi.
    Siamo partiti dal fatto che la home ha contenuto duplicato e la home continua ad avere contenuto duplicato.

    Non è difficile accorgersene.
    Basta prendere 5 parole dalla home page e fare copia incolla su google.

    Lo avete fatto?
    Tutti i paragrafi sono duplicati o perchè presi da altre fonti o perchè vi autoduplicate.

    La home infatti è copiata interamente su questa pagina
    fullpress.it/News/7-1.html
    e ci sono altre pagine interne che duplicano i soliti paragrafi.

    Potete rimettere apposto questa cosa?


  • Moderatrice

    Ma se l'occhiello dei nostri articoli presente sulla home non compare neppure nell'articolo, mi spieghi cosa ci autoduplichiamo??


  • User

    Fai come me
    prendi questo testo
    che è della tua home
    "F5 presenta una suite di soluzioni unificate per operatori" e cercalo su google
    cosa viene fuori nei motori di ricerca? La Home?

    Prendi quest'altro testo che è sempre nella tua home
    "Si assiepano dubbi e incertezze tra Sony Ericsson e Windows Phone 7"
    quanti risultati vedi in serp??

    Infine prendi questo
    sono sempre nella tua home
    ""Una soluzione completa di budget, forecast e pianificazione finanziaria perfettamente"
    in quanti siti vedi scritto questo testo??

    Perchè magari non lo vedi perchè ti stai collegando ad un dc diverso dal mio ma ti posso fare uno screen per farti capire.


  • User Attivo

    Scusa Deborahdc, ma questa duplicazione che vedo su Fullpress (e che è presente anche da noi) non è una duplicazione di contenuti.
    Tutte le home page hanno i titoli e gli occhielli degli ultimi articoli, e quei dati si trovano ovviamente sia nella pagina articolo che nella pagina della Categoria.

    Però dalla Home page spariscono giorno per giorno, mentre nelle pagine di Categoria scendono nelle posizioni inferiori.

    Questo procedimento è normalmente visibile anche su siti ben più importanti come Corriere.it, prova a vedere l'articolo della Corea del Nord, ha titolo e abstract/occhiello sia in home page, che nella pagina Esteri e ovviamente anche nella pagina dell'articolo stesso.


  • User

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?