• Moderatore

    Il primo dei due tags serve a dire a Google qual'è la fonte originale di una notizia, serve per chi fa syndication insomma.

    **syndication-source

    **Cioè dove A mette nella pagina della notizia Y il meta che attesta che l'autore originale è B, su un altro sito e su una diversa, ma corrispondente, pagina X.

    Mi sembra, almeno.... se ho capito male scusatemi per l'intervento.

    E' una cosa simile a quella 'proposta' da Digg tempo fa con l'attributo
    **rel="dc:source" **

    nei link verso le notizie (questo si applicava al singolo link e non ai meta della pagina.... nel senso che diamo per scontato che social news, aggregatori e social linkano le notizie originali, quindi quell'attributo di relazione indicava attraverso il link la sorgente originale della notizia.. cosa che probabilmente Google non ha mai considerato.). Qui la discussione.

    *Invece il secondo potrebbe fare al caso loro.
    *
    **original-source

    Perchè nella presentazione viene esposto esplicitamente il caso di un autore che si autodichiara come originale diffusore di una determinata informazione.

    (ops, scusate il cambio di caratteri... :1:

    **


  • Moderatore

    Continuo a chiedermi se - alla luce delle importanti modifiche fatte da FullPress, tra cui una drastica riduzione dei tags e l'inserimento del canonical - questo caso non sia uno di quelli in cui conviene presentare richiesta di reinclusion a Google.

    Di solito in questa sezione c'è sempre qualcuno che invoca questa come soluzione 'realmente funzionante' per risolvere rapidamente una penalty.

    Stavolta ?


  • Community Manager

    @mister.jinx said:

    Una pillola di umorismo in questo marasma ci sta bene...

    Giorgio quando prevedi l'uscita di un video di Matt Cutts dove dice "rispettiamo il robots.txt ma ci riserviamo il diritto di trattarlo diversamente in certi casi" ?

    Se non sbaglio lo hanno già fatto, ci riserviamo comunque di mostrare in SERP siti che gli utenti ritengono molto rilevanti. Non era una indicazione sui duplicati, ma sull'indicizzazione di un sito nonostante il robots la disabilitasse 😄

    Tonando a quanto chiede Fabio, visti i cambiamenti di Google, Fullpress potrebbe mettere il tag e poi fare una reinclusion. Io ci proverei.


  • Moderatrice

    Ciao Fabio, Ciao Giorgio. Non abbiamo ancora chiesto la reinclusione e non abbiamo messo i tag che se non erro sono per Google News (dove non abbiamo nessun problema) e in versione beta. Non abbiamo problemi a chiedere la reinclusione ma i tag non so se devono essere inseriti o meno. Grazie a tutti per il supporto 🙂


  • Super User

    L'intervento sui tag è stato sicuramente un intervento grosso, non posso che essere d'accordo. Io comunque prima di richiedere l'inclusione continuerei ad aggiungere contenuti originali in tutte le sezione del sito e risolverei la questione del centinaio di duplicati per via del "layout=standard" di cui parlavo prima.

    In un'altro post, un utente con problematiche simili alle tue (anche tempistiche e date, ma con numeri inferiori) ha corretto (tra le varie cose anche i tag), fatto richiesta e risolto.


  • Moderatrice

    Stiamo inserendo contenuti originali, abbiamo inseriro il canonical, non serve allo scopo?

    Puoi passarmi, anche il privato, il link dell'altro utente?


  • Super User

    Mi correggo scusa, la penalizzazione in questo caso è scattata il 9 novembre ma la lettura può risultare comunque interessante: http://www.giorgiotave.it/forum/consigli-seo-e-penalizzazioni/153258-blog-che-non-riceve-piu-visite.html
    Per quanto riguarda i contenuti originali, dicevo di far attenzione a coprire tutte le sezioni, senza farsene sfuggire.


  • Moderatrice

    Tranne nelle news, dove peraltro stiamo lavorando con contenuti nostri e presto saranno solo originali (non riusciamo a far capire ai comunicatori che non basta divulgare la notizia prima a noi ma che il contenuto non deve spammoso), le altre sezioni del nostro sito hanno esclusivamente articoli originali.


  • Moderatrice

    @RoPa said:

    Mi correggo scusa, la penalizzazione in questo caso è scattata il 9 novembre ma la lettura può risultare comunque interessante: giorgiotave.it/forum/consigli-seo-e-penalizzazioni/153258-blog-che-non-riceve-piu-visite.html
    Per quanto riguarda i contenuti originali, dicevo di far attenzione a coprire tutte le sezioni, senza farsene sfuggire.
    Ho letto il 3D, sembra che il blog non abbia risolto in quanto è di nuovo giù


  • User Attivo

    @deborahdc said:

    In questi giorni sono molti i casi presenti su gt che si riferiscono a un calo brusco a partire dal 22 ottobre.
    Ma se prendete questi testi uno per uno vedete che hanno un unico denominatore: testi duplicati.

    Sto seguendo con interesse questa discussione ma non sono del tutto d'accordo con quanto ho appena quotato.
    Come si fa a determinare se/chi/quanto ci viene copiato dai nostri siti?
    Come si fa soprattutto ad intervenire?

    Noi il 22 ottobre abbiamo riscontrato l'identico problema di cui si sta discutendo, oggi per fortuna (da sabato) con la parola chiave principale siamo ritornati in prima SERP di Google, ma per il resto è ancora buio, cioè i contenuti faticano ad uscire.

    Oggi mi è stato chiesto di ELIMINARE le fonti XML, cioè... dobbiamo arrivare a questo? Dobbiamo metterci a fare i carabinieri controllando se ogni giorno qualcuno copia i nostri contenuti?

    In questo modo le redazioni rischiano di chiudere per diventare delle agenzie investigative 🙂

    Ultima annotazione sui due nuovi TAG suggeriti da Google.
    Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.

    A questo punto il problema non sarà mai risolto, perchè chi è "forte", potrà tranquillamente inserire il tag come fosse contenuto originale, e quindi avrà sempre una posizione di vantaggio su chi, magari una redazione, quel contenuto l'ha scritto e l'ha reso disponibile sul web.


  • Moderatrice

    @fabiogentile said:

    Sto seguendo con interesse questa discussione ma non sono del tutto d'accordo con quanto ho appena quotato.
    Come si fa a determinare se/chi/quanto ci viene copiato dai nostri siti?
    Come si fa soprattutto ad intervenire?

    Noi il 22 ottobre abbiamo riscontrato l'identico problema di cui si sta discutendo, oggi per fortuna (da sabato) con la parola chiave principale siamo ritornati in prima SERP di Google, ma per il resto è ancora buio, cioè i contenuti faticano ad uscire.

    Oggi mi è stato chiesto di ELIMINARE le fonti XML, cioè... dobbiamo arrivare a questo? Dobbiamo metterci a fare i carabinieri controllando se ogni giorno qualcuno copia i nostri contenuti?

    In questo modo le redazioni rischiano di chiudere per diventare delle agenzie investigative 🙂

    Ultima annotazione sui due nuovi TAG suggeriti da Google.
    Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.

    A questo punto il problema non sarà mai risolto, perchè chi è "forte", potrà tranquillamente inserire il tag come fosse contenuto originale, e quindi avrà sempre una posizione di vantaggio su chi, magari una redazione, quel contenuto l'ha scritto e l'ha reso disponibile sul web.
    Ciao Fabio,
    ho seguito il tuo caso anche in altri forum.
    Sono pienamente d'accordo con te e aggiungo che forse il copia e incolla (quanti ancora oggi copiano ed incollano da altri siti?) e gli aggregatori (i nostri articoli originali, non solo quelli di FullPress ma anche quelli degli altri nostri siti, finiscono giornalmente in aggregatori che pescano da Google News arrecandoci due danni: 1) si posizionano prima di noi perchè sono più bravi di noi in alcune tecniche; 2) restituiscono il link della fonte a noi attraverso il reindirizzamento di Google News).
    Per non parlare poi di chi aggrega con tecniche ancora più sporche che non prevedono neanche la citazione della fonte.

    A parte i nostri casi, quello che chiedo in questo forum partecipato da esperti SEO, è di farsi carico con gli editori di questa situazione e insieme di combattere gli abusi.

    Anna Bruno


  • Super User

    @FullPress said:

    Ho letto il 3D, sembra che il blog non abbia risolto in quanto è di nuovo giù
    Si, ho appena letto la cattiva notizia. Vediamo di cercare ancora..

    Novità sulla tua situazione? Direi che sarebbe meglio fare un riepilogo di tutti i fronti su cui ti sei mossa e su cui ti stai muovendo. Fatta la segnalazione?


  • Moderatrice

    @RoPa said:

    Si, ho appena letto la cattiva notizia. Vediamo di cercare ancora..

    Novità sulla tua situazione? Direi che sarebbe meglio fare un riepilogo di tutti i fronti su cui ti sei mossa e su cui ti stai muovendo. Fatta la segnalazione?

    Ciao, ancora nessuna novità, anzi!
    Comunque abbiamo fatto ieri la segnalazione (nessun messaggio ad oggi ma è presto, forse). Abbiamo inserito il rel canonical, i pochissimi comunicati che passano sono tutti originali al momento della pubblicazione in più stiamo producendo nostri contenuti. La cosa più ridicola è il nostro site, se provi a farlo troverai poco più di 5000 contenuti indicizzati. Pensare che dal WMT ne segnala oltre 26.000 dalla sitemap e la nostra sitemap ne contiene oltre 33.000 sono per la sezione News. Se provi a fare il site del sito per anni (esempio solo il 2008) ti tira fuori circa 200 contenuti indicizzati. Che dirti? Non sappiamo cosa altro fare e soprattuto cosa altro annotare.


  • User

    Ultima annotazione sui due nuovi TAG suggeriti da Google.
    Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.

    Google esce sempre con versioni Beta ma quando esce un motivo c'è.

    Mi sorprende con quanta semplicità sostieni che "non li considererà", visto che non c'è un precedente al momento.
    Questa notizia è uscita da pochissimi giorni ed è fonte ufficiale.

    Per sostenere tale tesi devi avere o una fonte ufficiale o una esperienza diretta.
    Hai forse un sito dove hai inserito questi meta? E quanto tempo fa sono stati inseriti?

    Mentre se ti stai rivolgendo a questo

    Important note: At this time, Google News will not make any changes to article ranking based on this tag. We think it is a promising method for detecting originality among a diverse set of news articles, but we won't know for sure until we've seen a lot of data.

    Non significa "non li considero".


  • User

    @fullpress
    ma i testi nuovi che inserite, quelli originali , sono penalizzati?


  • Moderatrice

    @collega-deborahdc said:

    @fullpress
    ma i testi nuovi che inserite, quelli originali , sono penalizzati?
    Si, stesso iter...ti posto il titolo di un articolo scritto da una nostra redattrice "
    Sony Ericsson e Windows Phone 7: dubbi e incertezze" se togli "e incertezze" non lo vedi più (eccezion fatta per il risultato di Google News)


  • User Attivo

    @collega-deborahdc said:

    Mi sorprende con quanta semplicità sostieni che "non li considererà", visto che non c'è un precedente al momento.
    Questa notizia è uscita da pochissimi giorni ed è fonte ufficiale.

    Per sostenere tale tesi devi avere o una fonte ufficiale o una esperienza diretta.
    Hai forse un sito dove hai inserito questi meta? E quanto tempo fa sono stati inseriti?
    Perdonami, forse mi sono espresso male.
    Da quello che ho seguito sulla vicenda dei due nuovi meta tag (syndication-source e original-source), pare che Google li debba ancora testare per verificarne l'effettivà utilità.

    Il test sembra possa includere solo un bouquet di siti "fidati" (si... fidati per Google però...).

    Già questo è un motivo per cui il test parte zoppo, quali sono i siti fidati?
    Perchè ci sono siti che sono "fidati"?
    E se questi siti fidati comprendono anche aggregatori o comunque fagocitatori di contenuti altrui?

    Comunque, lasciamo perdere questo punto, passiamo al successivo, ovvero il mio punto di vista secondo cui sono tag inutili e fallimentari.

    Con questi due nuovi tag, tutto sta all'onestà di chi progetta i siti, ovvero, se uno è onesto userà syndication e original a seconda del fatto che avrà contenuti proprietari o presi da altri siti.

    Cosa cambia allora da adesso? Cioè, cosa cambia rispetto a oggi dove un aggregatore/copy prende una notizia citandone il link correttamente rispetto a chi invece prende la notizia e basta?

    Chi ci può garantire che ogni sito sarà corretto nell'indicare i link in syndication e original?

    E quale sarà il metro di giudizio della "proprietà" di una notizia?
    Cioè, se la notizia non sarà identica su due siti diversi, ma avrà qualche parola diversa, chi dei due siti potrà dimostrare (a parità di data di emissione per esempio) di esserne la FONTE ORIGINALE?

    Chiudo il concetto aggiungendo che se io metto una notizia MIA, ma valgo 5, e la stessa notizia me la riporta magari il Corriere che vale 8, se il Corriere invece di usare correttamente i tag syndication e original non usa nulla o peggio, li usa in modo che sembri lui il fornitore originale della notizia, lui diventa per Google LA VERA FONTE, e io vengo escluso.

    Per questo motivo il MIO PENSIERO, che non vuole essere ne' la verità, ne' il pensiero di tutti, è che Google sta cercando di far fare a noi il suo lavoro (determinare i contenuti validi), e lo sta facendo in un modo scorretto, che probabilmente agevolerà ancora di più i network più "trust", a danno di tutti gli altri.

    Tutto qui.
    Sarei ben lieto di essere smentito, ma Google negli ultimi 4 anni è andato sempre peggio, e per quanto mi riguarda potrei dimostrarlo semplicemente con delle SERP che oggi danno risultati ignobili, sotto gli occhi di tutti.
    Non parlo di ignobili perchè qualcuno esce prima di me, sia chiaro, parlo di ignobili proprio per la qualità dei siti che escono a prescindere che ci siano dei risultati di miei siti o meno.

    Spero di aver chiarito quello che intendevo 🙂


  • Moderatrice

    @fabiogentile said:

    🙂
    Stavo notando il comportamento di Google con il tuo sito, è molto simile al nostro. Eppure i due siti sono completamente diversi, perfino nell'argomento. Ho inserito un titolo tratto da un tuo articolo, basta eliminare dal titolo una parola generica non determinante e zac...il titolo scompare nelle SERP...Ho inserito il titolo "Diego Dalla Palma presenta A Nudo, edita da Sperling & Kupfer", il risultato è in ottava posizione (chi ti precede non è pertinente o comunque non come il tuo titolo), poi ho tolto "edito da" e il tuo articolo scompare...


  • User Attivo

    E io ho visto il tuo titolo del Sony Ericsson... che dire... noi ora abbiamo un team di SEO che sta studiando la situazione e sta facendo delle correzioni, ma ti posso dire che ad oggi le correzioni che stiamo apportando sono veramente delle inezie, perchè il sito è già comunque google compliant.

    Per assurdo, la versione inglese del nostro sito non ha subito alcuna penalizzazione, anzi, nelle ultime 2 settimane ha avuto un incremento del 20% del traffico (buona parte dai social), e non ha ancora assorbito le modifiche fatte dai SEO, e finchè va così bene penso che non farò modificare nulla. Oltretutto la versione inglese è molto più competitiva di quella italiana perchè la mole di informazioni in lingua inglese è 10 volte superiore.

    I casi della vita... costretti ad investire in SEO per un sito che è sempre stato ottimamente posizionato e che i SEO stessi non sanno già più come migliorare nel codice. 🙂

    Voi come vi state muovendo? Anche voi avete "noleggiato" una squadra di tecnici SEO per ritornare a galla?

    PS: facendo site:XXXX mi sono reso conto che da circa 20.000 risultati adesso ce ne danno 5.300 circa... come per il tuo... singolare eh?


  • Moderatrice

    Ciao, anche noi abbiamo un SEO che ci ha fatto fare una miriade di piccole modifiche che hanno portato al nulla. Da ieri abbiamo chiesto la riconsiderazione in Google, ultimo atto. Abbiamo scritto la nostra storia, non so se avranno voglia e tempo di leggerla, ma ad oggi nessuna risposta. Oramai non mi aspetto più nulla, non credo che il caso si risolverà. Ho visto nell'altro forum, dove ho letto il tuo caso, che in Italia si sono verificate altre storie del genere. Google risponde allo stesso modo (sembra che le risposte siano telecomandate da algorimi) e non ammetterà mai l'errore. Mi vado sempre più convingendo che di errore si tratta. Evidentemente siamo finiti su qualche server comune nel trasferimento che c'è stato, da parte di Google, dei suoi server. Sembra che nelle date fatidiche Google abbia concentrato diversi server a Mountain View. Tutto questo, unito al famoso problema di indicizzazione di quei giorni, lascia più propendere per un errore che una penalizzazione. In ogni caso, il nostro traffico oramai si è ridotto al solo Google News che porta quel che porta.

    Per quanto riguarda il site, siamo nel ridicolo. Nell'ultimo anno ci segnala 200 articoli in indice mentre dalla sitemap del WMT i numeri sono ben altri. Per non parlare di altre cose assurde che ho visto, roba che ti fa pensare che 2 + 2 non sempre fa 4. Evidentemente Google questo pensa.
    Ciao
    Anna Bruno