• User Attivo

    Scusa Deborahdc, ma questa duplicazione che vedo su Fullpress (e che è presente anche da noi) non è una duplicazione di contenuti.
    Tutte le home page hanno i titoli e gli occhielli degli ultimi articoli, e quei dati si trovano ovviamente sia nella pagina articolo che nella pagina della Categoria.

    Però dalla Home page spariscono giorno per giorno, mentre nelle pagine di Categoria scendono nelle posizioni inferiori.

    Questo procedimento è normalmente visibile anche su siti ben più importanti come Corriere.it, prova a vedere l'articolo della Corea del Nord, ha titolo e abstract/occhiello sia in home page, che nella pagina Esteri e ovviamente anche nella pagina dell'articolo stesso.


  • User

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?


  • User

    Ed inoltre: hai notato che in tutti questi esempi la home di fullpress non è presente in serp?
    Questo è un chiarissimo campanello di allarme.


  • Moderatrice

    Per "F5 presenta una suite di soluzioni unificate per operatori" non vedo nè FullPress, nè altri siti: ricerca con risultati non pertinenti. Probabilmente vediamo qualcosa di diverso, non posso inserire screeshot ma ho salvato la pagina che visualizzo.

    Invece per "Una soluzione completa di budget, forecast e pianificazione finanziaria perfettamente": lo vedo presente su altri siti ma quando l'abbiamo pubblicato e (fino a poco fa) non c'era. E qui torniamo al discorso dei comunicatori che attendono pubblicazione per poi smerciare ovunque.

    L'occhiello "Si assiepano dubbi e incertezze tra Sony Ericsson e Windows Phone 7" non è presente all'interno dell'articolo ma solo sulla home: è un testo personalizzato per comparire solo in home, non all'interno della pagina.

    Il discorso occhiello è comunque diventato valido per tutto: se c'è sulla home, non c'è all'interno dei pezzi.


  • User Attivo

    @collega-deborahdc said:

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?
    Ma perchè duplicazioni?
    Un articolo è formato da:

    • titolo
    • occhiello
    • corpo dell'articolo

    Nell'home page esce titolo+occhiello
    Nella pagina della Categoria esce titolo+occhiello
    Nella pagina dell'articolo esce titolo+corpo dell'articolo

    Per evitare duplicazioni cosa dovremmo fare scusa?
    Creare 3 titoli diversi e 2 occhielli diversi? Ma che senso ha?

    Scusa i siti di e-commerce che hanno random in home page dei prodotti, cosa devono fare allora?
    La scheda video Sapphire Radeon HD5750 non può mica cambiare nome e descrizione perchè esce in Home, in Categoria, in scheda prodotto.

    Per me i duplicati sono i contenuti che magari sono identici su siti diversi, oppure se ho 5-6 pagine che ripropongono sempre lo stesso contenuto, o sbaglio?

    Altrimenti non capisco come dovremmo organizzare le notizie, veramente non lo capisco.

    EDITO: ho fatto la prova che dicevi, in molti casi a me la "mia" home page esce, e sotto esce anche la pagina dell'articolo, ma non sempre


  • Moderatrice

    @collega-deborahdc said:

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?

    Siamo consci di non essere il Corriere.it ma se, come affermi, c'è stato un aggiornamento di Google perchè non spieghi a noi poveri editori come mai altri che NON SONO IL CORRIERE.IT escono tranquillamente nelle SERP?


  • Moderatrice

    @collega-deborahdc said:

    .
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?

    E gli aggregatori? Come si pongono nei confronti dell'aggiornamento di Google nei confronti dei contenuti duplicati da te dichiarato? Per l'accezione del termine quello è il vero "contenuto duplicato" .


  • User

    fabio io non ho guardato il tuo caso quindi non ho assolutamente idea di cosa sia la tua penalizzazione.
    Quello che ho visto su full press e che puoi vedere anche tu guardando gli esempi che ho indicato sopra è che:

    • la home page non esce in serp
    • la home è duplicata da un'altra pagina identica
    • alcuni contenuti non sono originali.

    Questo è un dato di fatto ed è incontrastabile.

    Non sono io che detto le regole è google. Quindi a voi la scelta di seguire le sue regole oppure no.

    Noi siamo qui per aiutarvi.
    Voi potete decidere se seguire i consigli o meno.


  • User Attivo

    @collega-deborahdc said:

    fabio io non ho guardato il tuo caso quindi non ho assolutamente idea di cosa sia la tua penalizzazione.
    Quello che ho visto su full press e che puoi vedere anche tu guardando gli esempi che ho indicato sopra è che:

    • la home page non esce in serp
    • la home è duplicata da un'altra pagina identica
    • alcuni contenuti non sono originali.

    Questo è un dato di fatto ed è incontrastabile.

    Non sono io che detto le regole è google. Quindi a voi la scelta di seguire le sue regole oppure no.

    Ok ma infatti mi sto basando sullo stesso esempio di Fullpress, quello che dico è che se titolo+occhiello stanno in home, è anche normale che poi vengano ripresi nella pagina della categoria specifica di quella notizia.

    Allora quello che ti chiedevo, è, se mi puoi suggerire come ovviare a questa "duplicazione".

    Cioè, un articolo esce in home page con titolo+occhiello e ci rimane magari 4 ore, ma se l'articolo tratta di telefonia, nella sezione TELEFONIA ci sarà l'elenco degli articoli correlati, giusto?
    Quindi la pagina TELEFONIA avrà questa "duplicazione" con titolo e occhiello.

    Se questa è una duplicazione, ti chiedo di suggerirmi COME evitarla, perchè sinceramente l'unica cosa che mi viene è quella di cambiare titoli e contenuti da una all'altra.


  • Moderatore

    @FullPress said:

    E gli aggregatori? Come si pongono nei confronti dell'aggiornamento di Google nei confronti dei contenuti duplicati da te dichiarato? Per l'accezione del termine quello è il vero "contenuto duplicato" .

    🙂

    Ciao FullPress, ti rispondo io anche se non ho un grande aggregatore - Non sono Liquida, insomma.

    Premetto che il mio aggregatore accetta SOLO feed di bloggers che coscientemente decidono di iscriversi.

    Ebbene, gli aggregatori hanno 'naturalmente' una percentuale di pagine indicizzate pari ad una percentuale irrisoria rispetto a quelle che hanno nel db.

    Irrisoria. Non credo che tu debba quindi confrontarti con un aggregatore (e stiamo parlando di aggregatori di feed, non i social bookmarking che al limite hanno anche qualche contenuto originale...).

    Ma... teniamo in conto che il più grande aggregatore del mondo è proprio Google News... certamente 'quelli' non sono considerati dei duplicati.... eppure non è così.

    Perchè ad esempio per una determinata serp dovrei vedere la stessa pagina che occupa due posizioni, una con Google News e una con la URL originale?

    Chiaramente Google utilizza il suo aggregatore come preferisce...
    ... personalmente una cosa simile la noto anche con la blogsearch di Google.

    Soluzioni? ... Non lo so. Ma una buona idea potrebbe essere iscriversi al secondo più grande aggregatore del mondo - almeno per il momento.
    FriendFeed.

    Non per nulla comprato da FaceBook l'estate scorsa...


    Molte cose dette da FabioGentile sono assolutamente vere o verosimili.

    Ma ragazzi... il comando site: è stato letteralmente 'fatto a pezzi' già da mesi - almeno per come eravamo abituati ad utilizzarlo - ... allora vi assicuro che potete rileggervi tutti i casi di penalizzazione dal MayDay in poi (e cioè da fine aprile 2010), e letteralmente ne 'uscirete pazzi'.

    Il mio consiglio è: NON guardate più il site: fino a che la seosfera mondiale non avrà capito se e come utilizzarlo alla luce dei risultati 'bizzarri' che restituisce.

    :ciauz:


  • User Attivo

    @WWW said:

    Premetto che il mio aggregatore accetta SOLO feed di bloggers che coscientemente decidono di iscriversi.

    E infatti tu non fai testo, cioè, in senso buono intendo.
    Quello che constatiamo e CONTESTIAMO semmai sono i bloggers che COPIANO senza link di rimando corretto e gli aggregatori che raccolgono ovunque tramite xml o tecniche anche peggiori.

    Un sito come il tuo da visibilità ai bloggers, sperando che siano tutti bloggers onesti e non furboni che copiano in giro, mentre un sito di cui non faccio il nome, che aggrega ogni tipo di xml, fa danno invece.

    Alcuni aggregatori anche italiani, prendono l'xml con il titolo magari, e poi lo linkano ad un'altra pagina dove trovi titolo, parte del corpo dell'articolo, e link alla fonte.
    Capito il trucco? In pratica l'utente clicca sul titolo pensando di andare alla fonte e invece rimane nell'aggregatore, a quel punto magari si stufa anche così sulla fonte non ci va proprio.

    🙂


  • Moderatore

    No, ok, certo. Ma quello che volevo dire era semplicemente che la percentuale di pagine non indicizzate in un aggregatore è elevatissima.

    Ora, nel corso del 2010 direi che praticamente TUTTI i siti hanno subito una parziale deindicizzazione... o se preferite Google ha attivato dei filtri capaci di agire sugli indici, ANCHE in vista dei VERI ed ENORMI produttori di contenuti duplicati... che sono i SOCIAL MEDIA, ora come ora.

    I filtri attivati da Google sono in perenne testing ... ma a me sembra evidente che questi siano studiati - in via prevalente - per imbrigliare i contenuti prodotti dai vari social ed utilizzarli nelle serp in maniera 'ragionata'.

    Tutto ciò non toglie nulla ai problemi di autoduplicazione che un sito può avere (che poi è il nodo centrale di questo 3D).

    Quello che in ogni caso volevo dire è che se tutti i siti sono costretti a confrontarsi con questi nuovi filtri, è evidente che proprio i siti che hanno una più elevata percentuale di contenuti duplicati abbiano problemi del genere.

    Nell'ordine direi che un aggregatore riesce a mantenere in indice una percentuale abbastanza modesta dei post che fetcha.
    Un circuito per i comunicati stampa ha speranze migliori, ma ha ugualmente la probabilità di incappare in molti contenuti duplicati. Meno di un aggregatore e a seconda delle possibilità e delle risorse della redazione.

    In questo caso stiamo parlando di FullPress, che è senza dubbio uno dei circuiti più vecchi e più autorevoli in Italia... quindi sono certo che ci sono casi peggiori, quanto ad indicizzazione dei vari post.

    Nel tuo caso forse il problema è ancora più 'grave'... perchè se non sbaglio non accetti articoli dagli utenti/visitatori.

    Quindi non dovresti avere problemi di contenuti duplicati 'esterni' in nessun caso.


    Che ci siano gli scrapers o i bloggers dal copia e incolla.. okkei, è un altro discorso.

    Purtroppo è anche molto comune che i 'comunicatori' (come li chiama simpaticamente FullPress) siano i primi a 'spammicchiare' i loro contenuti a destra e a manca.

    🙂


    Il vero problema è che noi tutti siamo 'i piccoli' che vorrebbero avere il sito sgombro dagli articoli copiati-incollati, e possiamo essere severi quanto ci pare con i nostri utenti.... ma dall'altra parte i 'pesci grossi' di oggi sono questi enormi contenitori di tutto, questi networks giganteschi ed anomici in cui ciascuno si apre un profilo e 'comunica', cioè scrive e posta quello che crede.

    Lunga vita ai social networks, per carità, stanno rimettendo tutto in discussione... ma secondo me è importante anche capire che buona parte delle modifiche recenti degli algo di Google siano anche 'causate ed orientate ad integrare' la massa montante di informazioni prodotte dalle reti sociali in tutto il web.

    L'ottimizzazione puntuale dei singoli aspetti dei singoli siti è cosa sacrosanta: ma occorre tenere conto anche dei dati di fondo di un sito (come ricordava MrJinx con le sue dotte citazioni) e del contesto generale nel quale ci troviamo ad operare, nel 2010.

    Dico di più: avete presente quanti pezzi storici della rete non stiano riuscendo a sopravvivere a questa tempesta?

    Ultimamente seguo le vicende del nuovo Digg... ma proprio ieri mi è capitato di passare su BlogCatalog... che è proprio in rotta, secondo me.

    Insomma, anche per lanciare un vagito di ottimismo nel 3D... E' DIFFICILE per tutti, ma non è certo impossibile.

    🙂


  • Moderatrice

    @WWW said:

    ...
    🙂

    Ciao WWW, ti rispondo con i fatti (intanto ti ringrazio per la tuo cortese argomentazione).

    "Amazon.it arriva in Italia, senza Kindle"
    Questo articolo è originale, scritto da Maria Stefania Bochicchio della nostra redazione. Mi dici dove lo vedi duplicato? Occhio ai noindex follow. Ed occhio anche agli occhielli (scusa il gioco di parole). Se noti bene l'occhiello (testo subito dopo il link) dell'articolo in home page non viene ripetutto nello stesso articolo.

    Poi vai in Google e vedi che risultato ti restituisce, poi ne parliamo.

    Grazie
    Anna


  • Moderatore

    Per carità, al momento la serp che vedo io dice una cosa chiara.

    Il tuo articolo originale è primo in serp - ma passando per Google News e non per l'organico.

    Per l'organico il primo risultato FullPress.it che incrocio è la pagina categoria che ora raccoglie il rimando al post.

    fullpress.it/News/7-1.html

    L'articolo è di oggi è questo è quello che Google propone oggi: la tua notizia è prima ma è 'fornita' da Google news, e non è ancora visibile nell'organico.

    Se tutto va bene e soprattutto quando Google toglierà il 'suggerimento' di GG News per quella query, il tuo post dovrebbe comparire in cima a quella serp con la sua url univoca.

    A mio parere finchè hai GG News lì sopra la url dell'articolo non la vedrai in serp.

    Se invece va male - come mi sembra, altrimenti non saresti qui a parlarne - una volta che la query perde lo spazio di GG News la tua pagina non si indicizza affatto.

    E invece nell'organico ci trovi, qualche giorno dopo, lo stesso comunicato ma pubblicato su piattaforme diverse.


  • Moderatrice
    1. fullpress.it/News/7-1.html (in teoria la pagina non dovrebbe essere indicizzata, se guardi nel codice);
    2. Questo articolo l'ho scritto io, è originale in tutto perfino nell'esposizione
      "Facebook, negli Stati Uniti un utente su quattro è sul social network mentre Google frena"
      Vedi i risultati (a parte Google News). Al primo posto c'è un sito che ha copiato ed incollato il mio articolo, Google non fa una piega. Ma non aveva fatto l'aggiornamento sul filtro antiduplicazione?????
    3. Non uso FriendFeed, eppure il mio articolo c'è...Indovina chi l'ha messo??? Ma colui che fa copia e incolla. Ma non ha aggiornato il filtro antiduplicazione Google?
    4. Non uso Wikio. Eppure l'articolo c'è. Indovina da chi??? Da chi ha copiato ed incollato. Ma Google non ha aggiornato il filtro antiduplicazione??
    5. Il mio articolo, orginale, non c'è. Ma Google non aveva aggiornato il filtro antiduplicazione???
    6. Se viene proposta la home page di FullPress nel risultato mi scuso. Se Google ha stabilito che il mio, dico mio, articolo non deve uscire nelle SERP, viva Google. Non aggiungo altro. Evviva anche il filtro antiduplicazione che azzera la fonte e distribuisce tutti i benefici a chi copia, incolla e aggrega.

    Scusa lo sfogo, ma lo stress è alle stelle.


  • Moderatore

    @WWW said:

    E invece nell'organico ci trovi, qualche giorno dopo, lo stesso comunicato ma pubblicato su piattaforme diverse.

    Scusa se mi autocito, ma sto facendo dei test sui tuoi articoli recenti.

    Quello che accade è che la percentuale degli articoli che riesci a far indicizzare è evidentemente più bassa rispetto a quello cui eri abituata, prima del filtro del '22 ottobre'.

    In certi casi perchè i comunicati vengono ripubblicati da altre piattaforme, in certi casi semplicemente perchè la frequenza e profondità di scansione con cui Google prende coscienza del tuo sito non riesce a 'coinvolgere' tutti i post, con l'effetto che anche alcuni contenuti veramente originali che tu pure hai non sono stati e non vengono indicizzati in Big G.

    Come dicevo sopra: non è affatto semplice.
    Però, sostanzialmente.... tu pubblichi molti contenuti tutti i giorni ma non hai 'flux' sufficiente per garantirti un'indicizzazione ottimale o comunque 'coerente' con quelli che erano i vostri standard fino a prima.

    Vogliamo azzardare? Google dedica meno risorse per setacciare il vostro sito, magari perchè si è accorto che fate parte del macromondo dei press release e quindi vi ha accomunati a quella 'bolgia'.

    Il punto è che - come tu stessa dici - anche 'gli altri' sono sottoposti agli stessi filtri e agli stessi problemi di indicizzazione.
    E infatti la mia idea è che anche gli altri non abbiano una indicizzazione integrale dei vari comunicati, ma che d'altra parte molti abbiano anche trovato il modo di 'resistere' aumentando il 'flux' a disposizione dei propri circuiti.

    E allora forse quello che ti dicevo due pagine fa non è nemmeno tanto campato in aria... per aumentare frequenza e profondità di scansione ti servono link.
    Tanti e quotidiani... o almeno, tieni in conto che i tuoi competitors prendono link esterni in ingresso su ciascun comunicato che pubblicano.

    Poi... magari sto sparando della cazzate colossali, io qui mi occupo dell'area 'poetica e musicale'... e anzi adesso vado a sincerarmi che i mod di questa sezione non abbiano voglia di linciarmi per questi miei pipponi.

    :giggle:


  • Moderatrice

    @WWW said:

    E allora forse quello che ti dicevo due pagine fa non è nemmeno tanto campato in aria... per aumentare frequenza e profondità di scansione ti servono link.
    Tanti e quotidiani... o almeno, tieni in conto che i tuoi competitors prendono link esterni in ingresso su ciascun comunicato che pubblicano.

    :giggle:

    Bravo. E' la risposta più sensata e vicina alla realtà che ho avuto. Ora ti chiedo una cosa, andiamo per logica.
    Come fa un sito che ha un paio di anni, diciamo tre anni di vita, ad avere più link di altri se non con tecniche borderline? Non mi rispondere che questi siti sono CNN o Repubblica, non lo sono. Quindi, la risposta è che con tecniche borderline (io dò un link, tu dai un link a me, la catena di Sant'Antonio, tu entri nel mio circuito ma metti un banner, metti un link, etc.) questi siti ora hanno trust. Ma è così che il web può essere attendibile? Con tecniche che aiutano siti che possono permettersi di recuperare pubblicita a go' go' ai danni di chi ogni giorno scrive contenuti ???

    Non vado oltre, sei stato già troppo paziente.

    Ciao
    Anna


  • Super User

    Quello che dici è assolutamente il succo concentrato della discussione. Tutti coloro che sono intervenuti non hanno fatto altro che parlare di questo.
    Sarebbe molto interessante se Fullpress verifcasse quanto detto da WWW > Google dedica meno risorse per setacciare il vostro sito, magari perchè si è accorto che fate parte del macromondo dei press release e quindi vi ha accomunati a quella 'bolgia'..
    Sul fatto : > E infatti la mia idea è che anche gli altri non abbiano una indicizzazione integrale dei vari comunicati, ma che d'altra parte molti abbiano anche trovato il modo di 'resistere' aumentando il 'flux' a disposizione dei propri circuiti.

    E allora forse quello che ti dicevo due pagine fa non è nemmeno tanto campato in aria... per aumentare frequenza e profondità di scansione ti servono link. Non si può certo che dare ragione, ed è stato già detto da diversi utenti intervenuti alla discussione.

    Ridurre al massimo i contenuti duplicati e aumentare la spinta al sito, questo il succo.


  • Moderatore

    @FullPress said:

    Scusa lo sfogo, ma lo stress è alle stelle.

    Per carità, ma scusa questo però è un caso limite.

    Cioè mi vuoi dire che l'ultimo splog ti frega gli articoli e ti supera in serp... e ti credo che sei nervosa.

    🙂

    Però scusa sai... ma con 4 lire di promozione del feed gli sploggers di quel livello li ELIMINI del tutto.

    Ripeto, ora io non vorrei dire cose che poi arrivano i seo 'seri' e si incavolano....
    Ma il caso che hai citato è TROPPO evidente per tacere.

    Occorre che promuoviate il vostro feed nelle cattedrali che si vanno erigendo in giro per il web... cioè, finchè la competizione la avete con altri grandi canali di CS come quelli che stavo vedendo io.... è un conto.

    Ma con lo splogger così... non ci dovrebbero essere storie.

    Google... ok, se vuoi prenditela con lui... ma che gli algo siano 'manipolabili' è evidente.

    Ma se fossi in voi mi metterei a studiare seriamente la promozione di un feed nei social media... purtroppo è da lì che anche l'ultimo degli splogger prende i link necessari a superarvi per i vostri stessi articoli.

    Ripeto, la competizione con altri grandi circuiti è un conto... i comunicatori che spammano è un altro.... ma per 'tutelare' il vostro feed dagli abusi di quel tipo di 'blog' bastano 4 lire di social media marketing.

    Ora vado a cena, in bocca al lupo!
    :ciauz:


  • Super User

    @FullPress said:

    Come fa un sito che ha un paio di anni, diciamo tre anni di vita, ad avere più link di altri se non con tenciche borderline?

    Devi considerare anche le dimensioni della risorsa che stiamo valutando. Per un sito A, possono bastare i link che al tuo non farebbero neppure zic. Questo è fondamentale da capire, le grandi dimensioni possono essere anche un grosso problema se non rapportate alla fama che questo ha in rete.