- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Aggregatori di feed, un bene o un male?
-
@Stefano said:
Non credo sia questo il posto per problemi etico legali.
In ogni caso google non è un'autorità pubblica ma un'azienda privata e come tale ha semplicemente l'obbligo di rispettare la legge.
Aspettarsi da un'azienda privata qualcosa di diverso dalla ricerca del profitto temo possa solo portare delusioni.
Ma io non parlavo di Google per quel frangente, bensì riguardo gli Aggregatori, dato che il più delle volte taluni sembrano tutt'altro che siti di aggregazione, ma meramente siti atti a generare traffico e impressioni sugli Adsense installati.
Non parlo ovviamente dei technorati e/o affini, ma spesso delle iniziative di singoli terzi, che definisco una cerchia di keyword o di feed e li ripubblicano solo per trarne senza giri di parole un netto guadagno a costo pressochè 0.
E già questa cosa sinceramente a me non sta molto bene, soprattutto per l'omessa richiesta di pubblicazione, dato che tutto è sotto CC...
Se poi si valuta che questi siti assumono una posizione privilegiata nelle serp, la cosa mi gusta ancora meno.
E qui non ho ancora tirato in causa gli aggregatori che decido/autorizzo io, ma solo le libere iniziative di terzi.
Quindi se ben capisco google tratta gli aggregatori come un qualsiasi altro sito.
Comunque per parlare di fallacia del sistema di posizionamento credo che l'ottica giusta non sia quella etico-morale, ma quella dell'utente: sei proprio sicuro che l'utente preferirebbe trovare gli aggregatori in ventesima pagina?
cioè non trovarli proprio?Dalla mia esperienza empirica sembrerebbe proprio che Google tratti un aggregatore alla stregua di un normale sito, questo secondo me è sbagliato, dato che il più delle volte son gli stessi aggregatori (giustamente) a citare la fonte, questo dovrebbe permettere a Google di capire che l'aggregatore non è altro che un ripetitore di una fonte (tra l'altro la fonte viene esplicitata).
Quindi a mio giudizio, e questo si può vedere già in una serp di 9 risultati in maniera secondo me ottima, Google dovrebbe distinguere siti con contenunti "naturali" e contenuti "aggregati" e valutare il posizionamento di conseguenza.
Per la visione clientilistica, beh proporre un aggregatore al primo posto porta l'utente a dover raggiungere la sorgente dopo almeno 2 click, quando sarebbe possibile raggiungerla con una sola.
Comunque esempio empirico, serp da 15 risultati:
- 2 pagine indicizzate del mio blog
- 13 aggregatori vari
Dei quali risultati 4 sono prima del sito originale, e dei quali solo 1 mostra il reale contenuto e non un rimando ad una tag generica con la quale è stato taggato il post e che ad oggi è stata sopravanzata da altri post inerenti il medesimo argomento.
Quindi solo in 1 caso su 4 l'utente sarà in grado di arrivare al reale contenuto, salvo l'utilizzo della copia di cache di Google del risultato...
Non vedo molto utile all'utente vedere informazioni che per il 75% dei casi non c'entrano più nulla con l'argomento...
-
Secondo me Google non considera contenuto duplicato quando l'aggregatore riporta parte dell'articolo linkando la fonte originale più corposa. Tende però a posizionare meglio l'aggregatore perchè probabilmente ha più trust, è più aggiornato sull'argomento e per il fatto che potrebbe bastare solo l'introduzione all'utente che se vuole può approfondire dal link.
-
@GBZ said:
Secondo me Google non considera contenuto duplicato quando l'aggregatore riporta parte dell'articolo linkando la fonte originale più corposa. Tende però a posizionare meglio l'aggregatore perchè probabilmente ha più trust, è più aggiornato sull'argomento e per il fatto che potrebbe bastare solo l'introduzione all'utente che se vuole può approfondire dal link.
Nel mio case study l'aggregatore non è più aggiornato, ha infatti meno riscontri per quella parola chiave, anche se nella serp ne vengono mostrati due per entrambi.
Solo che nel caso itinere come dicevo prima solo il 25% dei contenuti che precedono il sito oggetto di studio ha un riferimento per quella keyword.
Mentre i due risultati del sito oggetto di studio hanno una rilevanza del 100%
-
Secondo me comunque le cose sono molto più semplici di quel che pensiamo... basta seguire un filo logico tenendo presente l'interesse di google, accontentare chi cerca...
-
@GBZ said:
Secondo me comunque le cose sono molto più semplici di quel che pensiamo... basta seguire un filo logico tenendo presente l'interesse di google, accontentare chi cerca...
Beh giustamente Google persegue la soddisfazione del cliente come è giusto che sia, ma sicuramente non lo persegue proponendo il 75% risultati inutili, e per utili si intende risultati contenenti realmente la keyword...
-
Infatti ciò spiegherebbe come mai aggregatori sono in posizioni migliori dei contenuti originali, io la mia ipotesi l'ho fatta. Un aggregatore generalmente è molto più aggiornato della fonte sull argomento dato che raccoglie dati da più siti e quindi l'utente avrebbe un panorama più ampio nel suo interesse.
-
Mi ero scordato un "in" davanti ad utili
Comunque ti assicuro che nel mio caso, l'aggregatore non può essere più aggiornato di me su un neologismo che ho creato io ad hoc
L'unica potrebbe essere che altri aggregatori siano a loro volta linkati in altri aggregatori, e così a technorati e affini risultino 2 fonti per un determinato contenuto (cosa che ho appena controllato ed effettivamente sembra che lo stesso aggregatore venga risegnalato su altri aggregatori a cascata...)
-
Se un aggregatore è abbastanza forte ed aggiornato, la frequenza di crawling può essere uno dei motivi per i quali soppianta il sito "originale" nelle serp.
Questo perchè, semplicemente, lo spider trova prima la citazione dell'aggregatore e solo dopo il post originale.
Se quindi utilizza lo stesso titolo dell'articolo originale, nasce un problema perchè diventerà molto più probabile che il sito originale sia visto come secondario e l'aggregatore come il padre dei contenuti(seppure parziali).
Paradossalmente si finisce per essere considerati i cloni mentre invece si è stati clonati.
Quindi, per siti particolarmente nuovi, non con buon trust e con una frequenza di crawling scarsa, rendere disponibili i feed può essere un errore anche grave.
Quando si sarà raggiunta una buona forza, invece, le citazioni difficilmente porteranno guai(se non con siti dal trust spropositato) perchè sarete sempre riconosciuti come gli autori e se non vi posizionerete meglio da subito, succederà nel giro di poco tempo(in genere 7-14 giorni).
Tra un mesetto ho in programma di fare un test e sottoporre il mio sito ad una decina di aggregatori.
Vi terrò aggiornati sui risultati
-
@Karapoto said:
Se un aggregatore è abbastanza forte ed aggiornato, la frequenza di crawling può essere uno dei motivi per i quali soppianta il sito "originale" nelle serp.
Ti dirò per la mia esperienza, il crawling sul mio sito è avvenuto anche prima degli aggregatori, che son comparsi ad una distanza di una settimana.
L'evoluzione per altro è stata prima solo l'homepage del blog con tutti gli articoli nell'arco di 24/48h, dopo di che nei giorni successivi la sua sparizione a favore delle pagine legate realmente alla keyword.
Quindi i risultati per quanto riguardano il mio sito riportano la keyword ricercata, ahimè non è così per gli aggregatori dato che pescando tutti da Technorati (tranne un solo caso) mostrano i risultati ad oggi, ma già domani o anche fra qualche ora se qualcuno produce un contenuto con un tag, e dico tag del post e non keyword del contenuto, beh il post che avevo scritto potrebbe non essere più presente in quella pagina.
Dico tag perchè gli aggregatori utilizzano quelli per valutare i testi dei feed di Technorati rispetto alla coerenza con la loro linea di pubblicazione.
Questo perchè, semplicemente, lo spider trova prima la citazione dell'aggregatore e solo dopo il post originale.
Nel mio caso ahimè non è stato così, prima nelle serp sono comparsi i risultati del mio sito, dopo alcuni giorni quelli degli aggregatori.
Per altro abbiamo fatto anche un test usando un forum, inserendo la keyword correttamente indicizzata e posizionato subito dopo il sito originale, una volta rimosso il post dal forum giustamente la serp si è liberata da quell'occorrenza, cosa che invece non accade per gli aggregatori...
Se quindi utilizza lo stesso titolo dell'articolo originale, nasce un problema perchè diventerà molto più probabile che il sito originale sia visto come secondario e l'aggregatore come il padre dei contenuti(seppure parziali).
Paradossalmente si finisce per essere considerati i cloni mentre invece si è stati clonati.
Quindi, per siti particolarmente nuovi, non con buon trust e con una frequenza di crawling scarsa, rendere disponibili i feed può essere un errore anche grave.
Questo sicuramente, ma talune volta è dura anche per un sito ben avviato combattere con siti con PR 4 e 160.000 pagine indicizzate su Google
Quando si sarà raggiunta una buona forza, invece, le citazioni difficilmente porteranno guai(se non con siti dal trust spropositato) perchè sarete sempre riconosciuti come gli autori e se non vi posizionerete meglio da subito, succederà nel giro di poco tempo(in genere 7-14 giorni).
Ahimè non è così, almeno nell'arco di 7gg, speriamo nei 14
Comunque io resto dell'idea che dare il medesimo peso ad un sito e ad un aggregatore sia sbagliato...
Tra un mesetto ho in programma di fare un test e sottoporre il mio sito ad una decina di aggregatori.
Vi terrò aggiornati sui risultati
Ottimo
-
Io sono chiaramente d'accordo con te quando dice che dare più peso ad un aggregatore, rispetto al sito originale, sia sbagliato, ma purtroppo i motori tendono a premiare(almeno per ora) chi gli facilità il compito.
Sto studiando da un pò alcuni aggregatori ed è davvero innaturale la forza che hanno alcuni.
Oltretutto credo sia bypassata la questione tematizzazione, che invece affligge i siti classici.
In pratica gli aggregatori possono parlare di tutto senza accusare problemi.Almeno per ora le cose stanno così, ma non sono sicuro continui a verificarsi questa evenienza.
-
Mi intrometto nel discorso (scusate ).
Da quanto detto finora, pubblicare feed completi sarebbe (è) controproducente. Però molti lettori preferiscono i feed completi a quelli parziali, e c'è qualche estremista che, pur di non aprire il browser sui link "continua a leggere", preferisce non iscriversi ai feed.
Voi cosa scegliereste, tenendo presente anche questa considerazione?
-
Scusate se rispolvero la discussione ma vorrei chiedervi, ad oggi è ancora rischioso utilizzare gli aggregatori di feed?
-
Non credo sia pericoloso iscriversi agli aggregatori, anzi, per quella che è la mia esperienza (ho un piccolo blog), possono solo portare qualche visitatore giornaliero in più!
-
Vorrei segnalarvi questo articolo:
alverde.net/blog/usi-wordpress-e-ti-copiano-i-post-senza-citare-la-fonte/759/Penso che con questo risolverete i vostri problemi..Ciao!
-
Alcuni aggregatori sono "intelligenti" e utili, poichè aggregano tag (alcune volte estratti dal testo) piuttosto che post. E questo non crea conflitti con il posizionamento.
In ogni caso una buona analisi sull'utilità degli aggregatori la trovi
qui http://blog.tagliaerbe.com/2008/08/aggregatori-di-feed.htmlPer evitare che vengano "rubati" i feed su wordpress c'è un bel plugin che è http://yoast.com/wordpress/rss-footer/
-
senza fare riferimento agli aggregatori vi pongo un solo esempio.
ho segnalato un articolo del mio blog su upnews ed il risultato è che upnews è posizionato meglio nelle serp con la parola chiave del mio del mio articolo, insomma non certo quello che desideravo...
-
@Van Basten: c'è anche da dire che, a differenza di un aggregatore, la pagina di una notizia su un social news non è identica al post segnalato, mentre sugli aggregatori sì... quindi potrebbe non essere flaggata come contenuto duplicato.
Ovviamente, per un sito non proprio "in salute", social news e aggregatori potrebbero essere un problema.
È uno dei motivi per cui cerco di differenziare il titolo nel feed (o di una news segnalata) dal tag title del post