- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Google Farmer, 12% delle SERP modificate!
-
Beh, io l'ho chiamato "Farmer" proprio per come lo hanno chiamato su SearchEngineLand. Se vogliamo chiamarlo in un'altra maniera no problem Stiamo comunque parlando della stessa cosa.
Giusto per aggiungere altri dettagli a questa pepata discussione, proprio su SearchEngineLand c'é un articolo che analizza i primi effetti di "Farmer" (o qualsiasi altro nome vogliamo dargli ).
Un sito come [LEFT]www . ezinearticles . com (press release) ha perso circa il 90% della sua visibilita' (secondo Sistrix).
fonte: [/LEFT]http :// searchengineland .com/who-lost-in-googles-farmer-algorithm-change-66173
-
@GigiPic said:
Secondo me la risposta e' SI.
Questo aggiornamento dovrebbe essere la fase finale dela battaglia contro i contenuti duplicati.
Se il sito A vende scarpe e il sito B e' un affiliato del sito A e ne copia (prende pari pari) le descrizioni dei prodotti, il sito B verra' penalizzato a vantaggio del sito A.
secondo me sbagli. La situazione degli e-commerce è completamente diversa :
-
il sito A del produttore pubblica la scheda articolo ( molto spesso senza permettere l'acquisto diretto online )
-
i siti B , C , D , ... , Z dei rivenditori la riproducono nel loro sito e aggiungono prezzo , spese di spedizione ed altri dettagli di vendita
B , C , D ... Z forniscono una informazione sostanzialmente diversa rispetto ad A e fra loro sono simili ma non identici , visto che magari che il contenuto delle pagine-prodotto è identico fra i siti B , C , D , ... Z se non per un numerino tuttaltro che trascurabile : il prezzo.
E se Google fornisce nelle Serp solo A o al massimo A e B non fa certo un servizio ai propri utenti che vorrebbero trovare diversi siti e-commerce dove si vende lo stesso prodotto con prezzi diversi.
-
-
Dalle prime liste di siti penalizzati disponibili in rete, constato che ad essere penalizzati sono siti di article marketing e news aggregator, e quindi a cascata presumo perderanno posizionamenti pure coloro che basato il link building principalmente su questi.
Aspetto di conoscere se ci sono altri siti colpiti, perché se sono solo loro ... tutto qui?
Un algoritmo per colpire quelle tipologie di siti è facile da fare, e per qualità io intendo ben altro.
-
Dite che quindi segnalare in futuro il propio sito su una moltitudine di directory potrebbe essere penalizzante ?
-
Nessuno ha la palla di vetro, ma già oggi segnalare il proprio sito su una quantità elevata di directory di qualità discutibile non è molto saggio.
-
E dei comparatori di prezzi? Che mi dite? Immagino che siano paragonabili a degli aggregatori, in quest'ottica.
-
I contenuti duplicati ci sono, punto, bisognerà vedere come saranno strutturati (e se efficacemente) i nuovi algoritmi.
-
@GigiPic said:
"Stasera vado a mangiare una pizza con Maria"
"Maria stasera viene a mangiare una pizza con me"
Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".
Dubito che l'algoritmo di Google riesca a distinguere queste due frasi.
Non dimentichiamo che il linguaggio umano è ambiguo, una frase può avere anche diversi significati se ad esempio si spostano o si eliminano i segni di interpunzione.
Dedurre il significato di una frase non è per nulla una cosa facile, proprio per l'ambiguità intrinseca del linguaggio (it.wikipedia .org/wiki/Elaborazione_del_linguaggio_naturale, en.wikipedia .org/wiki/Natural_language_processing).Si sta studiando la possibilità di associare alle pagine web delle informazioni relative al contesto semantico delle pagine (it.wikipedia. org/wiki/Web_semantico) ma ce n'è di strada da fare...
-
Scusa, tu vuoi dire che Google le consideri contenuto duplicato?
-
Domani vorrò postare le mie considerazioni.
Ora sono un pò assonnato, ma ho visto l'intervendo di oronzocanà sui comparatori di prezzo.Stando un pò a quello che si è detto in questo thread, comparatori di prezzo e siti ecommerce, sparirebbero dalle serp.
Voi cosa fareste per tenere a galla il Vs isto ecommerce o il vostro comparatore di prezzi ?Ciao a domani !
-
Personalmente ho forti dubbi che il "vero" update sia questo.. non dimentichiamo che Google è una società quotata in borsa e non ha mai rivelato rilasci di update algoritmici sul ranking.
Credo che usino Google Farmer come capro espiatorio nel caso in cui qualche altra operazione molto più grossa, possa destabilizzare il mondo delle ricerche online..
-
Sul Guardian è stato pubblicato un interessante articolo sui siti più penalizzati.
guardian.co.uk/technology/blog/2011/feb/28/google-changes-sites-affectedInteressante come nella lista ci sia di tutto da normali blog a forum
A questo punto non so cosa possiamo aspettarci
-
Grazie amarco per il link.. effettivamente pare proprio che si attesti un calo del 70% circa di traffico (nei commenti c'è uno dei responsabili di DaniWeb, uno dei forum più importanti nell'IT in USA che conferma il dato).
Sto ancora pensando a come l'algoritmo possa lavorare, a mio avviso non si basa più sul trust del dominio ma del trust della pagina... un'idea che mi sono fatto ora leggendo l'articolo..
-
Mi chiedo che influenza avrà sugli altri motori di ricerca che si appoggiano a Google.. se ne avrà.
-
Personalmente mi sembra evidente che c'è un intervento umano oltre che algoritmico come dimostra il caso di cultofmac.
Il sito era crollato dopo l'aggiornamento dell'algoritmo ma casualmente dopo che il caso ha avuto una sua rilevanza su diversi media il ranking è stato ripristinato.
Curioso poi il fatto che ehow che è una vera content farm non sia stata danneggiata mentre siti sicuramente più validi ci sono andati di mezzo.
Sono curioso di vedere cosa succederà in Italia anche se c'è da essere preoccupati visto l'imprevedibilità delle conseguenze.
-
A bocce un po' più ferme ritengo che questo algoritmo riguardi principalmente i contenuti duplicati.
Non sono mai piaciuti a Google, ma finora penalizzava se li trovava all'interno di uno stesso sito, mentre se trovava N siti con lo stesso articolo, in genere ne mostrava uno e gli altri magari erano nascosti ma senza penalizzazioni estese agli interi siti dei copiatori.
Era una situazione paradossale, che ora è stata sanata.
La mia ipotesi è la seguente.
Se Google trova A che copia B, trasferisce buona parte del link juice di A verso B (A quindi crolla e B sale). Ehow, Amazon, Youtube ecc. sono stati premiati propri perché hanno tanti copiatori.
-
Alcune prime considerazioni di Rand Fishkin sull'algoritmo.
Considerate sempre che, seppur influenti, sono solo sue opinioni personali sui cambiamenti in serp.
seomoz.org/blog/googles-farmer-update-analysis-of-winners-vs-losersValerio Notarfrancesco
-
In quella pagina non mi si attiva la traduzione in Italiano.. che dice perfavore?
-
Salve.
Ottima e utile discussione. Direi unica nel suo genere.
Mi trovo anch'io con lo stesso problema: ogni possibile novità del sito, mi viene copiata a distanza di tempo dal mio concorrente. questo avviene da molto tempo.
Come posso far notare a Google che sono il primo a creare contenuti nuovi? Non esiste anche a livello di codice una maniera per rilevare questo?
Grazie,
Lilo.
-
Caro lilo finalmente uno che ha toccato il tasto dolente che ribadisco io.
Chi ti copia gli articoli "dovrebbe" essere perseguibile penalmente ma basta che cambia qualche parola e l'articolo diventa unico e pure unico per legge. A mio avviso il problema è propio questo: non si può far niente !! e non penso che google possa trovare un algoritmo che faccia ciò. E se lo farà credo ci sia il rischio che penalizzi quelli unici,correggetemi se sbaglio !