• Super User

    Grazie amarco per il link.. effettivamente pare proprio che si attesti un calo del 70% circa di traffico (nei commenti c'è uno dei responsabili di DaniWeb, uno dei forum più importanti nell'IT in USA che conferma il dato).

    Sto ancora pensando a come l'algoritmo possa lavorare, a mio avviso non si basa più sul trust del dominio ma del trust della pagina... un'idea che mi sono fatto ora leggendo l'articolo.. 🙂


  • User Attivo

    Mi chiedo che influenza avrà sugli altri motori di ricerca che si appoggiano a Google.. se ne avrà.


  • User

    Personalmente mi sembra evidente che c'è un intervento umano oltre che algoritmico come dimostra il caso di cultofmac.
    Il sito era crollato dopo l'aggiornamento dell'algoritmo ma casualmente dopo che il caso ha avuto una sua rilevanza su diversi media il ranking è stato ripristinato.
    Curioso poi il fatto che ehow che è una vera content farm non sia stata danneggiata mentre siti sicuramente più validi ci sono andati di mezzo.
    Sono curioso di vedere cosa succederà in Italia anche se c'è da essere preoccupati visto l'imprevedibilità delle conseguenze.


  • Super User

    A bocce un po' più ferme ritengo che questo algoritmo riguardi principalmente i contenuti duplicati.

    Non sono mai piaciuti a Google, ma finora penalizzava se li trovava all'interno di uno stesso sito, mentre se trovava N siti con lo stesso articolo, in genere ne mostrava uno e gli altri magari erano nascosti ma senza penalizzazioni estese agli interi siti dei copiatori.

    Era una situazione paradossale, che ora è stata sanata.

    La mia ipotesi è la seguente.

    Se Google trova A che copia B, trasferisce buona parte del link juice di A verso B (A quindi crolla e B sale). Ehow, Amazon, Youtube ecc. sono stati premiati propri perché hanno tanti copiatori.


  • ModSenior

    Alcune prime considerazioni di Rand Fishkin sull'algoritmo.
    Considerate sempre che, seppur influenti, sono solo sue opinioni personali sui cambiamenti in serp.
    seomoz.org/blog/googles-farmer-update-analysis-of-winners-vs-losers

    Valerio Notarfrancesco


  • User Attivo

    In quella pagina non mi si attiva la traduzione in Italiano.. che dice perfavore?


  • User Attivo

    Salve.

    Ottima e utile discussione. Direi unica nel suo genere. 🙂

    Mi trovo anch'io con lo stesso problema: ogni possibile novità del sito, mi viene copiata a distanza di tempo dal mio concorrente. questo avviene da molto tempo.

    Come posso far notare a Google che sono il primo a creare contenuti nuovi? Non esiste anche a livello di codice una maniera per rilevare questo?

    Grazie,
    Lilo.


  • User Attivo

    Caro lilo finalmente uno che ha toccato il tasto dolente che ribadisco io.
    Chi ti copia gli articoli "dovrebbe" essere perseguibile penalmente ma basta che cambia qualche parola e l'articolo diventa unico e pure unico per legge. A mio avviso il problema è propio questo: non si può far niente !! e non penso che google possa trovare un algoritmo che faccia ciò. E se lo farà credo ci sia il rischio che penalizzi quelli unici,correggetemi se sbaglio !


  • User Attivo

    Dal punto di vista dei mdr, dovrebbe essere google che riesce a capire chi per primo ha realizzato questa novità nel sito e differenziarlo dagli altri che seguono successivamente.

    Nel mio caso, il lasso di tempo si è ristretto drasticamente da 6 mesi - 1 anno a soli 15 giorni. in pratica quando pubblico una novità nel sito, conto i giorni con cui gli altri faranno lo stesso.

    A parte questo, non vi è il modo di identificare la data di una pagina?


  • User Attivo

    Segnalala con Twitter.. arriva subito il bot in quel modo.