• User Attivo

    @GigiPic said:

    "Stasera vado a mangiare una pizza con Maria"

    "Maria stasera viene a mangiare una pizza con me"

    Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".

    Dubito che l'algoritmo di Google riesca a distinguere queste due frasi.
    Non dimentichiamo che il linguaggio umano è ambiguo, una frase può avere anche diversi significati se ad esempio si spostano o si eliminano i segni di interpunzione.
    Dedurre il significato di una frase non è per nulla una cosa facile, proprio per l'ambiguità intrinseca del linguaggio (it.wikipedia .org/wiki/Elaborazione_del_linguaggio_naturale, en.wikipedia .org/wiki/Natural_language_processing).

    Si sta studiando la possibilità di associare alle pagine web delle informazioni relative al contesto semantico delle pagine (it.wikipedia. org/wiki/Web_semantico) ma ce n'è di strada da fare...


  • User Attivo

    Scusa, tu vuoi dire che Google le consideri contenuto duplicato?


  • User Attivo

    Domani vorrò postare le mie considerazioni.
    Ora sono un pò assonnato, ma ho visto l'intervendo di oronzocanà sui comparatori di prezzo.

    Stando un pò a quello che si è detto in questo thread, comparatori di prezzo e siti ecommerce, sparirebbero dalle serp.
    Voi cosa fareste per tenere a galla il Vs isto ecommerce o il vostro comparatore di prezzi ?

    Ciao a domani !


  • Super User

    Personalmente ho forti dubbi che il "vero" update sia questo.. non dimentichiamo che Google è una società quotata in borsa e non ha mai rivelato rilasci di update algoritmici sul ranking.

    Credo che usino Google Farmer come capro espiatorio nel caso in cui qualche altra operazione molto più grossa, possa destabilizzare il mondo delle ricerche online.. 🙂


  • User

    Sul Guardian è stato pubblicato un interessante articolo sui siti più penalizzati.
    guardian.co.uk/technology/blog/2011/feb/28/google-changes-sites-affected

    Interessante come nella lista ci sia di tutto da normali blog a forum
    A questo punto non so cosa possiamo aspettarci


  • Super User

    Grazie amarco per il link.. effettivamente pare proprio che si attesti un calo del 70% circa di traffico (nei commenti c'è uno dei responsabili di DaniWeb, uno dei forum più importanti nell'IT in USA che conferma il dato).

    Sto ancora pensando a come l'algoritmo possa lavorare, a mio avviso non si basa più sul trust del dominio ma del trust della pagina... un'idea che mi sono fatto ora leggendo l'articolo.. 🙂


  • User Attivo

    Mi chiedo che influenza avrà sugli altri motori di ricerca che si appoggiano a Google.. se ne avrà.


  • User

    Personalmente mi sembra evidente che c'è un intervento umano oltre che algoritmico come dimostra il caso di cultofmac.
    Il sito era crollato dopo l'aggiornamento dell'algoritmo ma casualmente dopo che il caso ha avuto una sua rilevanza su diversi media il ranking è stato ripristinato.
    Curioso poi il fatto che ehow che è una vera content farm non sia stata danneggiata mentre siti sicuramente più validi ci sono andati di mezzo.
    Sono curioso di vedere cosa succederà in Italia anche se c'è da essere preoccupati visto l'imprevedibilità delle conseguenze.


  • Super User

    A bocce un po' più ferme ritengo che questo algoritmo riguardi principalmente i contenuti duplicati.

    Non sono mai piaciuti a Google, ma finora penalizzava se li trovava all'interno di uno stesso sito, mentre se trovava N siti con lo stesso articolo, in genere ne mostrava uno e gli altri magari erano nascosti ma senza penalizzazioni estese agli interi siti dei copiatori.

    Era una situazione paradossale, che ora è stata sanata.

    La mia ipotesi è la seguente.

    Se Google trova A che copia B, trasferisce buona parte del link juice di A verso B (A quindi crolla e B sale). Ehow, Amazon, Youtube ecc. sono stati premiati propri perché hanno tanti copiatori.


  • ModSenior

    Alcune prime considerazioni di Rand Fishkin sull'algoritmo.
    Considerate sempre che, seppur influenti, sono solo sue opinioni personali sui cambiamenti in serp.
    seomoz.org/blog/googles-farmer-update-analysis-of-winners-vs-losers

    Valerio Notarfrancesco


  • User Attivo

    In quella pagina non mi si attiva la traduzione in Italiano.. che dice perfavore?


  • User Attivo

    Salve.

    Ottima e utile discussione. Direi unica nel suo genere. 🙂

    Mi trovo anch'io con lo stesso problema: ogni possibile novità del sito, mi viene copiata a distanza di tempo dal mio concorrente. questo avviene da molto tempo.

    Come posso far notare a Google che sono il primo a creare contenuti nuovi? Non esiste anche a livello di codice una maniera per rilevare questo?

    Grazie,
    Lilo.


  • User Attivo

    Caro lilo finalmente uno che ha toccato il tasto dolente che ribadisco io.
    Chi ti copia gli articoli "dovrebbe" essere perseguibile penalmente ma basta che cambia qualche parola e l'articolo diventa unico e pure unico per legge. A mio avviso il problema è propio questo: non si può far niente !! e non penso che google possa trovare un algoritmo che faccia ciò. E se lo farà credo ci sia il rischio che penalizzi quelli unici,correggetemi se sbaglio !


  • User Attivo

    Dal punto di vista dei mdr, dovrebbe essere google che riesce a capire chi per primo ha realizzato questa novità nel sito e differenziarlo dagli altri che seguono successivamente.

    Nel mio caso, il lasso di tempo si è ristretto drasticamente da 6 mesi - 1 anno a soli 15 giorni. in pratica quando pubblico una novità nel sito, conto i giorni con cui gli altri faranno lo stesso.

    A parte questo, non vi è il modo di identificare la data di una pagina?


  • User Attivo

    Segnalala con Twitter.. arriva subito il bot in quel modo.