• User Attivo

    Beh.. 6 mesi credo propio che influiscano !


  • User Attivo

    Io penso che nell'era dei Social, e di Facebook soprattutto, Google voglia realmente offrire un servizio migliore ai propri utenti, e non potrebbe essere altrimenti, perché mai come ora Google potrebbe rischiare di perdere il suo monopolio, se Bing e FB mettessero a segno un accordo "losco". Tentare di ragionare come Google è sbagliato, primo perché non sappiamo le reali intenzioni dei managers della compagnia, secondo perché tutto viene in seguito implementato all'interno di un robot che, essendo tale, è soggetto ad errori che sfuggono alla comprensione "romantica" umana. Quando LaBussola cita l'esperienza dell'utente come parametro di valutazione, ovvero l'uscire da una pagina, tornare su Google ed entrare in una successiva, ho i miei dubbi. Consideriamo questo:

    • posso farmi i primi 10 siti per - hotel roma - per confrontare i prezzi;

    • posso cliccare i primi 10 siti di poesie perché amo leggerne tra le più svariate;

    • posso accedere ai primi 10 risultati perché voglio controllare i miei concorrenti. E la lista potrebbe proseguire.

    L'esperienza dell'utente non si valuta, a mio avviso, tramite il tempo di permanenza (falsificabile) o le cliccate per uscire dalla pagina, ma tramite il parametro social (in futuro, perché ancora, come detto da Cutts, non è stato implementato), ovvero condivisioni, Google mail, salvataggio nei preferiti, perché queste rappresentano prove reali di interesse, ovvero consigliare un sito oppure salvarselo in locale o in remoto, tramits Social Bookmarking.

    Ma ricordiamo che nulla di tutto ciò è stato realmente implementato, altrimenti non assisteremmo a siti di una pagina con un bel link esterno super posizionati.

    La valutazione di un contenuto non è un'operazione da bot, per tanti motivi. Dire cosa ci si debba attendere di trovare dopo "casa" è, a mio avviso, leggermente azzardato, poiché non si tiene conto delle tante variabili date dalla scrittura, sia letteraria sia commerciale. Una presenza innaturale di keywords è semplice da individuare, ma la qualità del testo nel suo complesso non è, sempre IMHO implementata, per questo, ovvero per determinare la qualità di un testo, Google si serve, e si è sempre servito, degli inbound links.

    Google, è vero, ha numerosi brevetti a tal proposito, ma secondo me hanno influenza minima in serp.


  • Community Manager

    Dal punto di vista algoritmico sono molto dubbioso, secondo me hanno fatto come per i link a pagamento:

    • hanno preso un team specializzato che a mano ha penalizzato i siti più importanti

    • chiedono ai webmaster di segnalare questi siti

    Sbagliano di nuovo il modo di comunicare, creando panico.

    Parere mio: non segnalate un tubo.

    Dal punto di vista algoritmico, sarà difficile andare a stabile criteri di penalizzazione se non con complessi calcoli su tutto il dominio e molte risorse.

    Per questo vogliono l'aiuto dei webmaster.

    In questa discussione parliamo solo di SEO, per tutti gli aspetti di comunicazione/politici c'è la discussione segnalata da LaBussola.


  • User Attivo

    Quando si pensa ci possano essere più informazioni sulla "Google Farmer" ?


  • User

    Sinceramente a livello algoritmico non capisco come si riesca a individuare una content farm.
    Andando a vedere quello che è successo negli Stati Uniti noto che sono state penalizzate molte article directory che hanno comunque contenuti originali perchè controllati prima della pubblicazione.


  • User Attivo

    molto interessante , secondo voi che impatto avrà sugli e-commerce e in particolare sulle pagine interne dei cataloghi?

    In fondo gran parte degli e-commerce prendono la descrizione del prodotto dal sito del produttore e la replicano sul loro sito , magari mettendo anche un link.

    Saranno ritenuti contenuti "poco utili"?


  • User Attivo

    @oronzo_canà said:

    [...]

    Questa si che è una bella domanda!! Io non saprei!!


  • User

    @cece74 said:

    Questa si che è una bella domanda !! Io non saprei !!

    Secondo me la risposta e' SI.

    Questo aggiornamento dovrebbe essere la fase finale dela battaglia contro i contenuti duplicati.

    Se il sito A vende scarpe e il sito B e' un affiliato del sito A e ne copia (prende pari pari) le descrizioni dei prodotti, il sito B verra' penalizzato a vantaggio del sito A.


  • User Attivo

    Magari sui duplicati si. Ma articoli identici modificando le frasi ?
    Su questo non credo ci sia poi molto da fare ma è già qualcosa.


  • User

    "Stasera vado a mangiare una pizza con Maria"

    "Maria stasera viene a mangiare una pizza con me"

    Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".


  • User Attivo

    Esatto !! L'esempio è azzeccato !! Ma non credo che Google si accorga della differenza,è da parecchio che sottopongo questo discorso.


  • User Attivo

    @GigiPic said:

    "Stasera vado a mangiare una pizza con Maria"

    "Maria stasera viene a mangiare una pizza con me"

    Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".

    Io invece penso proprio di no, il limite di una macchina è proprio questo. Per Google questi due contenuti sono diversi, nessun dubbio. Magari simili, ma non contenuto duplicato.


  • User Attivo

    Quoto !! Propio quello che intendo io, è questa la pecca dove dovrebbe orientarsi Google magari con un algoritmo che analizzi la sintassi.


  • User

    @Web Hunter said:

    Io invece penso proprio di no, il limite di una macchina è proprio questo. Per Google questi due contenuti sono diversi, nessun dubbio. Magari simili, ma non contenuto duplicato.

    Io non la vedo cosi'. Parlio, ovviamente, di quello che succedera' dopo che Farmer sara' live anche in Italia.

    Ho fatto questa piccola prova nel .com:

    "I'll go with maria to have a pizza"
    Primo risultato: http :// www . yelp. com/biz/bella-maria-pizza-brooklyn

    "maria will have a pizza with me"
    Primo risultato: http :// www . yelp. com/biz/anna-maria-pizza-brooklyn

    Ovviamente parliamo di macchine, non sara' perfetto, ma questo ci fa capire che bisogna impegnarsi un poco di piu' nella creazione di unique content.


  • User

    è questa la pecca dove dovrebbe orientarsi....che analizzi la sintassiPerchè è una pecca?

    Pensa ad un fatto di cronaca ed ad un giornalista che deve scrivere un articolo: i punti da parlare sono che:

    1. è stata trovata Yara;
    2. con un ciuffo di erba nelle mani;
    3. è stata ritrovata abbandonata in un campo di erba alta;
    4. con sei coltellate.

    Questi sono i dati: ti posso assicurare che se prendi 100 giornalisti, nessuno scriverà esattamente la solita cosa, anche parlando esclusivamente di questi concetti.
    Non è una pecca, è solo raccontare un fatto di cronaca.

    @Gigipic se l'algoritmo che penalizza contenuti duplicati, aggregatori & co, si chiama Farmer, è presente in Italia da diversi mesi. e sono molti i siti che sono stati penalizzati, ripuliti e portati in serp nuovamente.


  • User Attivo

    Capisco cosa intendi.. ma quello che dico io è che chiunque potrebbe prendere un articolo da un'altro sito e inserirlo nel suo modificando le parole e "spacciandolo" per suo articolo, magari dell'articolo in sè stesso non ne capisce neanche niente e Google non si accorgerebbe della "ladrata". Questo intendo io come pecca !! Ma magari è solo una mia considerazione personale.


  • User

    @collega-deborahdc said:

    @Gigipic se l'algoritmo che penalizza contenuti duplicati, aggregatori & co, si chiama Farmer, è presente in Italia da diversi mesi. e sono molti i siti che sono stati penalizzati, ripuliti e portati in serp nuovamente.

    Si, mi riferisco allo stesso aggiornamento di cui parli tu 🙂

    Ma sul blog ufficiale di BigG lo stesso Matt Cuts ha affermato che e' live solo in US e verra' in un secondo momento implementato a livello globale... :mmm:


  • ModSenior

    Infatti, secondo me si sta facendo troppa confusione, e non ci fa bene, ma assolutamente non per colpa vostra.
    E' solo Danny Sullivan che ha chiamato questo aggiornamento Farmer Update o Farmer Algorithm.
    @Feb 24, 2011 at 9:50pm ET by Danny Sullivan said:

    “Farmer Update?” Again, that’s a name I’m giving this change, so there’s a shorthand way to talk about it. Google declined to give it a public name, nor do I see one given in a WebmasterWorld

    Valerio Notarfrancesco


  • ModSenior

    @collega-deborahdc said:

    @Gigipic se l'algoritmo che penalizza contenuti duplicati, aggregatori & co, si chiama Farmer, è presente in Italia da diversi mesi. e sono molti i siti che sono stati penalizzati, ripuliti e portati in serp nuovamente.
    Appunto, confermo per quello che ne so io.
    Se chiamiamo questo update con il nome di uno di alcuni mesi fa è ovvio che poi non ci capiamo.
    Sarà mica proprio quello che vogliono?

    Valerio Notarfrancesco


  • User

    Beh, io l'ho chiamato "Farmer" proprio per come lo hanno chiamato su SearchEngineLand. Se vogliamo chiamarlo in un'altra maniera no problem 🙂 Stiamo comunque parlando della stessa cosa.

    Giusto per aggiungere altri dettagli a questa pepata discussione, proprio su SearchEngineLand c'é un articolo che analizza i primi effetti di "Farmer" (o qualsiasi altro nome vogliamo dargli 😄 ).

    Un sito come [LEFT]www . ezinearticles . com (press release) ha perso circa il 90% della sua visibilita' (secondo Sistrix).

    fonte: [/LEFT]http :// searchengineland .com/who-lost-in-googles-farmer-algorithm-change-66173