- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Google Farmer, 12% delle SERP modificate!
-
Bussola, grazie per la precisazione. Non avevo trovato l'altro post perche' cercavo "Google Farmer".
Se ho capito bene in questo post dobbiamo parlare dell'aspetto tecnico e nell'altro delle nostre opinioni? Aspetto conferma per non creare discussioni nei luoghi sbagliati
Colgo l'occasione, pero', per una riflessione. Google, oramai, da anni ha smesso di essere un motore di ricerca "duro&puro" per diventare a tutti gli effetti una compagnia quotata in borsa, questo e' sembra bene tenerlo a mente. E, aggiungerei, sono anni oramai che lo scopo fondamentale degli aggiornamenti di Google sono guidati essenzialmente dal PROFITTO, ovviamente mascherato, nei loro post ufficiali, da una migliore esperienze per gli users.
Prendiamo, ad esempio, gli ultimi aggiornamenti legati alle ricerche locali. Un tempo (poco piu' di un anno fa) fu indrodotta la mappa per ricercheche avevano un qualche fattore "locale" e le SERP, che prima includevano 3 risultati ADWORDS e il resto Organic sono cambiate in 3 risultati ADWORDS, MAPPA e dopo organic, di fatto spingendo i risultati ottenuti con un buon SEO nella zona della pagina visibile solo dopo aver scrollato verso il basso con il mouse.
A livello empirico tutti sappiamo cosa e' successo, ma vediamolo, per una volta, a livello pratico, come se fossimo un utente normale.
Il signor Rossi cerca un hotel a Roma, nel 2009 quando cercava su google "Hotel a Roma" trovava siti come Booking, Priceline, Expedia, Lastminute etc. etc., ne sceglieva uno e prenotava il suo albergo. Guadagno per Google = 0
Dopo un anno il signor Rossi cerca di nuovo un hotel a Roma, va su google e si ritrova con 3 sponsored website (se clicka Google guadagna un pochettino, diciamo per questo tipo di Keyword qualcosa come 2 euro a click), sotto i 3 risultati sponsorizzati trova una bella mappa con i siti diretti degli hotel e sotto ancora i vari Booking, Expedia etc. etc. Diciamo che a questo giro big G ha una buona possibilita' di guadagnare qualcosa con ADWORDS e, inoltre, gli hotel diretti hanno una buona probabilita' di ottenere una prenotazione diretta. Questo, che potrebbe sembrare al primo sguardo una miglioria per l'utente, e' in realta' un mezzo pacco. Mentre prima il signor Rossi poteva trovare, diciamo, 100 hotel diversi a Rome sui vari siti, adesso Google gli da una selezione solo di 5/6 hotel scelti, arbitrariamente, da lui.
Secondo il mio modesto parere, e secondo le parole di un tale Munch (dipendente di Google presente alla SES di Londra dove ha parlato, appunto delle ricerce locali su Google) fondamentalmente questi aggiornamenti sono stati fatti perche' BigG non vuole intermediari, se qualcuno cerca un hotel lui non vuole ridare indietro risultati con siti che offrono hotel, ma direttamente con i siti degli hotel. Perche'? Beh, non bisogna essere dei geni per capire che, in un prossimo futuro, Google vuole diventare l'intermediario tra gli hotel e gli users, tra le compagnie aeree e gli users, tra chi vuole fittare una macchina e la compagnia che le fitta, insomma, a Mountain View vogliono piu' soldi!
Alla domanda posta al solito Munch: "ok, ma allora grandi siti come Expedia, Booking etc. come possono mai competere con voi?" la sua risposta e' stato un laconico: "beh, ci sono i social media, no?"
E direi che con questa ultima risposta, ho detto tutto!
PS: Bussola, se pensi questo post vada meglio nell'altra discussione, feel free di muoverlo
-
Per quanto riguarda gli articoli ?? Ci sono (nel mio caso) siti o forum che utilizzano gli stessi articoli e modificano il testo a parole propie ma il contenuto è lo stesso.. questo nuovo metodo influisce anche su questo per il posizionamento nella serp ??
-
La mia esperienza mi ha reso particolarmente scettico di fronte al concetto "content is the king": avevo un sito blogspot che si è spostato, e adesso al vecchio URL c'è solo la classica frase di servizio con un link. Ebbene, tutt'ora quella striminzita paginetta si posiziona meglio del nuovo blog strapieno di contenuti (e con molti più backlink, fra l'altro).
Tornando all'aggiornamento, prima di esprimermi aspetto di vedere qualche ricerca condotta sul campo. Per il momento ho visto solo tante belle parole, ma nello specifico Google non ha detto niente sul COME intende implementare questa novità. Ok, i siti belli andranno avanti, ma cosa sono i siti belli? Quali parametri guarderà Google d'ora in poi?
-
@bucciamarcia.
Detto cosi è troppo limitato per poter fare una analisi.
L'errore più comune è pensare "a me è successo questo, quindi quello che dite è errato" senza valutare una serie di variabili.E' un pò come dire:
"Mi sono fatto il vaccino e non serve a niente" per poi scoprire che si, hai fatto il vaccino, ma corri anche nudo e scalzo, sulla neve a -30 gradi.Quindi se vuoi indicarci il caso in concreto, sarebbe utile a tutti.
@cece Significa che commenti una notizia con parole tue? Se è così nessun problema, anzi.
Se invece cambi una parola ogni 5 (l'ho visto fare) ... no non va bene.
-
@cece Significa che commenti una notizia con parole tue? Se è così nessun problema, anzi.
Se invece cambi una parola ogni 5 (l'ho visto fare) ... no non va bene.Appunto !! Ci sono certi articoli con qualche parola cambiata vengono riproposte come articoli propi eppure l'attuale Google non mi sembra penalizzarle.. anzi !!
-
Fammi un esempio.
-
Ammettiamo: Io ho un articolo e sono posizionato con quell'articolo alla prima pagina di google al secondo posto.. ammettiamo che qualcuno mi copia l'articolo e lo modifica a parole sue.. c'è perfino il caso che mi stà davanti.. il nuovo modo di Google potrà accorgersi di eventuali articoli copiati,diversi ma con lo stesso contenuto ?
-
se non mi fai vedere il caso concreto ci sono decine di variabili che possono influire.
Postami un esempio.
-
Non ho al momento un esempio concreto.. anche perchè dovrei tirare in ballo siti e non mi sembra il caso.. comunque già che mi dici che ci sono molte variabili è già una risposta.
-
@collega-deborahdc said:
@bucciamarcia.
Detto cosi è troppo limitato per poter fare una analisi.
L'errore più comune è pensare "a me è successo questo, quindi quello che dite è errato" senza valutare una serie di variabili.E' un pò come dire:
"Mi sono fatto il vaccino e non serve a niente" per poi scoprire che si, hai fatto il vaccino, ma corri anche nudo e scalzo, sulla neve a -30 gradi.Quindi se vuoi indicarci il caso in concreto, sarebbe utile a tutti.
Certo questa è solo la mia esperienza, sono ben consapevole che è limitata e io non sono un buon SEOer, ma secondo me induce pensare che il contenuto non sia affatto una condizione necessaria per restare a galla. Per l'esempio concreto cerca *mindcheats *(il nome del mio sito) su Google, vedrai che quello senza contenuti è in testa.Gli unici aspetti nei quali il vecchio sito è superiore sono velocità e, limitatamente, anzianità (questione di qualche mese), il che mi fa pensare che almeno uno di questi due fattori sia più importante del contenuto.
-
Secondo me l'anzianità.
-
Potrei capire se il vecchio dominio fosse più anziano di anni è anni, ma si parla solo di quache mese (uno maggio 2010, l'altro novembre 2010).
-
Beh.. 6 mesi credo propio che influiscano !
-
Io penso che nell'era dei Social, e di Facebook soprattutto, Google voglia realmente offrire un servizio migliore ai propri utenti, e non potrebbe essere altrimenti, perché mai come ora Google potrebbe rischiare di perdere il suo monopolio, se Bing e FB mettessero a segno un accordo "losco". Tentare di ragionare come Google è sbagliato, primo perché non sappiamo le reali intenzioni dei managers della compagnia, secondo perché tutto viene in seguito implementato all'interno di un robot che, essendo tale, è soggetto ad errori che sfuggono alla comprensione "romantica" umana. Quando LaBussola cita l'esperienza dell'utente come parametro di valutazione, ovvero l'uscire da una pagina, tornare su Google ed entrare in una successiva, ho i miei dubbi. Consideriamo questo:
-
posso farmi i primi 10 siti per - hotel roma - per confrontare i prezzi;
-
posso cliccare i primi 10 siti di poesie perché amo leggerne tra le più svariate;
-
posso accedere ai primi 10 risultati perché voglio controllare i miei concorrenti. E la lista potrebbe proseguire.
L'esperienza dell'utente non si valuta, a mio avviso, tramite il tempo di permanenza (falsificabile) o le cliccate per uscire dalla pagina, ma tramite il parametro social (in futuro, perché ancora, come detto da Cutts, non è stato implementato), ovvero condivisioni, Google mail, salvataggio nei preferiti, perché queste rappresentano prove reali di interesse, ovvero consigliare un sito oppure salvarselo in locale o in remoto, tramits Social Bookmarking.
Ma ricordiamo che nulla di tutto ciò è stato realmente implementato, altrimenti non assisteremmo a siti di una pagina con un bel link esterno super posizionati.
La valutazione di un contenuto non è un'operazione da bot, per tanti motivi. Dire cosa ci si debba attendere di trovare dopo "casa" è, a mio avviso, leggermente azzardato, poiché non si tiene conto delle tante variabili date dalla scrittura, sia letteraria sia commerciale. Una presenza innaturale di keywords è semplice da individuare, ma la qualità del testo nel suo complesso non è, sempre IMHO implementata, per questo, ovvero per determinare la qualità di un testo, Google si serve, e si è sempre servito, degli inbound links.
Google, è vero, ha numerosi brevetti a tal proposito, ma secondo me hanno influenza minima in serp.
-
-
Dal punto di vista algoritmico sono molto dubbioso, secondo me hanno fatto come per i link a pagamento:
-
hanno preso un team specializzato che a mano ha penalizzato i siti più importanti
-
chiedono ai webmaster di segnalare questi siti
Sbagliano di nuovo il modo di comunicare, creando panico.
Parere mio: non segnalate un tubo.
Dal punto di vista algoritmico, sarà difficile andare a stabile criteri di penalizzazione se non con complessi calcoli su tutto il dominio e molte risorse.
Per questo vogliono l'aiuto dei webmaster.
In questa discussione parliamo solo di SEO, per tutti gli aspetti di comunicazione/politici c'è la discussione segnalata da LaBussola.
-
-
Quando si pensa ci possano essere più informazioni sulla "Google Farmer" ?
-
Sinceramente a livello algoritmico non capisco come si riesca a individuare una content farm.
Andando a vedere quello che è successo negli Stati Uniti noto che sono state penalizzate molte article directory che hanno comunque contenuti originali perchè controllati prima della pubblicazione.
-
molto interessante , secondo voi che impatto avrà sugli e-commerce e in particolare sulle pagine interne dei cataloghi?
In fondo gran parte degli e-commerce prendono la descrizione del prodotto dal sito del produttore e la replicano sul loro sito , magari mettendo anche un link.
Saranno ritenuti contenuti "poco utili"?
-
@oronzo_canà said:
[...]
Questa si che è una bella domanda!! Io non saprei!!
-
@cece74 said:
Questa si che è una bella domanda !! Io non saprei !!
Secondo me la risposta e' SI.
Questo aggiornamento dovrebbe essere la fase finale dela battaglia contro i contenuti duplicati.
Se il sito A vende scarpe e il sito B e' un affiliato del sito A e ne copia (prende pari pari) le descrizioni dei prodotti, il sito B verra' penalizzato a vantaggio del sito A.