- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Google Mayday: vuoi vedere che Google ha tolto dall'indice le pagine che...
-
Grazie per il contributo, soprattutto per l'orario.
Come sempre, se la sostanza c'è ...Valerio Notarfrancesco
-
Questa la mia ipotesi basata su alcuni miei siti.
Per alcune key phrase sono stato nelle prime 3 posizioni costantemente negli ultimi 6 mesi.
A livello quntitativo e qualtativo non penso che si possa offrire di più su un particolare aspetto di un particolare di un particolare di una nicchia e così via.Penso che la gente che cercava per quelle key phrase, dopo un po' si è abituata alle mie informazioni, uscendo immediatamente dalle mie pagine appena entrata perché le aveva già viste e già prima non ero riuscito a soddisfare le loro necessità (aumenta percentuale di rimbalzo).
In una successiva fase forse hanno imparato a riconoscere direttamente il mio url e non cliccarlo più, un po' come io stesso faccio quando cerco un albergo e da tempo ignoro i vari portali e aggregatori.
Forse Google ha introdotto un algoritmo per rilevare queste "preferenze" e proporre direttamene alla gente i risultati già filtrati e ordinati in questo modo.
Valerio Notarfrancesco
-
@WWW said:
Gli effetti sono più facilmente visibili sulle long tail ma riguarda tutte le query (ho capito bene?).
Si è così
infatti nel caso che seguo io sono scese anche altre parole chiave
-
nessuna differenza sostanziale sulla frequenza di rimbalzo nei siti che gestisco che hanno un traffico molto altalenante.
Altri con traffico un po' più stabile sono migliorati, anche se di pochissimo.
In serp però nessuna variazione nelle posizioni e siti molto vecchi e non più aggiornati sono ancora lì dov'erano 2 settimane fa.
Che l'aggiornamento abbia toccato solo alcuni settori o alcune tipologie di siti?
-
@Giorgiotave said:
Sto lavorando su questo aspetto per renderle molto forti, voglio vedere se è solo una questione di link
Ci potresti tenere informati in merito?
Saluti
-
Si assolutamente
-
La mia opinione è questa:
Ho osservato attentamente alcune delle query oggetto di forti cambiamenti nel corso del mese di maggio.
La mia impressione è stata quella che Google stesse testando il click through rate (o un parametro diverso per cogliere la pertinenza dei risultati), facendo cambiamenti significativi nell'ordine di visualizzazione e verificandone il risultato (per poi trarre da esso la struttura successiva).
Il fatto che i cambiamenti all'algoritmo abbiano fatto ballare parecchio le posizioni mi spinge a considerare come questi debbano agire, per forza di cose, in via dinamica. Un cambiamento di tipo statico (es. nei pesi di valutazione), avrebbe invece prodotto un mutamento in SERP più repentino e stabile, con un assestamento ridotto e veloce. Ciò che è accaduto, nella mia esperienza, è stato l'opposto.Saluti.
-
Vi dico pure la mia opinione, che in parte rispecchia quanto detto sulla qualità.
Devo fare un passo indietro.
Google da 5-6 anni circa monitora i click sulle SERP, e questo è un dato di fatto.
Come usa questi dati?
Secondo me in questo modo.
Se io cerco "pinco pallino", clicco sul primo risultato, poi torno indietro e clicco sul secondo e ci rimango, Google attribuisce un punteggio positivo al secondo risultato.
Ora un discorso del genere è possibile farlo solo sulle query molto ricercate, perché per le long tail non avrà mai sufficienti dati statistici, e la capacità di elaborarli in tempo reale ... sarebbero troppi.
Ultimamente Google ha pensato:
se un utente mi fa una ricerca long tail di 4 parole, invece che mostrargli siti di bassa qualità che le contengono tutte e 4, ne mostro di maggiore qualità anche se magari ne contengono solo 3, o che sono simili.Come calcola la qualità in questo caso?
E' possibile che abbia esteso a livello di dominio il discorso che faceva a livello di pagina.
Cioè raggruppa tutte le query long tail che hanno interessato quel sito e va a vedere come si comportano gli utenti.
Riassumendo
Da 2004-5: query famosa -> grado di soddisfazione dell'utente su quella URL per quella query
Da maggio 2010: query long tail -> grado di soddisfazione dell'utente su "tutte" le query long tail di quel dominio
E' una ipotesi ovviamente.
-
A me sono spariti da un sito 1000 backlink su 2000 che il sito aveva...
Sono spariti sia da google webmaster che da site explorer di yahoo.
conclusione le pagine sono state tolte da google.
mi mangio le mani per non aver salvato una copia dei backlink se no si poteva approfondire la cosa.
-
provo a postare qua la mia situazione, dato che ho avuto un brusco calo (quasi azzeramento delle mie statistiche)
A gennaio ho acquistato due domini su namecheap e lo spazio web con hostgator, ho installato Wordpress, quindi ho inserito gli articoli riscritti nei siti.
Fatto questo, ho verificato con Traffic Travis che le pagine fossero ottimizzate internamente per il SEO (hanno tutte un punteggio minimo di A) e ho impostato criteri di verifica del posizionamento del mio sito (anche attraverso gli strumenti per webmaster di google).
Ai fini del posizionamento, ho aggiunto anche il codice per google analytics e ho inserito un annuncio per sito con Adwords (poco dopo messo in pausa). Ho inoltre messo il nofollow per tutti i link da affiliato e mascherato gli stessi tramite redirection.
Le parole chiave dei PLR erano già selezionate, quindi le usate (erroneamente) senza verifcarle.
Di seguito (aprile) ho iniziato la costruzione dei backlink in questo modo:
- linkjuicer e freetrafficsystem inserendo gli articoli in formato spin li sottomette automaticamente ad una lista di blog con i backlink
- magic article submitter: come sopra, ma usando le article directory
- article directory: per le migliori (ezine, goarticles, in totale una decina) ho inserito io manualmente gli articoli (sempre derivati dal formato spin)
- web 2.0: ho preso una versione dei miei articoli e li ho messi su blogger, squidoo, hubpages, tumblr e feedbite; ad ogni passaggio ho preso l'RSS del sito precedente e inserito in quello successivo
- da qualche giorno ho cominciato a fare linkbuilding da siti .edu e .gov e da siti con alto PR (da 6 a 9)
- per i punti 3 4 e 5 ho retwittato tutte le singole pagine per velocizzare il processo di visualizzazione dei link da parte di google
A maggio, vedendo che i risultati erano abbastanza scarsi, ed essendo più informato sulle parole chiave e sui backlink (ho letto decine di guide in lingua inglese sulla ricerca delle keyword e sul posizionamento) ho cambiato più della metà delle parole chiave e ho quindi risistemato le pagine ed i link presenti nel formato spin.
I nuovi criteri per la scelta delle parole chiave è stato questo (prima usavo solo il servizio di Traffic Travis)
- tra le 1.000 e le 50.000 ricerche mensili
- risultati di google per "parola chiave" meno di 100.000
- risultati di google per allintitle:"parola chiave" meno di 5.000
- risultati di google per allinanchor"parola chiave" meno di 100
Dal primo giugno le mie 1000 impressioni al giorno sono crollate a 0!! I visitatori si sono dimezzati, e addirittura il tempo medio sul sito è di 0 secondi.
I miei siti ovviamente in cerca di parole con poca competizione si fondavano su parole long tail...sono spacciato?
-
Ciao a tutti,
la settimana scorsa ho deciso di riorganizzare le sezioni di un forum (vbulletin con vbseo), snellendole e rendendo più facile la navigazione agli utenti. Tutte le sezioni e tutte le discussioni hanno un corretto redirect 301 verso le nuove (oddio, tutto ok per circa 2500 discussioni, tranne una 30ina per cui c'è stato un errore e quindi al momento non hanno redirect).
Dopo qualche giorno ho notato un calo di visite da google. Vorrei riuscire ad inquadrare se mi trovo nella situazione causata da un cambio di struttura oppure da mayday. Qual è il criterio base per capirlo? Grazie
-
@robaldo said:
questa secondo me è una delle cose più difficili da capire..
spesso mi trovo anche io nella situazione di modificare qualcosa e poi successivmente non sapere se un certo cambio è dovuto a quello che ho fatto io oppure a qualche modifica di google
-
@Webmaster70 said:
se un utente mi fa una ricerca long tail di 4 parole, invece che mostrargli siti di bassa qualità che le contengono tutte e 4, ne mostro di maggiore qualità anche se magari ne contengono solo 3, o che sono simili.
Credo questo sia molto interessante.. sono anch'io dell'idea che Google valuti i click in SERP e il tempo di permanenza (mi sembrerebbe strano non lo facesse). Forse la qualità è calcolata sia sulla parola chiave che sul sito, o meglio ci sono diversi punteggi di qualità.
Una cosa che forse non c'entra nulla: ma avete notato che se si cerca un dato dominio in SERP sono presenti un mucchio di siti tipo keyrow, populometer, websitetrafficspy e troiai del genere? Che sia un effetto collaterale degli ultimi cambiamenti?
-
Forse questo articolo può chiarire un pò le idee sugli ultimi cambiamenti in google:
www . aproweb.it/news.asp?Articoli-di-settore=Maile-Ohye-programmatrice-di-Google-al-SES-di-Toronto&id=448
-
Quella che mi sembrava una scomparsa dalle SERP in realtà si è rilevato essere un buco di analisi da parte degli Strumenti per i Webmaster di Google.
C'è stato un salto di qualche giorno, poi le statistiche sono ricomparse, e assieme a quelle anche le vendite da affiliato.
Attualmente non sto registrando una diminuzione dei valori relativi alle long tail, ma un continuo aumento...speriamo di non dover subire più questo genere di scherzi