- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Febbraio nuovo aggiornamento algoritmo
-
dopo aver letto un tot di articoli in inglese (query: algorithm change 7 february 2017) mi sembra corra voce che il cambio alogoritmico sia contro lo spam e che colpisca tipi particolari di blog, potrebbe essere che ci sia un effetto cascata per tutti i siti che si trovano con molti link svalutati. Ecco perché li ho minuziosamente esaminati uno per uno, tra l'altro prova ad aprire il file csv che contiene la lista, l'elenco è numerato e il totale è circa la metà di quello che ti appare nella schermata Search Console, a me ieri sera ne ha tolti + di 300 link da siti non più in rete. E mi/vi chiedo: e se il cambio alogoritmico avesse un bug proprio nel riconoscere in automatico i link non validi (e da qui il totale peggioramento delle posizioni) ? ...
-
Facendo un controllo su GWT mi ritrovo con 5 domini in meno che mi linkano, non so però se è come dici tu, una pulizia automatica da parte di Google o se si devono ancora finire di aggiornare i link in quanto ho fatto di recente il passaggio da http a https e i link me li sta pubblicando da solo 2-3 giorni. Alcuni link che rimandano a siti non più disponibili, bloccati ecc., ci sono ancora.
-
I link non centrano questa volta.
Adesso non so se faccia solo questo ma secondo me questo aggiornamento premia l'autorevolezza (che non significa per forza qualità) dei contenuti e per fare questo hanno alzato alcuni fattori di ranking e ne hanno abbassati altri.
Per esempio riguardo ai fattori di ranking ora la nicchia e l'anzianità potrebbero dare meno punti rispetto al tempo medio sulla pagina che trascorre un visitatore...
-
quindi marrone tu dici che fa' il rimbalzo del visitatore dal motore al sito? Nel mio giretto tra blog/siti americani (articoli e commenti) non ho trovato riferimenti a questa tesi, ho ottime statistiche interne al sito, ma non riesco ad isolare questo dato, ci penso ... Ancora nessuna dichiarazione ufficiale, ho appena ricontrollato ... X cutoff oggi la lista link è invariata rispetto a ieri, quando la cambiava ogni 5 minuti, cosa assai strana ...
-
io mi so trovato, un sacco di link nuovi.. spontanei... però so sceso...quindi non so che dirti....
-
ed in teoria pippi80 dovresti salire, di fronte allo sconosciuto (tipo di cambio alogoritmo) dobbiamo valutare ogni dato anomalo, non mi sembra normale che a me compaia in Search Console un totale link in entrata che è circa il doppio di quello che appare dalla lista scaricabile in csv, che ci siano variazioni +/- 10% nel totale domini riconosciuto di provenienza backlink da un giorno all'altro, i domini che ha tolto erano in effetti di siti non più online che davano not found per ogni link. Continuo a monitorare i siti americani in prima battuta era opinione corrente si trattasse di un change sui link, ora qualcuno parla di aggiornamento sulla qualità (con caratteristiche salienti come ha detto poco fa' marrone ...) senza però capire se di tipo Panda (tutto il sito) o di tipo Phantom (alcune pagine). Sul G blog ufficiale silenzio fino a ieri, poi appare un post "Closing out for a day" con consigli x altro (chiusura e-commerce di un giorno). Io ho una media di visitatore che guarda 3,5 pagine del sito prima di uscire, circa costante negli ultimi mesi, e voi?
-
Leggo da mesi che stanno cercando di migliorare search console, su alcune cose è diventato più veloce, alcune sezioni ritenute inutili sono state rimosse.
Fino al mese scorso ancora riportava nei link totali anche link non esistenti che adesso non vedo per cui probabilmente ora è più veloce.
Come ben saprai ogni pagina che ha link quando viene indicizzata i link vengono rilevati salvati e classificati e se ne vengono aggiunti di nuovi ad ogni passaggio dello spider sulla pagina viene tutto rilevato per cui search console non centra.
Da quello che son riuscito a capire fin ora l'aggiornamento del 7 febbraio non colpisce l'intero sito e neppure sezioni di un sito va a lavorare su ogni singola pagina.
Poi c'è stato un cambiamento importante sugli snippet qui hanno cambiato dei parametri hanno abbassato dei fattori di ranking e ne hanno alzati altri penso per migliorare l'autorevolezza dei contenuti, non per forza il contenuto più autorevole è in un sito di nicchia o un sito anziano..
Questo però è solo il discorso degli snippet questo però son sicuro che c'è un'algoritmo a parte c'è in ballo molta l'intelligenza artificiale qui secondo me più che nella classificazione dei contenuti in serp.
Altra cosa che ho notato è che sono sparito da alcune parole chiavi basilari se prima ad esempio ero classificato in seconda pagina sulla parola CASA ora non sono più dentro ai primi 100 risultati però rimango classificato bene per ad esempio CASA AL MARE, CASA IN AFFITTO son solo esempi prendeteli con le pinze.
provate a fare dei test e riportate sul forum i risultati ad esempio
togliete tutta la pubblicità su una pagina fate passare lo spider e vedete se migliora il posizionamento
arricchite il contenuto di una pagina e vedete se cambia qualcosa inserendo link a tema o aumentando il contenuto
insomma si può provare di tutto..
-
Secondo me c'è da preoccuparsi se avete usato tecniche seo poco gradite da google, se invece avete fatto tutto correttamente, senza ingannare il motore di ricerca, preoccupatevi ancora di più
-
io ho diverse pagine senza pubblicità e senza link esterni eppure ... colpite anch'esse. (Le pagine sono veloci Pagespeed medio 91/97 (mobile/desktop) e idem quelle AMP, ho ancora un bel po' di pagine da modificare struttura html che invece hanno il CSS esterno e hanno 85/91 come velocità). In percentuale le AMP sono il 20%, ma essendo che il mio traffico è diminuito circa del 38% sia desktop che mobile che tablet anche questo non conta. Proverò la tua idea marrone di modificare leggermente il contenuto di alcune pagine, 1 parola nel title, qualcosa in meta description, e vediamo che succede ... Poi vi dirò ...
-
I vostri siti penalizzati sono costantemente aggiornati? O sono abbandonati da settimane o peggio ancora mesi? Anche io ho eliminato i banner adsense dove c'era poco testo, ma non è cambiato praticamente nulla
-
weekly update, costante .... sto' cercando spunti sulle cose che si possono fare da Glenn Gabe su gsqi prova a dare un'occhiata anche tu cutoff
-
Si avevo già visto, sto seguendo anche webmasterworld, non capiscono nemmeno li cosa sia successo
-
Oggi accuranker ha segnalato movimenti in serp più alti dall'11 febbraio.
ieri stranamente ho recuperato un po' di traffico sono tornato sui livelli della settimana dopo l'aggiornamento dell'algoritmo che è già positivo vediamo se dura o migliora.
state vedendo qualche miglioramento?
-
Nel senso che stanno lanciando un altro aggiornamento peggio di prima?
-
@pippi80 said:
Nel senso che stanno lanciando un altro aggiornamento peggio di prima?
Accuranker monitora il posizionamento di tutte una serie di parole chiavi e quando c'è molto movimento significa che hanno modificato qualcosa.. oggi segnala il livello più alto dall'11 febbraio (dal 7 al 10 febbraio è stato molto più alto).
-
Dopo un'attenta analisi devo escludere da questo aggiornamento il discorso che dicevo sulla perdita di posizioni su parole chiavi primarie. (non a coda lunga)
Combinando i dati di search console con accuranker nei primi 15/20 giorni di dicembre ci sono stati diversi aggiornamenti dell'algoritmo (forse era uno solo con modifiche successive) e li è cambiato qualcosa e dalla prima pagina per quelle parole chiavi sono finito in alcuni casi in terza/quarta pagina. (non ho più recuperato quelle posizioni)
Ho fatto il test su 5 pagine di categorie diverse e tutte hanno avuto questo cambiamento in quel periodo di dicembre.
questa è una cosa che va analizzata neppure me ne ero accorto ma quello che conta è che non centra con l'ultimo grosso aggiornamento.
-
Se non ricordo male il primo scossone importante nella serp risale al 16 dicembre
-
Devo aggiungere una cosa l'aggiornamento di dicembre mi ha portato quelle pagine dalla prima alla 3/4 pagina ora sto vedendo che dopo l'aggiornamento del 7 febbraio non le trovo più nelle prime 10 pagine per cui un minimo ha inciso.
-
Su una pagina a dicembre è passata dalla prima alla quarta pagina poi diversamente alle altre è tornata in prima pagina e appena dopo l'aggiornamento di febbraio è tornata in quarta pagina.
è un'eccezione perchè le altre han seguito dicembre da prima a quarta pagina e a febbraio da quarta a oltre la decima.
ho provato a inserire link INTERNI a tema per arricchire il contenuto e renderlo più forte e dalla quarta pagina sono tornato in prima pagina PRIMO TEST FUNZIONANTE il problema è che facendo lo stesso test sulle altre pagine neppure tra i primi 100 risultati ritornano.. ho controllato son tutte indicizzate, la lunghezza del contenuto è circa lo stesso, caricano veloci, nessun errore ortografico, nessun backlink.. ottimizzate per mobile.. tutte senza https e senza amp..
bho
-
x marrone: "caricano veloci" che pagespeed medio hai? Superiore a 85 su mobile? Non hai ads above the fold? Gli americani si stanno concentrando sulle barriere all'usabilità, personalmente preferisco entrare in un sito/blog con barra superiore da cui capire dove sono e come muovermi, ma mi sta' venendo l'idea di provare un test con il flexy box e mandare la barra sotto il corpo centrale del contenuto ... Qui sembra che la velocità di caricamento specie su mobile 2 ms per l'above the fold della pagina sia cruciale