- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Panda ubriaco?
-
Hai ragione. Il problema sai qual'è? E che si va a tentoni perchè nessuno sa ancora niente e nulla sembra determinato.
La questione sta anche nel fatto che i periodi di "sconvolgimento" sono stati, a mio avviso e salvo miglior parere, almeno 3 : il primo all'incirca verso aprile 2011 ( non tutti sono d'accordo , ma molti hanno notato delle considerevoli variazioni in serp "diverse" da quelle solite che si registrano periodicamente al cambio di qualche algoritmo ) , il secondo ad agosto , all'annuncio ufficiale dell'introduzione di Panda e il 14 ottobre , data in cui c'è stato un upgrade di Panda.
L'unica cosa che metto in realazione con il primo sconvolgimento di aprile è che ( guarda caso proprio in quel periodo AdPlanner mostra ...variazioni considerevoli di accesso ) è che la user experience abbia un peso maggiore e forse determinante nell'ambito della stessa chiave.
Altrimenti non si spiegherebbero "movimenti tellurici" registrati che hanno lanciato verso l'alto anche siti che, a dire di molti, non hanno poi questa grande qualità.
Questi sconvolgimenti riguardano sia siti che sono schizzati in alto in fatto di visite sia quelli collassati.
In ogni caso credo che tutto questo vada approfondito di più portando la propria esperienza e condividendola in vista di...capirci qualcosa e cercare di agire di conseguenza.
Ovviamente gli specialisti SEO sono i benvenuti.
-
@bluwebmaster said:
Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me. Quindi mi dirigo altrove per cercare visite e visibilità. Sai la prima cosa che mi chiedono i clienti? Voglio apparire su Facebook. Non dicono su Google, Yahoo o altro. Attenzione quando valutiamo un fenomeno come internet. Le cose cambiano nell'arco di pochissimo tempo. Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano. Scusate l'ot ma era per completare un discorso.
-
Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network.
Può anche darsi che ciò sia vero, ma ciascuno di noi, dicendo che sta perdendo visite (o guadagnando), penso che lo faccia analizzando gli accesi relativi ai motori di ricerca, perchè quì si parla di SERP e di movimenti sulla SERP, non di accessi dai siti referenti.
-
La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
-
@wolf_cub said:
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce.Hai perfettamente ragione, e ti quoto, ma bisogna tenere presente che il "segreto" non è casuale ( tanto ci sono i brevetti ) : a fronte, infatti, di tanti webmaster in buona fede che hanno come unico scopo quello di lavorare "onestamente" , ce ne sono tanti altri ( si spera pochi ) che sono pronti a sfruttare falle e ricorrere ai soliti trucchetti per procacciarsi visibilità.
Un esempio : i backlink , che evidenziavano , o potevano farlo, un "buon sito" , poi sono stati "abusati" con le link farm, la rincorsa ai siti "dofollow" ecc.
Risultato : Google, sembra e sottolineo sembra, ha declassato l'importanza dei backlink.Quindi non mi meraviglio affatto che possa esserci da parte del gigante dei motori di ricerca una certa "prudenza".
Le regole di qualità valgono sempre, quindi , è buona norma attenersi a queste.
-
@formatoweb said:
Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me.
Rispetto il tuo punto di vista , ma tu stesso dici : "sta funzionando male per me", sottointendendo che non è il motore a perdere colpi, ma il tuo sito a perdere colpi nel motore.
Ovviamente bisogna capire che i social network oggi rapresnetano una realtà che difficilmente si può ignorare : ma bisogna stare attenti alle mode e all'attrattiva che essi esercitano sui clienti e su molti webmaster.
Oggi non c'è discussione che non si regga sulla ricerca di come piacere a Google, perchè questi rappresenta ( e parlo per me, ovvio ) un buon 87 % del mio traffico.
Permettimi una nota : Facebook non nasce come motore di ricerca o "veicolo di visite" .
Che poi lo sia diventato o lo possa diventare è cosa possibile, ma altamente incerta.
Un esempio ? Su Google ci pensano i crawler a tirarti dentro le pagine, brutte, belle, buone o cattive che siano.
Su Facebook devi lavorare a "manina santa" e "sudare" la visibilità.Sembra un luogo comune ma non lo vuole essere : quando Facebook sarà in grado di darmi perlomeno la metà degli accessi che mi da Google, allora dirò che Facebook è una realtà.
Ma fino a quando questi, tranne gli sparuti "picchi" in alcune circostanze, mi regalerà si e no il 4 o 5 % degli accessi ...lo riterrò una fonte di "possibili" accessi come tanti altri ma non dell'importanza di un motore di ricerca.
-
@formatoweb said:
Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano.
Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.
Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
-
@wolf_cub said:
La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.
Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.
E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
Google è fin troppo chiaro. Devi produrre contenuti o servizi utili per l'utente. Gli algoritmi precisi attraverso cui Google determina se i tuoi contenuti/servizi sono utili per l'utente, e QUANTO sono utili per l'utente, possono variare significativamente anche più volte all'anno; quel che resta costante è il fine - per noi webmaster - di creare siti utili per l'utente e - per Google - di cercare di quantificare in modo algoritmico l'utilità di un sito.
Una volta si usava la keyword density.
Algoritmo -> una keyword density compresa tra "X"% e "Y'% è quella ottimale
Utente -> ??? che mi frega della keyword density ??? Io voglio solo che sul sito ci sia quel che cercoPoi si è usato la link popularity
Algoritmo -> Un sito che riceve molti link da altri siti è meglio degli altri
Utente -> ??? che mi frega di quanti link riceve dagli altri siti ??? Io voglio solo che sul sito ci sia quel che cercoPoi si sono usati (?) parametri comportamentali (Bounce rate, ecc.)
Algoritmo -> Un sito che ha un alto bounce rate è peggio degli altri
Utente -> ??? Manco so che è il bounce rate !!! Io voglio solo che sul sito ci sia quel che cercoIn definitiva, gli algoritmi cambiano ma gli utenti cercano sempre la stessa cosa: corrispondenza tra query di ricerca e contenuti/servizi del sito.
Il webmaster saggio cosa deve fare? Nel lungo periodo, riuscirà a posizionarsi meglio se insegue gli algoritmi dei motori di ricerca, o se capisce meglio le esigenze dell'utente? Se perdo il 50% di traffico a causa di un cambio di algoritmo, è meglio che dedico 3 mesi di studio a cercare di capire l'algoritmo e adeguarmi, o che dedico quel tempo a migliorare ulteriormente la qualità del mio sito?
-
@macantoni: Mi spiace ma io noto una certa discrasia nel tuo ragionamento.
Se io (webmaster) sono convinto di avere creato contenuti di qualità nel rispetto delle linee guida e tu (Google) mi tagli il 40 % del traffico allora è come se tu mi facessi capire che i miei contenuti non sono poi così buoni. Ma se non sono così buoni dovresti farmelo capire in qualche modo. E' qui che deve stare la trasparenza.
Lo stesso discorso vale per le altre questioni sollevate. Hai dimenticato che tra il webmaster e l'utente c'è sempre il filtro di Google. Una certa keyword density non è da considerarsi ottimale in sè ma nella misura in cui fa si che i miei contenuti possano posizionarsi ed essere letti. Così almeno è stato fino ad ora. Che scrivo a fare se nessuno mi trova?
Lo stesso dicasi per la link popularity.
E' esattamente quello che dici tu :"corrispondenza tra query di ricerca e contenuti/servizi del sito".
E se il bounce rate non è un buon parametro a che santo dovrei aggrapparmi io, povero webmaster? Quindi, a mio avviso, è inutile perdersi nel cercare di "migliorare la qualità" se ti mancano i criteri per valutare come la qualità viene valutata. Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze? Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?
@Bluwebmaster: nel mio singolo caso non credo che il calo sia imputabile ai backlinks a meno che Google non abbia svalutato quella decina di directory a cui ho iscritto il sito. La cosa al momento più verosimile mi pare la questione dei singolari e plurali. Comunque qui si esce completamente da Panda, credo che si possa convenirne.
-
Dico la mia visto che anche con i miei 2 blog principali ho avuto problemi. Il primo blog (settore viaggi) ha avuto problemi a partire da Aprile circa... siamo passati da una media di 2000 unici al giorno con picchi di 3500 ad una media di circa 300 unici di settembre con cali che si sono accentuati ad agosto (la botta finale) e poi più limitata a Ottobre (tanto che c'era più da togliere?).
Il secondo blog andava benissimo fino al 13 Ottobre... fcendo una media di circa 2500-3000 unici al mese (parliamo di un settore molto competitivo... quello economico).
Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico.
Ovviamente parliamo di contenuti originali di buona qualità (articoli realizzati in maniera professionale con una lunghezza variabile dalle 250 parole per alcune (poche) news fino ai 500-600 parole delle guide. Questo solo per far capire che non parliamo di un blog fatto di articoletti di 100 parole scopiazzati qui e li.
In queste pagine ho letto davvero molte cose interessanti ma quello che penso e che non può essere una perdita di valore dei backlink... perchè se così fosse tolti quelli google dovrebbe valutare cosa?
Vi posso portare l'esempio di diverse serp dove in prima posizione per key molto remunerative ci sono siti MDA di scarsissimo valore fatti da testi scarni e assolutamente inutili all'utente e analizzando i link in entrata (colpo di scena) trovi solo qualche link da commenti, un po di link nei profili dei forum (magari pure in inglese) e al massimo qualche link su siti di article marketing.
Ma allora chi ha creato nel tempo, con costanza una serie di ottimi link in entrata, a tema con il tuo settore, producendo contenuti di qualità che deve fare? Non è questo che vuole google?
Non voglio dire che Big G sia in crisi, ma di sicuro che ci siano delle serp inguardabili questo si. E lo posso dire con certezza perchè io stesso ho fatto qualche test (che volendo può fare chiunque) facendo arrivare in prima pagina siti inguardabili (spesso una paginetta o poco più) senza nessuno sforzo.
Insomma chi vogliamo prendere in giro... ci vorrebbero regole precise e controlli sulla qualità severi. Perchè se perdo 10 posizioni a danno di un mio concorrente ben venga, ma se mi metti dietro ad un sitarello di 3 pagine con un testo di poche decine di parole e 3 blocchi adsense... ma chi vogliamo prendere in giro?!
-
Mettiamo che ci sono 100 siti identici (il mio caso), l'unica differenza è il nome del dominio, perchè tutte le mie pagine sono scese mentre quelle di un mio competitor sono rimaste li ? L'unica conclusione che ho potuto trarre è che ho subito una penalizzazione sui backlinks....però sembrano penalizzate in maniera differente le anchors...se per una anchor google ritiene che non è cresciuta in maniera naturale, ti porta indietro nelle serp.
Oggi per esempio sono finito tra i primi 100 risultati per una anchor competitiva, cosa che non mi era mai successa...e credo di non averla spinta tanto, a parte qualche anchor qua e là.
Il problema adesso è come recuperare quelle coppie di chiavi affossate da google.
-
@wolf_cub said:
Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze?
Certamente che devi farlo, ogni giorno. Non un sondaggio nel senso di fargli riempire il questionario, ma nel senso di studiarne il comportamento. Le statistiche di Analytics ed anche altri strumenti che se sai programmare puoi farti da solo, possono aiutarti a capire se l'utente arriva sul tuo sito e riesce a trovare quel che cerca oppure no.
Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?
No, ma sei certo di fare qualcosa che Google ha interesse a mettere in evidenza, perché è interesse di Google mostare agli utenti dei risultati che soddisfano quel che cercano. Gli utenti, continuerebbero ad usare Google, se i suoi algoritmi non fossero ottimizzati per piacere all'utente?
-
Dopo avere visto una crescita continua (dovuta credo alla giovinezza del sito) negli ultimi 10 giorni sono stato decisamente penalizzato anche io nel sito in firma (più o meno un 25% di unici in meno) ... ma sinceramente non so quanto sia Panda e quanto altri fattori ... forse i più esperti hanno idee più precise al riguardo ... certo fa rabbia
-
@macantoni said:
Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.
Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
Ti potrei fare l' esempio dell' esperienza inversa. Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi? La stessa cosa accade per tutto il resto nelle dovute proporzioni. Vorrei rispondere a Stefanoimg quando dice:"Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico."
Ti dico cosa succede poi ognuno può trarre le proprie considerazioni. La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato. Fatta eccezione per quei siti che hanno un nome talmente famoso e facilmente riconoscibile. Gli aggiornamenti di Google hanno rimescolato le carte come succede in una partita a BJ dando a tutti la possibilità di apparire. Quel leggero balzo indietro nella serp significa perdere una % altissima di visite. Che sia giusto o sbagliato purtroppo non possiamo dirlo semplicemente perchè Google è un' azienda privata e come tale fa solo i suoi interessi (anche se in teoria i suoi interessi siamo noi utenti).
Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS. Bilanciate bene la pubblicità sul vostro sito sia come quantità che come qualità. Non fate scappare gli utenti solo per qualche euro in più.
-
@formatoweb said:
Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi?
La tesi è giusta, ma come ogni tesi, a mio modesto avviso , va integrata da alcune osservazioni, altrimenti sembra che Facebook sia il cerchio "magico" dove entrare e proliferare. ( ).
Intanto tu stesso poni l'esempio di un "attività di piccolo livello" , cioè, in ultima analisi , abbastanza circoscritta.
L'altra osservazione che muovo è che per avere un "discreto" numero di "amici" tali da innescare un "passaparola" , occorre che il gruppo sia abbastanza popolato e, particolare non trascurabile, direttamente "interessato" alla merce che proponi.
A questo punto va osservato necessariamente che per formare gruppi "discretamente" popolati occorre, tempo, pazienza e pratica di gestione cosa che, nel sul complesso significa "tempo" da spendere, e il tempo è denaro.
Inoltre il concetto di passaparola è valido , ma non è che gli utenti del gruppo stiano li tutti ad aspettare a "bocca aperta" le occasioni che si propongono con un bel "ohhhhhhhhhhhhh che meraviglia" quando le proponi.
E questo per la stessa ragione che Facebook è una bella vetrina posta nel centro di una città : potenzialmente tutti i passanti potrebbero fare "passaparola" delle offerte in vetrina, ma non è certo che lo facciano.
Fermo restando che Facebook , prima o poi, arriverà a una stretta proprio su questo , quando si accorgerà, ma pare se ne sia già accorto, che in questo modo si eludono i "canali pubblicitari" e quindi, in definitiva, perde soldi.In ogni caso Facebook e Google fanno due mestieri completamente diversi : esistono due punti dobe si intersecano, ma hanno due utilità diverse e due modi di essere gestiti diversi.
@formatoweb said:
La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato.
Mi sento di sposare questa tesi, fermo restando l'insostituibilità di Google come motore e l'impossibilità a sostituirlo con un social network.
Se cerco "legumi lessi" vado su Google non su facebook.
Dici bene che il "Popolo" ha imparato a navigare : però ti chiedo , secondo te non si accorge allo stesso modo degli spammer su facebook o sulle offerte farlocche e ingannevoli di "cellulari a 9 euro" ( per citare il tuo esempio ) offerti da perfetti sconosciuti ?
Fermo restando che lo scopo della maggioranza dei webmaster non è vendere.@formatoweb said:
Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS.
Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.
-
Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.E qui sono daccordo anch' io, ma non basta, non sono gli unici parametri. C' è qualcosa che ci sfugge o che, perlomeno, non è emerso in questa discussione. Inoltre, per le prestazioni, secondo voi, qual' è il parametro di riferimento come tempo di risposta della pagina? 5 secondi ? 3 secondi ? o meno ? Se con gli strumenti per webmaster ho una pagina che impiega 3,1 secondi, sono più lento del 50% dei siti; se con lo stesso strumento ho una pagina che impiega 2,9 secondi, sono più veloce del 50% dei siti. Per scendere sotto i 3 secondi, devo disattivare gli AdSense, in quanto, l' unica ottimizzazione che potrei ancora fare è quella di acquistare un servizio CDN. Inoltre, in base a questa situazione, va ad influire anche l' hosting. Devo per forza avere un server dedicato o un VPS per non essere danneggiato da qualcun altro che condivide la mia risorsa ? Quindi Google secondo questo ragionamento, non privilegia i contenuti di qualità, ma priviligia chi si può permettere un server dedicato o un VPS ed inoltre chi si può permettere anche una CDN. E' per questo che secondo me il discorso è valido solo in parte, Google, comportandosi in questo modo, farebbe troppo spudoratamente interessi di parte.
-
Che il fattore "velocità" sia determinante , se ne discute , ormai, da tempo.
E quanto dici è giusto, con l'unica variazione che Google non intende premiare chi ha un "buon numero di risorse" in termini di hosting, e quindi di banda disponibile, ecc., ma è ovvio che questo influisce.Secondo me, ma è opinabile, punisce soprattutto quelli che hanno fatto uso , per troppo tempo, di "chincaglieria" rendendo i loro siti "carini" ma lentissimi da caricare con vari widget e quanto altro.
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".E' ovvio che se "puoi spingere" in termini di velocità è tutto guadagno, di sicuro.
Ed è altrettanto ovvio che questo comporta un budget, spesso inconciliabile con i piccoli publisher, in termini di server, cdn ed altro.Trovo quindi giusto pensare di rendere i siti quanto più veloci possibili : è il primo punto , a mio avviso, di sicuro interesse per tutti i publisher.
Resta poi da capire come valorizzare i propri contenuti per renderli più appetibili e quindi cercare di migliorare quella serie di parametri che , ormai , sembrano identificarsi con frequenza di rimbalzo e altre cose di cui abbiamo discusso.
-
Sembra che oggi ci sono ancora grossi movimenti sulla SERP. Questa mattina ero tornato agli accessi che avevo prima del 14/10 e le chiavi per me più significative erano tornate in cima; da quasi mezz' ora sembra invece che siamo tornati alla situazione di ieri. E' come se Google stia facendo delle prove sulla Serp non soddisfatto dei risultati ottenuti.
-
Dalle 23 del 26/10 movimenti sconvolgenti in serp per un mio sito che aveva perso molto il 14/10 e sembra fino ad ora che la cosa continui.
Fosse che panda non ci sta capendo nulla nemmeno lui??
-
Volevo segnalare alcune cose. La prima è che anche gli altri motori seguono l' andamento di Google; per gli altri motori la cosa non si nota perchè gli accessi sono minimi, ma aumentando gli accessi da Google, aumentano di conseguenza quelli degli altri motori, se Google diminuisce, diminuiscono anche gli altri. Questo può significare due cose: o google ha acquisito tutti gli altri motori mettendo anche su questi lo stesso algoritmo, o qualche parametro li accomuna tutti e questo non può che essere la prestazione del sito, perchè, personalmente, la cosa più significativa che avevo fatto, era togliere gli AdSense (non erano nell' header ed erano molto inferiori al contenuto); per ora li ho rimessi, ma temo che dovrò toglierli di nuovo (1 secondo in meno). Altre modifiche minori sono state il noindex per le liste (ma non per i tag che ancora non riesco a fare. Altra cosa da non sottovalutare, è che la prima pagina degli strumenti per il webmaster di Google, oggi è in inglese; mi viene da pensare che sia stato fatto un errore da Google.it e la serp restituita sia ora quella di Google.com e non quella di Google.it. I mei aumenti sono generati da due chiavi che hanno ripreso quota, mentre altre tre o quattro chiavi sono ancora penalizzate. Le chiave penalizzate sono state superate da siti che hanno il noindex sui tag, non ho ancora controllato le chiavi che hanno ripreso.