- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Panda ubriaco?
-
Che il fattore "velocità" sia determinante , se ne discute , ormai, da tempo.
E quanto dici è giusto, con l'unica variazione che Google non intende premiare chi ha un "buon numero di risorse" in termini di hosting, e quindi di banda disponibile, ecc., ma è ovvio che questo influisce.Secondo me, ma è opinabile, punisce soprattutto quelli che hanno fatto uso , per troppo tempo, di "chincaglieria" rendendo i loro siti "carini" ma lentissimi da caricare con vari widget e quanto altro.
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".E' ovvio che se "puoi spingere" in termini di velocità è tutto guadagno, di sicuro.
Ed è altrettanto ovvio che questo comporta un budget, spesso inconciliabile con i piccoli publisher, in termini di server, cdn ed altro.Trovo quindi giusto pensare di rendere i siti quanto più veloci possibili : è il primo punto , a mio avviso, di sicuro interesse per tutti i publisher.
Resta poi da capire come valorizzare i propri contenuti per renderli più appetibili e quindi cercare di migliorare quella serie di parametri che , ormai , sembrano identificarsi con frequenza di rimbalzo e altre cose di cui abbiamo discusso.
-
Sembra che oggi ci sono ancora grossi movimenti sulla SERP. Questa mattina ero tornato agli accessi che avevo prima del 14/10 e le chiavi per me più significative erano tornate in cima; da quasi mezz' ora sembra invece che siamo tornati alla situazione di ieri. E' come se Google stia facendo delle prove sulla Serp non soddisfatto dei risultati ottenuti.
-
Dalle 23 del 26/10 movimenti sconvolgenti in serp per un mio sito che aveva perso molto il 14/10 e sembra fino ad ora che la cosa continui.
Fosse che panda non ci sta capendo nulla nemmeno lui??
-
Volevo segnalare alcune cose. La prima è che anche gli altri motori seguono l' andamento di Google; per gli altri motori la cosa non si nota perchè gli accessi sono minimi, ma aumentando gli accessi da Google, aumentano di conseguenza quelli degli altri motori, se Google diminuisce, diminuiscono anche gli altri. Questo può significare due cose: o google ha acquisito tutti gli altri motori mettendo anche su questi lo stesso algoritmo, o qualche parametro li accomuna tutti e questo non può che essere la prestazione del sito, perchè, personalmente, la cosa più significativa che avevo fatto, era togliere gli AdSense (non erano nell' header ed erano molto inferiori al contenuto); per ora li ho rimessi, ma temo che dovrò toglierli di nuovo (1 secondo in meno). Altre modifiche minori sono state il noindex per le liste (ma non per i tag che ancora non riesco a fare. Altra cosa da non sottovalutare, è che la prima pagina degli strumenti per il webmaster di Google, oggi è in inglese; mi viene da pensare che sia stato fatto un errore da Google.it e la serp restituita sia ora quella di Google.com e non quella di Google.it. I mei aumenti sono generati da due chiavi che hanno ripreso quota, mentre altre tre o quattro chiavi sono ancora penalizzate. Le chiave penalizzate sono state superate da siti che hanno il noindex sui tag, non ho ancora controllato le chiavi che hanno ripreso.
-
Ho circa una 20ina di piccoli siti, alcuni in lingua italiana e alcuni in lingua inglese.
Tutti molto eterogenei: dalle 3 alle 30 pagine, alcuni ottimizzati per Adsense, altri per il mercato dell'affiliazione (clickbank), alcuni con i tag altri senza.Tutti costruiti seguendo le regole di qualità, senza contenuti duplicati, senza un uso di tecniche "black hat" senza l'uso di farm per la costruzione di link dall'esterno, con una buona diversità di anchor text (oltre alla variazione delle keyword, ho usato anche gli URL).
TUTTI e dico tutti indistintamente hanno subito un tracollo verticale il 18 ottobre: quindi per prima cosa non capisco perchè si parli di due momenti diversi di implementazione dell'algoritmo. Nei mesi di aprile/agosto, primi momenti di applicazione di Panda, invece non ho rilevato alcuna sostanziale diversità nelle SERP, anzi forse un miglioramento.
Ad essere sincero mi aspettavo una revisione della forza dei link building: non è possibile che il 70-80% del peso del posizionamento di un sito dipendesse da questi, quando ormai la compravendita di link è un mercato fiorente e conclamato. Di sicuro posso dire di essere pienamente d'accordo con chi dice che il link building non è penalizzante: e non lo sarai mai aggiungo, perchè altrimenti sarebbe troppo facile penalizzare i propri concorrenti.
La mia domanda è: dopo 11 pagine di 3d, il 95% di chi ha scritto lamenta un calo di visite. Ma allora chi ha avuto dei vantaggi? Se il 95% degli utenti occupava le prime pagine con i propri siti, come possono aver guadagnato posizioni quei siti che non essendo in prima pagina non ricevevano visite? C'è qualcosa che ancora non mi torna: come può contare così tanto la user experience? Davvero forse è stata rivista l'importanza dei backlink, ma come può un algoritmo giudicare la qualità o anche la velocità di acquisizione degli stessi?
Non può quest'ultima essere un fatto penalizzante, perchè altrimenti ne subirebbero le conseguenze tutti i siti di notizie.
Faccio un esempio: quanti link spontanei avrà ricevuto il primo sito che ha scritto una notizia clamorosa? Non può certo essere penalizzato per questo fattore.
Insomma non mi è ancora dato di capire quali siano i fattori che abbiano penalizzato indistintamente i miei siti. Forse sono ancora soggetti alla G dance?Ho notato (ho forse me lo sono perso) che nessuno ha menzionato la privacy: bazzicando forum e blog USA ho letto che con il nuovo algoritmo, Google toglierà ai webmaster la possibilità di conoscere quali sono le parole chiave che portano al proprio sito in funzione della privacy della navigazione: http://imimpact.com/non-public/protected-by-google/
Nessuno ha da lamentarsi di questo?
-
@ndwolfwood said:
Ad essere sincero mi aspettavo una revisione della forza dei link building: non è possibile che il 70-80% del peso del posizionamento di un sito dipendesse da questi, quando ormai la compravendita di link è un mercato fiorente e conclamato. Di sicuro posso dire di essere pienamente d'accordo con chi dice che il link building non è penalizzante: e non lo sarai mai aggiungo, perchè altrimenti sarebbe troppo facile penalizzare i propri concorrenti.
Infatti secondo me non conta la mole di link in breve tempo, ma le anchor che si usano...usarne una, o più, tutte molto similari, potrebbe farti cascare, perchè google potrebbe considearlo spam, e quindi penalizzarti su quella specifica anchor.
Io sul mio sito avevo spinto tutte le categorie, stranamente il 14 sono sparito dalla serp per tutte queste anchor...stranamente in questi giorni con la homepage invece sono comparso tra i primi 100 per una chiave molto competitiva, quindi non ho subito una penalizzazione sul dominio.
Ritengo quindi che se google considera i tuoi backlink costruiti ad arte, ti penalizza per quelle anchor che trova
-
@bluwebmaster said:
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".Ma è affidabile ciò che dice in Google webmaster sulla velocità? Adesso uno dei miei siti è velocissimo, puro html, non c'è più alcuna elaborazione lato server... eppure continua a dire che è lento.
Secondo me sbarella molto anche Google nelle valutazioni... non sono sicurissimo ancora perchè le modifiche le ho fatte il 22/10 (adesso è una scheggia) e lo strumento webmaster segnala un controllo proprio il 22/10 (potrebbe averlo fatto poco prima dei cambiamenti).
Ma nei prossimi giorni o mi dice che è almeno più veloce di prima o non è affidabile. Una pagina singola adesso mi si apre in un secondo netto!
-
Secondo me sbarella molto anche Google nelle valutazioni... non sono sicurissimo ancora perchè le modifiche le ho fatte il 22/10 (adesso è una scheggia) e lo strumento webmaster segnala un controllo proprio il 22/10 (potrebbe averlo fatto poco prima dei cambiamenti).
Infatti, secondo me, queste sono ancora le prestazioni che Google rilevava prima delle tue modifiche. Se mantieni le prestazioni, per far passare prima Google, inserisci un nuovo contenuto e, mi raccomando, fai sapere.
-
Sì, è estremamente affidabile, a patto che il numero di visitatori del sito sia sufficientemente alto.
Coincide esattamente con quando dice pagespeed.
Pagespeed comunque è pur sempre uno strumento oggettivo, senza l'intervento umano e l'esperienza può trarre molto in inganno e far anche commettere degli errori.
Ad esempio un'immagine potrebbe risultare ottimizzata, ma in realtà riducendo la "qualità software" non si riduce la "qualità visiva", risparmiando un sacco di byte.
L'ottimizzazione che fornisce per l'html, a parte far diventare la pagina non più validata w3c, può far perdere alcune parti commentate che in realtà sono istruzioni css per Internet Explorer.
I css possono essere estremamente ridotti, senza che lo strumento se ne accorga (non applica ragionamenti umani).
Può fornire percententuali basse su siti in realtà velocissimi, o comunque che offrono un impatto per l'utente molto valido, perché caricano varie cose in background. O viceverda percentuali alte per siti non proprio eccezionali.
Ad esempio questa stessa pagina del forum, ha invece una percentuale non proprio male (82%), ma in realtà ha margini di miglioramento enormi, richiede ben 7 secondi per essere ricaricata.
ecc..
-
Questi sono i dati del mio sito che è stato pesantemente penalizzato:
La penalizzazione ha avuto luogo venerdi 14 ottobre, durante i precedenti cambi di algoritmo avvenuti tra aprile e agosto di quest'anno non avevo ravvisato alcun cambiamento.
Il sito è completamente scomparso da quasi tutte le SERP, portando le visite giornaliere da una media di 300 a circa 40.
L'unica keyword che è rimasta dov'era è una per la quale il sito si trova in prima posizione con una pagina che ha PR1 (tutte le altre pagine del sito hanno PR0). Questa chiave era in cima già da circa 3-4 mesi.
Queste sono le statistiche globali del sito:1,52 Pagine/Visita
00:01:15 Tempo medio sul sito
81,98% Frequenza di rimbalzo
82,69% % nuove visiteIl sito è un blog su piattaforma WordPress, tag e categorie NON sono indicizzate. Su tutto il sito è presente un unico link in uscita su una sola pagina.
La politica di link-building degli ultimi 2-3 mesi è stata abbastanza "artificiosa", si è trattato in pratica di un esperimento che stavo portando avanti: ogni giorno ho aggiunto 2-3 backlink sempre per le stesse 2-3 anchor text.
Anche se la velocità di caricamento è molto buona, vale la pena notare che il sito è monetizzato tramite Simply, e che i banner di questo circuito a volte impiegano molto tempo a comparire, oppure non compaiono affatto.
-
@Atanor
Da quello che hai indicato, secondo ciò che è stato rilevato nella discussione, per me ci sono parecchi fattori che hanno potuto influire. Primo, la frequenza di rimbalzo (superiore al 70%), quindi il tempo medio e le pagine viste. Inoltre, da quello che dici, i banner impiegano molto tempo a comparire oppure non compaiono affatto e questo sembra contraddire che la velocità di caricamento è buona, quando per velocità di caricamento personalmente intento l' intera pagina comprensiva di banner.
Ciò che invece mi fa piacere sentire, è che utilizzi noindex per tags e categorie; questo indica che duplicati eventuali, relativi a questo uso, non sono penalizzanti. Per meglio capire questo fattore, posterò in seguito una ulteriore domanda.
-
DOMANDA:
Cosa sono veramente i contenuti duplicati ?
Pongo adesso un altro quesito, posto anche in altri forum: Google penalizza veramente i siti con contenuto duplicato ? Ma per contenuto duplicato, cosa si intende?
Chiedo questo perchè non vorrei perdere le posizioni acquisite nella Serp dai tag indicizzati, prima di applicare la modifica quì risolta: drupalitalia.org/node/16347 ; infatti, in molti casi e per alcune chiavi, le pagine indicizzate da Google attraverso i tags, superano di molto la pagina stessa.
Per fare questo riporto un passo della Guida per webmaster di Google relativa alle Norme sulla qualità:
"Il termine "contenuti duplicati" si riferisce in genere a blocchi di contenuti importanti all'interno o tra i domini che sono identici o molto simili. In genere questa pratica non è all'origine ingannevole. Tra gli esempi di contenuti duplicati non dannosi vi sono:- Forum di discussione che possono generare sia pagine regolari che pagine "abbreviate" destinate a dispositivi mobili
- Contenuti archiviati visualizzati o collegati tramite più URL distinti
- Versioni unicamente stampabili delle pagine web"
In base al secondo punto, ritengo che le pagine indicizzate attraverso i tags, che contengono le anteprime dei contenuti che hanno lo stesso tag, non rappresentano contenuti duplicati dannosi, ma contenuti collegati tramite più URL distinte.
Infatti, dagli strumenti per webmaster, non ho duplicati per questi contenuti.
Voi che ne pensate ? Posterò lo stesso quesito anche sul blog di Google.
-
@giovanninews said:
Inoltre, da quello che dici, i banner impiegano molto tempo a comparire oppure non compaiono affatto e questo sembra contraddire che la velocità di caricamento è buona, quando per velocità di caricamento personalmente intento l' intera pagina comprensiva di banner.
Hai ragione, mi sono contraddetto. Ciò che volevo dire è che il sito in sè è ben performante (si trova su un buon hosting), ma che la velocità è penalizzata dal caricamento dei banner. Ho dimenticato di specificare che c'erano ben 5 banner su ogni singola pagina.
Non so cosa utilizzate per verificare la velocità di caricamento delle pagine, forse i dati del WebMaster Tools? Nel caso, questi sono i miei:
postimage.org / image / m5w9zpow7
-
@Atanor
Questa sarebbe ancora meglio: postimage.org/image/4api6f1on/ , ma è affidabile se Google passa spesso. Comunque, per me, uno dei tools migliori e Pingdom Tools, tra l' altro, appena aggiornato.
-
Ok, quel grafico è generato da Pingdom?
-
Anche a me a metà ottobre è capitato di non visualizzare più il sito...per niente...in nessuna pagina.
Però da 2 giorni improvvisamente è tornato (quindi dopo ben 2 settimane) con posizioni migliori di prima.
Adesso sto combattendo con un altro sito...da vedere.
-
Ok, quel grafico è generato da Pingdom?
No, è quello delle Prestazioni del sito generato da Google negli Strumenti per Webmaster; Pingdom serve per vederlo al momento.
-
@Atanor said:
La politica di link-building degli ultimi 2-3 mesi è stata abbastanza "artificiosa", si è trattato in pratica di un esperimento che stavo portando avanti: ogni giorno ho aggiunto 2-3 backlink sempre per le stesse 2-3 anchor text.
Ecco perchè sei stato penalizzato...esattamente il mio caso.
Io voglio provare a diluirle con link a quelle pagine senza anchor...però mi sà che ci vorrà un pò per vedere qualcosa.
-
@giovanninews said:
No, è quello delle Prestazioni del sito generato da Google negli Strumenti per Webmaster; Pingdom serve per vederlo al momento.
Ah, l'ho trovato! Non ci guardavo mai in quella sezione, e invece... mi sa che abbiamo trovato il perchè della penalizzazione:postimage.org/image/gmzugyxjb/
Ora tolgo del tutto i banner e vediamo se si riprende.
Grazie mille per la dritta!
-
Dimenticavo: un'altra cosa che ho notato rallentare tantissimo il caricamento delle pagine è il pulsante "Mi Piace" di Facebook. Provo a togliere anche quello.