- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Panda ubriaco?
-
@formatoweb said:
Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi?
La tesi è giusta, ma come ogni tesi, a mio modesto avviso , va integrata da alcune osservazioni, altrimenti sembra che Facebook sia il cerchio "magico" dove entrare e proliferare. ( ).
Intanto tu stesso poni l'esempio di un "attività di piccolo livello" , cioè, in ultima analisi , abbastanza circoscritta.
L'altra osservazione che muovo è che per avere un "discreto" numero di "amici" tali da innescare un "passaparola" , occorre che il gruppo sia abbastanza popolato e, particolare non trascurabile, direttamente "interessato" alla merce che proponi.
A questo punto va osservato necessariamente che per formare gruppi "discretamente" popolati occorre, tempo, pazienza e pratica di gestione cosa che, nel sul complesso significa "tempo" da spendere, e il tempo è denaro.
Inoltre il concetto di passaparola è valido , ma non è che gli utenti del gruppo stiano li tutti ad aspettare a "bocca aperta" le occasioni che si propongono con un bel "ohhhhhhhhhhhhh che meraviglia" quando le proponi.
E questo per la stessa ragione che Facebook è una bella vetrina posta nel centro di una città : potenzialmente tutti i passanti potrebbero fare "passaparola" delle offerte in vetrina, ma non è certo che lo facciano.
Fermo restando che Facebook , prima o poi, arriverà a una stretta proprio su questo , quando si accorgerà, ma pare se ne sia già accorto, che in questo modo si eludono i "canali pubblicitari" e quindi, in definitiva, perde soldi.In ogni caso Facebook e Google fanno due mestieri completamente diversi : esistono due punti dobe si intersecano, ma hanno due utilità diverse e due modi di essere gestiti diversi.
@formatoweb said:
La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato.
Mi sento di sposare questa tesi, fermo restando l'insostituibilità di Google come motore e l'impossibilità a sostituirlo con un social network.
Se cerco "legumi lessi" vado su Google non su facebook.
Dici bene che il "Popolo" ha imparato a navigare : però ti chiedo , secondo te non si accorge allo stesso modo degli spammer su facebook o sulle offerte farlocche e ingannevoli di "cellulari a 9 euro" ( per citare il tuo esempio ) offerti da perfetti sconosciuti ?
Fermo restando che lo scopo della maggioranza dei webmaster non è vendere.@formatoweb said:
Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS.
Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.
-
Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.E qui sono daccordo anch' io, ma non basta, non sono gli unici parametri. C' è qualcosa che ci sfugge o che, perlomeno, non è emerso in questa discussione. Inoltre, per le prestazioni, secondo voi, qual' è il parametro di riferimento come tempo di risposta della pagina? 5 secondi ? 3 secondi ? o meno ? Se con gli strumenti per webmaster ho una pagina che impiega 3,1 secondi, sono più lento del 50% dei siti; se con lo stesso strumento ho una pagina che impiega 2,9 secondi, sono più veloce del 50% dei siti. Per scendere sotto i 3 secondi, devo disattivare gli AdSense, in quanto, l' unica ottimizzazione che potrei ancora fare è quella di acquistare un servizio CDN. Inoltre, in base a questa situazione, va ad influire anche l' hosting. Devo per forza avere un server dedicato o un VPS per non essere danneggiato da qualcun altro che condivide la mia risorsa ? Quindi Google secondo questo ragionamento, non privilegia i contenuti di qualità, ma priviligia chi si può permettere un server dedicato o un VPS ed inoltre chi si può permettere anche una CDN. E' per questo che secondo me il discorso è valido solo in parte, Google, comportandosi in questo modo, farebbe troppo spudoratamente interessi di parte.
-
Che il fattore "velocità" sia determinante , se ne discute , ormai, da tempo.
E quanto dici è giusto, con l'unica variazione che Google non intende premiare chi ha un "buon numero di risorse" in termini di hosting, e quindi di banda disponibile, ecc., ma è ovvio che questo influisce.Secondo me, ma è opinabile, punisce soprattutto quelli che hanno fatto uso , per troppo tempo, di "chincaglieria" rendendo i loro siti "carini" ma lentissimi da caricare con vari widget e quanto altro.
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".E' ovvio che se "puoi spingere" in termini di velocità è tutto guadagno, di sicuro.
Ed è altrettanto ovvio che questo comporta un budget, spesso inconciliabile con i piccoli publisher, in termini di server, cdn ed altro.Trovo quindi giusto pensare di rendere i siti quanto più veloci possibili : è il primo punto , a mio avviso, di sicuro interesse per tutti i publisher.
Resta poi da capire come valorizzare i propri contenuti per renderli più appetibili e quindi cercare di migliorare quella serie di parametri che , ormai , sembrano identificarsi con frequenza di rimbalzo e altre cose di cui abbiamo discusso.
-
Sembra che oggi ci sono ancora grossi movimenti sulla SERP. Questa mattina ero tornato agli accessi che avevo prima del 14/10 e le chiavi per me più significative erano tornate in cima; da quasi mezz' ora sembra invece che siamo tornati alla situazione di ieri. E' come se Google stia facendo delle prove sulla Serp non soddisfatto dei risultati ottenuti.
-
Dalle 23 del 26/10 movimenti sconvolgenti in serp per un mio sito che aveva perso molto il 14/10 e sembra fino ad ora che la cosa continui.
Fosse che panda non ci sta capendo nulla nemmeno lui??
-
Volevo segnalare alcune cose. La prima è che anche gli altri motori seguono l' andamento di Google; per gli altri motori la cosa non si nota perchè gli accessi sono minimi, ma aumentando gli accessi da Google, aumentano di conseguenza quelli degli altri motori, se Google diminuisce, diminuiscono anche gli altri. Questo può significare due cose: o google ha acquisito tutti gli altri motori mettendo anche su questi lo stesso algoritmo, o qualche parametro li accomuna tutti e questo non può che essere la prestazione del sito, perchè, personalmente, la cosa più significativa che avevo fatto, era togliere gli AdSense (non erano nell' header ed erano molto inferiori al contenuto); per ora li ho rimessi, ma temo che dovrò toglierli di nuovo (1 secondo in meno). Altre modifiche minori sono state il noindex per le liste (ma non per i tag che ancora non riesco a fare. Altra cosa da non sottovalutare, è che la prima pagina degli strumenti per il webmaster di Google, oggi è in inglese; mi viene da pensare che sia stato fatto un errore da Google.it e la serp restituita sia ora quella di Google.com e non quella di Google.it. I mei aumenti sono generati da due chiavi che hanno ripreso quota, mentre altre tre o quattro chiavi sono ancora penalizzate. Le chiave penalizzate sono state superate da siti che hanno il noindex sui tag, non ho ancora controllato le chiavi che hanno ripreso.
-
Ho circa una 20ina di piccoli siti, alcuni in lingua italiana e alcuni in lingua inglese.
Tutti molto eterogenei: dalle 3 alle 30 pagine, alcuni ottimizzati per Adsense, altri per il mercato dell'affiliazione (clickbank), alcuni con i tag altri senza.Tutti costruiti seguendo le regole di qualità, senza contenuti duplicati, senza un uso di tecniche "black hat" senza l'uso di farm per la costruzione di link dall'esterno, con una buona diversità di anchor text (oltre alla variazione delle keyword, ho usato anche gli URL).
TUTTI e dico tutti indistintamente hanno subito un tracollo verticale il 18 ottobre: quindi per prima cosa non capisco perchè si parli di due momenti diversi di implementazione dell'algoritmo. Nei mesi di aprile/agosto, primi momenti di applicazione di Panda, invece non ho rilevato alcuna sostanziale diversità nelle SERP, anzi forse un miglioramento.
Ad essere sincero mi aspettavo una revisione della forza dei link building: non è possibile che il 70-80% del peso del posizionamento di un sito dipendesse da questi, quando ormai la compravendita di link è un mercato fiorente e conclamato. Di sicuro posso dire di essere pienamente d'accordo con chi dice che il link building non è penalizzante: e non lo sarai mai aggiungo, perchè altrimenti sarebbe troppo facile penalizzare i propri concorrenti.
La mia domanda è: dopo 11 pagine di 3d, il 95% di chi ha scritto lamenta un calo di visite. Ma allora chi ha avuto dei vantaggi? Se il 95% degli utenti occupava le prime pagine con i propri siti, come possono aver guadagnato posizioni quei siti che non essendo in prima pagina non ricevevano visite? C'è qualcosa che ancora non mi torna: come può contare così tanto la user experience? Davvero forse è stata rivista l'importanza dei backlink, ma come può un algoritmo giudicare la qualità o anche la velocità di acquisizione degli stessi?
Non può quest'ultima essere un fatto penalizzante, perchè altrimenti ne subirebbero le conseguenze tutti i siti di notizie.
Faccio un esempio: quanti link spontanei avrà ricevuto il primo sito che ha scritto una notizia clamorosa? Non può certo essere penalizzato per questo fattore.
Insomma non mi è ancora dato di capire quali siano i fattori che abbiano penalizzato indistintamente i miei siti. Forse sono ancora soggetti alla G dance?Ho notato (ho forse me lo sono perso) che nessuno ha menzionato la privacy: bazzicando forum e blog USA ho letto che con il nuovo algoritmo, Google toglierà ai webmaster la possibilità di conoscere quali sono le parole chiave che portano al proprio sito in funzione della privacy della navigazione: http://imimpact.com/non-public/protected-by-google/
Nessuno ha da lamentarsi di questo?
-
@ndwolfwood said:
Ad essere sincero mi aspettavo una revisione della forza dei link building: non è possibile che il 70-80% del peso del posizionamento di un sito dipendesse da questi, quando ormai la compravendita di link è un mercato fiorente e conclamato. Di sicuro posso dire di essere pienamente d'accordo con chi dice che il link building non è penalizzante: e non lo sarai mai aggiungo, perchè altrimenti sarebbe troppo facile penalizzare i propri concorrenti.
Infatti secondo me non conta la mole di link in breve tempo, ma le anchor che si usano...usarne una, o più, tutte molto similari, potrebbe farti cascare, perchè google potrebbe considearlo spam, e quindi penalizzarti su quella specifica anchor.
Io sul mio sito avevo spinto tutte le categorie, stranamente il 14 sono sparito dalla serp per tutte queste anchor...stranamente in questi giorni con la homepage invece sono comparso tra i primi 100 per una chiave molto competitiva, quindi non ho subito una penalizzazione sul dominio.
Ritengo quindi che se google considera i tuoi backlink costruiti ad arte, ti penalizza per quelle anchor che trova
-
@bluwebmaster said:
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".Ma è affidabile ciò che dice in Google webmaster sulla velocità? Adesso uno dei miei siti è velocissimo, puro html, non c'è più alcuna elaborazione lato server... eppure continua a dire che è lento.
Secondo me sbarella molto anche Google nelle valutazioni... non sono sicurissimo ancora perchè le modifiche le ho fatte il 22/10 (adesso è una scheggia) e lo strumento webmaster segnala un controllo proprio il 22/10 (potrebbe averlo fatto poco prima dei cambiamenti).
Ma nei prossimi giorni o mi dice che è almeno più veloce di prima o non è affidabile. Una pagina singola adesso mi si apre in un secondo netto!
-
Secondo me sbarella molto anche Google nelle valutazioni... non sono sicurissimo ancora perchè le modifiche le ho fatte il 22/10 (adesso è una scheggia) e lo strumento webmaster segnala un controllo proprio il 22/10 (potrebbe averlo fatto poco prima dei cambiamenti).
Infatti, secondo me, queste sono ancora le prestazioni che Google rilevava prima delle tue modifiche. Se mantieni le prestazioni, per far passare prima Google, inserisci un nuovo contenuto e, mi raccomando, fai sapere.
-
Sì, è estremamente affidabile, a patto che il numero di visitatori del sito sia sufficientemente alto.
Coincide esattamente con quando dice pagespeed.
Pagespeed comunque è pur sempre uno strumento oggettivo, senza l'intervento umano e l'esperienza può trarre molto in inganno e far anche commettere degli errori.
Ad esempio un'immagine potrebbe risultare ottimizzata, ma in realtà riducendo la "qualità software" non si riduce la "qualità visiva", risparmiando un sacco di byte.
L'ottimizzazione che fornisce per l'html, a parte far diventare la pagina non più validata w3c, può far perdere alcune parti commentate che in realtà sono istruzioni css per Internet Explorer.
I css possono essere estremamente ridotti, senza che lo strumento se ne accorga (non applica ragionamenti umani).
Può fornire percententuali basse su siti in realtà velocissimi, o comunque che offrono un impatto per l'utente molto valido, perché caricano varie cose in background. O viceverda percentuali alte per siti non proprio eccezionali.
Ad esempio questa stessa pagina del forum, ha invece una percentuale non proprio male (82%), ma in realtà ha margini di miglioramento enormi, richiede ben 7 secondi per essere ricaricata.
ecc..
-
Questi sono i dati del mio sito che è stato pesantemente penalizzato:
La penalizzazione ha avuto luogo venerdi 14 ottobre, durante i precedenti cambi di algoritmo avvenuti tra aprile e agosto di quest'anno non avevo ravvisato alcun cambiamento.
Il sito è completamente scomparso da quasi tutte le SERP, portando le visite giornaliere da una media di 300 a circa 40.
L'unica keyword che è rimasta dov'era è una per la quale il sito si trova in prima posizione con una pagina che ha PR1 (tutte le altre pagine del sito hanno PR0). Questa chiave era in cima già da circa 3-4 mesi.
Queste sono le statistiche globali del sito:1,52 Pagine/Visita
00:01:15 Tempo medio sul sito
81,98% Frequenza di rimbalzo
82,69% % nuove visiteIl sito è un blog su piattaforma WordPress, tag e categorie NON sono indicizzate. Su tutto il sito è presente un unico link in uscita su una sola pagina.
La politica di link-building degli ultimi 2-3 mesi è stata abbastanza "artificiosa", si è trattato in pratica di un esperimento che stavo portando avanti: ogni giorno ho aggiunto 2-3 backlink sempre per le stesse 2-3 anchor text.
Anche se la velocità di caricamento è molto buona, vale la pena notare che il sito è monetizzato tramite Simply, e che i banner di questo circuito a volte impiegano molto tempo a comparire, oppure non compaiono affatto.
-
@Atanor
Da quello che hai indicato, secondo ciò che è stato rilevato nella discussione, per me ci sono parecchi fattori che hanno potuto influire. Primo, la frequenza di rimbalzo (superiore al 70%), quindi il tempo medio e le pagine viste. Inoltre, da quello che dici, i banner impiegano molto tempo a comparire oppure non compaiono affatto e questo sembra contraddire che la velocità di caricamento è buona, quando per velocità di caricamento personalmente intento l' intera pagina comprensiva di banner.
Ciò che invece mi fa piacere sentire, è che utilizzi noindex per tags e categorie; questo indica che duplicati eventuali, relativi a questo uso, non sono penalizzanti. Per meglio capire questo fattore, posterò in seguito una ulteriore domanda.
-
DOMANDA:
Cosa sono veramente i contenuti duplicati ?
Pongo adesso un altro quesito, posto anche in altri forum: Google penalizza veramente i siti con contenuto duplicato ? Ma per contenuto duplicato, cosa si intende?
Chiedo questo perchè non vorrei perdere le posizioni acquisite nella Serp dai tag indicizzati, prima di applicare la modifica quì risolta: drupalitalia.org/node/16347 ; infatti, in molti casi e per alcune chiavi, le pagine indicizzate da Google attraverso i tags, superano di molto la pagina stessa.
Per fare questo riporto un passo della Guida per webmaster di Google relativa alle Norme sulla qualità:
"Il termine "contenuti duplicati" si riferisce in genere a blocchi di contenuti importanti all'interno o tra i domini che sono identici o molto simili. In genere questa pratica non è all'origine ingannevole. Tra gli esempi di contenuti duplicati non dannosi vi sono:- Forum di discussione che possono generare sia pagine regolari che pagine "abbreviate" destinate a dispositivi mobili
- Contenuti archiviati visualizzati o collegati tramite più URL distinti
- Versioni unicamente stampabili delle pagine web"
In base al secondo punto, ritengo che le pagine indicizzate attraverso i tags, che contengono le anteprime dei contenuti che hanno lo stesso tag, non rappresentano contenuti duplicati dannosi, ma contenuti collegati tramite più URL distinte.
Infatti, dagli strumenti per webmaster, non ho duplicati per questi contenuti.
Voi che ne pensate ? Posterò lo stesso quesito anche sul blog di Google.
-
@giovanninews said:
Inoltre, da quello che dici, i banner impiegano molto tempo a comparire oppure non compaiono affatto e questo sembra contraddire che la velocità di caricamento è buona, quando per velocità di caricamento personalmente intento l' intera pagina comprensiva di banner.
Hai ragione, mi sono contraddetto. Ciò che volevo dire è che il sito in sè è ben performante (si trova su un buon hosting), ma che la velocità è penalizzata dal caricamento dei banner. Ho dimenticato di specificare che c'erano ben 5 banner su ogni singola pagina.
Non so cosa utilizzate per verificare la velocità di caricamento delle pagine, forse i dati del WebMaster Tools? Nel caso, questi sono i miei:
postimage.org / image / m5w9zpow7
-
@Atanor
Questa sarebbe ancora meglio: postimage.org/image/4api6f1on/ , ma è affidabile se Google passa spesso. Comunque, per me, uno dei tools migliori e Pingdom Tools, tra l' altro, appena aggiornato.
-
Ok, quel grafico è generato da Pingdom?
-
Anche a me a metà ottobre è capitato di non visualizzare più il sito...per niente...in nessuna pagina.
Però da 2 giorni improvvisamente è tornato (quindi dopo ben 2 settimane) con posizioni migliori di prima.
Adesso sto combattendo con un altro sito...da vedere.
-
Ok, quel grafico è generato da Pingdom?
No, è quello delle Prestazioni del sito generato da Google negli Strumenti per Webmaster; Pingdom serve per vederlo al momento.
-
@Atanor said:
La politica di link-building degli ultimi 2-3 mesi è stata abbastanza "artificiosa", si è trattato in pratica di un esperimento che stavo portando avanti: ogni giorno ho aggiunto 2-3 backlink sempre per le stesse 2-3 anchor text.
Ecco perchè sei stato penalizzato...esattamente il mio caso.
Io voglio provare a diluirle con link a quelle pagine senza anchor...però mi sà che ci vorrà un pò per vedere qualcosa.