• User Attivo

    @bluwebmaster said:

    Grazie.
    In pratica la curva B è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva **A **corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni non solo nello stesso giorno, ma anche nello stesso mese.

    Ad ogni modo AdPlanner con me dice la verità, il crollo c'è stato lo evidenzia benissimo... non credo sia una fonte di dati da buttare a mare. Forse da prendere con le pinze... ma non spara proprio dati a casaccio, o perlomeno non con tutti i siti.


  • Super User

    Da una verifica accurata , sia sui siti che hanno fatto boom, sia su quelli "crollati" ( parlo dei miei , ovviamente ) i dati sono veritieri con piccolissimi margini di errore.

    Per gli altri non so ma mi conforta la tua esperienza.

    Ovviamente la curva espone solo il "pubblico reale" che si può raggiungere, cio , in pratica, salvo migliore spiegazione, il numero di italiani effettivi che ogni mese si collegano a un sito, dato chiaramente importante per l'investitore.

    Perchè se un sito ha ad esempio una community o un forum o delle news questo ovviamente avrà un alto numero di ritorni anche nel mese.

    Questo potrebbe servire anche per capire qualcosa di più di questo Panda.
    Credo.


  • User Attivo

    Io aggiungerei l'utilizzo dei filtri (io ad esempio lo uso molto) per cercare le notizie o qualcosa avvenuto in un determinato periodo.
    Non credo che google abbia perso potere, solo che ha rallentato la sua crescita, poi ormai con il potenziamento di google maps e l'aggiunta di google plus un pò tutto è cambiato


  • Super User

    @Lionard84 said:

    Non credo che google abbia perso potere, solo che ha rallentato la sua crescita...

    Sono d'accordo con te, nemmeno io credo che Google abbia perso potere e credo solo , come tu dici, che abbia rallentato un tantino la crescita ( che non equivale a dire che si sia "fermato" ) per "riorganizzarsi" e "migliorarsi".


  • User

    Quì ci si sta allontanando dal motivo del post e cioè "è vero che dal 14/10 è successo qualcosa in SERP ?". Secondo me, ed anche secondo altri, si, considerando che tanti, in quel giorno, hanno avuto pesanti crolli. Saliscendi di chiavi sono visibili anche oggi (se avete chiavi da verificare). Quelle che sto controllando per me, stanno scendendo tutte di posizione; o si sta facendo una riconsiderazione dei siti, oppure il nuovo algoritmo ridefinisce continuamente la SERP, giorno dopo giorno, in base al numero di accessi unici alla pagina. Nel primo caso si dovrebbe capire cosa c' è di nuovo, nel secondo caso un incremento prestazionale ed un più frequente aggiornamento dei contenuti potrebbe fare la differenza.


  • Super User

    Hai ragione. Il problema sai qual'è? E che si va a tentoni perchè nessuno sa ancora niente e nulla sembra determinato.

    La questione sta anche nel fatto che i periodi di "sconvolgimento" sono stati, a mio avviso e salvo miglior parere, almeno 3 : il primo all'incirca verso aprile 2011 ( non tutti sono d'accordo , ma molti hanno notato delle considerevoli variazioni in serp "diverse" da quelle solite che si registrano periodicamente al cambio di qualche algoritmo ) , il secondo ad agosto , all'annuncio ufficiale dell'introduzione di Panda e il 14 ottobre , data in cui c'è stato un upgrade di Panda.

    L'unica cosa che metto in realazione con il primo sconvolgimento di aprile è che ( guarda caso proprio in quel periodo AdPlanner mostra ...variazioni considerevoli di accesso ) è che la user experience abbia un peso maggiore e forse determinante nell'ambito della stessa chiave.

    Altrimenti non si spiegherebbero "movimenti tellurici" registrati che hanno lanciato verso l'alto anche siti che, a dire di molti, non hanno poi questa grande qualità.

    Questi sconvolgimenti riguardano sia siti che sono schizzati in alto in fatto di visite sia quelli collassati.

    In ogni caso credo che tutto questo vada approfondito di più portando la propria esperienza e condividendola in vista di...capirci qualcosa e cercare di agire di conseguenza.

    Ovviamente gli specialisti SEO sono i benvenuti.


  • User

    @bluwebmaster said:

    Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
    Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me. Quindi mi dirigo altrove per cercare visite e visibilità. Sai la prima cosa che mi chiedono i clienti? Voglio apparire su Facebook. Non dicono su Google, Yahoo o altro. Attenzione quando valutiamo un fenomeno come internet. Le cose cambiano nell'arco di pochissimo tempo. Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano. Scusate l'ot ma era per completare un discorso.


  • User

    @formatoweb

    Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network.
    Può anche darsi che ciò sia vero, ma ciascuno di noi, dicendo che sta perdendo visite (o guadagnando), penso che lo faccia analizzando gli accesi relativi ai motori di ricerca, perchè quì si parla di SERP e di movimenti sulla SERP, non di accessi dai siti referenti.


  • User Attivo

    La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.

    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.


  • Super User

    @wolf_cub said:

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità
    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce.

    Hai perfettamente ragione, e ti quoto, ma bisogna tenere presente che il "segreto" non è casuale ( tanto ci sono i brevetti ) : a fronte, infatti, di tanti webmaster in buona fede che hanno come unico scopo quello di lavorare "onestamente" , ce ne sono tanti altri ( si spera pochi ) che sono pronti a sfruttare falle e ricorrere ai soliti trucchetti per procacciarsi visibilità.

    Un esempio : i backlink , che evidenziavano , o potevano farlo, un "buon sito" , poi sono stati "abusati" con le link farm, la rincorsa ai siti "dofollow" ecc.
    Risultato : Google, sembra e sottolineo sembra, ha declassato l'importanza dei backlink.

    Quindi non mi meraviglio affatto che possa esserci da parte del gigante dei motori di ricerca una certa "prudenza".
    Le regole di qualità valgono sempre, quindi , è buona norma attenersi a queste.


  • Super User

    @formatoweb said:

    Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me.

    Rispetto il tuo punto di vista , ma tu stesso dici : "sta funzionando male per me", sottointendendo che non è il motore a perdere colpi, ma il tuo sito a perdere colpi nel motore.

    Ovviamente bisogna capire che i social network oggi rapresnetano una realtà che difficilmente si può ignorare : ma bisogna stare attenti alle mode e all'attrattiva che essi esercitano sui clienti e su molti webmaster.

    Oggi non c'è discussione che non si regga sulla ricerca di come piacere a Google, perchè questi rappresenta ( e parlo per me, ovvio ) un buon 87 % del mio traffico.

    Permettimi una nota : Facebook non nasce come motore di ricerca o "veicolo di visite" .
    Che poi lo sia diventato o lo possa diventare è cosa possibile, ma altamente incerta.
    Un esempio ? Su Google ci pensano i crawler a tirarti dentro le pagine, brutte, belle, buone o cattive che siano.
    Su Facebook devi lavorare a "manina santa" e "sudare" la visibilità.

    Sembra un luogo comune ma non lo vuole essere : quando Facebook sarà in grado di darmi perlomeno la metà degli accessi che mi da Google, allora dirò che Facebook è una realtà.
    Ma fino a quando questi, tranne gli sparuti "picchi" in alcune circostanze, mi regalerà si e no il 4 o 5 % degli accessi ...lo riterrò una fonte di "possibili" accessi come tanti altri ma non dell'importanza di un motore di ricerca.


  • User

    @formatoweb said:

    Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano.

    Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.

    Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.


  • User

    @wolf_cub said:

    La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.

    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.

    Google è fin troppo chiaro. Devi produrre contenuti o servizi utili per l'utente. Gli algoritmi precisi attraverso cui Google determina se i tuoi contenuti/servizi sono utili per l'utente, e QUANTO sono utili per l'utente, possono variare significativamente anche più volte all'anno; quel che resta costante è il fine - per noi webmaster - di creare siti utili per l'utente e - per Google - di cercare di quantificare in modo algoritmico l'utilità di un sito.

    Una volta si usava la keyword density.
    Algoritmo -> una keyword density compresa tra "X"% e "Y'% è quella ottimale
    Utente -> ??? che mi frega della keyword density ??? Io voglio solo che sul sito ci sia quel che cerco

    Poi si è usato la link popularity
    Algoritmo -> Un sito che riceve molti link da altri siti è meglio degli altri
    Utente -> ??? che mi frega di quanti link riceve dagli altri siti ??? Io voglio solo che sul sito ci sia quel che cerco

    Poi si sono usati (?) parametri comportamentali (Bounce rate, ecc.)
    Algoritmo -> Un sito che ha un alto bounce rate è peggio degli altri
    Utente -> ??? Manco so che è il bounce rate !!! Io voglio solo che sul sito ci sia quel che cerco

    In definitiva, gli algoritmi cambiano ma gli utenti cercano sempre la stessa cosa: corrispondenza tra query di ricerca e contenuti/servizi del sito.

    Il webmaster saggio cosa deve fare? Nel lungo periodo, riuscirà a posizionarsi meglio se insegue gli algoritmi dei motori di ricerca, o se capisce meglio le esigenze dell'utente? Se perdo il 50% di traffico a causa di un cambio di algoritmo, è meglio che dedico 3 mesi di studio a cercare di capire l'algoritmo e adeguarmi, o che dedico quel tempo a migliorare ulteriormente la qualità del mio sito?


  • User Attivo

    @macantoni: Mi spiace ma io noto una certa discrasia nel tuo ragionamento.

    Se io (webmaster) sono convinto di avere creato contenuti di qualità nel rispetto delle linee guida e tu (Google) mi tagli il 40 % del traffico allora è come se tu mi facessi capire che i miei contenuti non sono poi così buoni. Ma se non sono così buoni dovresti farmelo capire in qualche modo. E' qui che deve stare la trasparenza.

    Lo stesso discorso vale per le altre questioni sollevate. Hai dimenticato che tra il webmaster e l'utente c'è sempre il filtro di Google. Una certa keyword density non è da considerarsi ottimale in sè ma nella misura in cui fa si che i miei contenuti possano posizionarsi ed essere letti. Così almeno è stato fino ad ora. Che scrivo a fare se nessuno mi trova?

    Lo stesso dicasi per la link popularity.

    E' esattamente quello che dici tu :"corrispondenza tra query di ricerca e contenuti/servizi del sito".

    E se il bounce rate non è un buon parametro a che santo dovrei aggrapparmi io, povero webmaster? Quindi, a mio avviso, è inutile perdersi nel cercare di "migliorare la qualità" se ti mancano i criteri per valutare come la qualità viene valutata. Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze? Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?

    @Bluwebmaster: nel mio singolo caso non credo che il calo sia imputabile ai backlinks a meno che Google non abbia svalutato quella decina di directory a cui ho iscritto il sito. La cosa al momento più verosimile mi pare la questione dei singolari e plurali. Comunque qui si esce completamente da Panda, credo che si possa convenirne.


  • User Attivo

    Dico la mia visto che anche con i miei 2 blog principali ho avuto problemi. Il primo blog (settore viaggi) ha avuto problemi a partire da Aprile circa... siamo passati da una media di 2000 unici al giorno con picchi di 3500 ad una media di circa 300 unici di settembre con cali che si sono accentuati ad agosto (la botta finale) e poi più limitata a Ottobre (tanto che c'era più da togliere?).

    Il secondo blog andava benissimo fino al 13 Ottobre... fcendo una media di circa 2500-3000 unici al mese (parliamo di un settore molto competitivo... quello economico).

    Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico.

    Ovviamente parliamo di contenuti originali di buona qualità (articoli realizzati in maniera professionale con una lunghezza variabile dalle 250 parole per alcune (poche) news fino ai 500-600 parole delle guide. Questo solo per far capire che non parliamo di un blog fatto di articoletti di 100 parole scopiazzati qui e li.

    In queste pagine ho letto davvero molte cose interessanti ma quello che penso e che non può essere una perdita di valore dei backlink... perchè se così fosse tolti quelli google dovrebbe valutare cosa?

    Vi posso portare l'esempio di diverse serp dove in prima posizione per key molto remunerative ci sono siti MDA di scarsissimo valore fatti da testi scarni e assolutamente inutili all'utente e analizzando i link in entrata (colpo di scena) trovi solo qualche link da commenti, un po di link nei profili dei forum (magari pure in inglese) e al massimo qualche link su siti di article marketing.

    Ma allora chi ha creato nel tempo, con costanza una serie di ottimi link in entrata, a tema con il tuo settore, producendo contenuti di qualità che deve fare? Non è questo che vuole google?

    Non voglio dire che Big G sia in crisi, ma di sicuro che ci siano delle serp inguardabili questo si. E lo posso dire con certezza perchè io stesso ho fatto qualche test (che volendo può fare chiunque) facendo arrivare in prima pagina siti inguardabili (spesso una paginetta o poco più) senza nessuno sforzo.

    Insomma chi vogliamo prendere in giro... ci vorrebbero regole precise e controlli sulla qualità severi. Perchè se perdo 10 posizioni a danno di un mio concorrente ben venga, ma se mi metti dietro ad un sitarello di 3 pagine con un testo di poche decine di parole e 3 blocchi adsense... ma chi vogliamo prendere in giro?!


  • User Attivo

    Mettiamo che ci sono 100 siti identici (il mio caso), l'unica differenza è il nome del dominio, perchè tutte le mie pagine sono scese mentre quelle di un mio competitor sono rimaste li ? L'unica conclusione che ho potuto trarre è che ho subito una penalizzazione sui backlinks....però sembrano penalizzate in maniera differente le anchors...se per una anchor google ritiene che non è cresciuta in maniera naturale, ti porta indietro nelle serp.
    Oggi per esempio sono finito tra i primi 100 risultati per una anchor competitiva, cosa che non mi era mai successa...e credo di non averla spinta tanto, a parte qualche anchor qua e là.
    Il problema adesso è come recuperare quelle coppie di chiavi affossate da google.


  • User

    @wolf_cub said:

    Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze?

    Certamente che devi farlo, ogni giorno. Non un sondaggio nel senso di fargli riempire il questionario, ma nel senso di studiarne il comportamento. Le statistiche di Analytics ed anche altri strumenti che se sai programmare puoi farti da solo, possono aiutarti a capire se l'utente arriva sul tuo sito e riesce a trovare quel che cerca oppure no.

    Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?

    No, ma sei certo di fare qualcosa che Google ha interesse a mettere in evidenza, perché è interesse di Google mostare agli utenti dei risultati che soddisfano quel che cercano. Gli utenti, continuerebbero ad usare Google, se i suoi algoritmi non fossero ottimizzati per piacere all'utente?


  • User Attivo

    Dopo avere visto una crescita continua (dovuta credo alla giovinezza del sito) negli ultimi 10 giorni sono stato decisamente penalizzato anche io nel sito in firma (più o meno un 25% di unici in meno) ... ma sinceramente non so quanto sia Panda e quanto altri fattori ... forse i più esperti hanno idee più precise al riguardo ... certo fa rabbia 😞


  • User

    @macantoni said:

    Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.

    Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
    Ti potrei fare l' esempio dell' esperienza inversa. Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi? La stessa cosa accade per tutto il resto nelle dovute proporzioni. Vorrei rispondere a Stefanoimg quando dice:"Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico."
    Ti dico cosa succede poi ognuno può trarre le proprie considerazioni. La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato. Fatta eccezione per quei siti che hanno un nome talmente famoso e facilmente riconoscibile. Gli aggiornamenti di Google hanno rimescolato le carte come succede in una partita a BJ dando a tutti la possibilità di apparire. Quel leggero balzo indietro nella serp significa perdere una % altissima di visite. Che sia giusto o sbagliato purtroppo non possiamo dirlo semplicemente perchè Google è un' azienda privata e come tale fa solo i suoi interessi (anche se in teoria i suoi interessi siamo noi utenti).
    Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS. Bilanciate bene la pubblicità sul vostro sito sia come quantità che come qualità. Non fate scappare gli utenti solo per qualche euro in più.


  • Super User

    @formatoweb said:

    Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi?

    La tesi è giusta, ma come ogni tesi, a mio modesto avviso , va integrata da alcune osservazioni, altrimenti sembra che Facebook sia il cerchio "magico" dove entrare e proliferare. ( 😄 ).
    Intanto tu stesso poni l'esempio di un "attività di piccolo livello" , cioè, in ultima analisi , abbastanza circoscritta.
    L'altra osservazione che muovo è che per avere un "discreto" numero di "amici" tali da innescare un "passaparola" , occorre che il gruppo sia abbastanza popolato e, particolare non trascurabile, direttamente "interessato" alla merce che proponi.
    A questo punto va osservato necessariamente che per formare gruppi "discretamente" popolati occorre, tempo, pazienza e pratica di gestione cosa che, nel sul complesso significa "tempo" da spendere, e il tempo è denaro.
    Inoltre il concetto di passaparola è valido , ma non è che gli utenti del gruppo stiano li tutti ad aspettare a "bocca aperta" le occasioni che si propongono con un bel "ohhhhhhhhhhhhh che meraviglia" quando le proponi.
    E questo per la stessa ragione che Facebook è una bella vetrina posta nel centro di una città : potenzialmente tutti i passanti potrebbero fare "passaparola" delle offerte in vetrina, ma non è certo che lo facciano.
    Fermo restando che Facebook , prima o poi, arriverà a una stretta proprio su questo , quando si accorgerà, ma pare se ne sia già accorto, che in questo modo si eludono i "canali pubblicitari" e quindi, in definitiva, perde soldi.

    In ogni caso Facebook e Google fanno due mestieri completamente diversi : esistono due punti dobe si intersecano, ma hanno due utilità diverse e due modi di essere gestiti diversi.

    @formatoweb said:

    La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato.

    Mi sento di sposare questa tesi, fermo restando l'insostituibilità di Google come motore e l'impossibilità a sostituirlo con un social network.
    Se cerco "legumi lessi" vado su Google non su facebook.
    Dici bene che il "Popolo" ha imparato a navigare : però ti chiedo , secondo te non si accorge allo stesso modo degli spammer su facebook o sulle offerte farlocche e ingannevoli di "cellulari a 9 euro" ( per citare il tuo esempio ) offerti da perfetti sconosciuti ?
    Fermo restando che lo scopo della maggioranza dei webmaster non è vendere.

    @formatoweb said:

    Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS.

    Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
    E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.

    Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.