- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Panda ubriaco?
-
Dico la mia visto che anche con i miei 2 blog principali ho avuto problemi. Il primo blog (settore viaggi) ha avuto problemi a partire da Aprile circa... siamo passati da una media di 2000 unici al giorno con picchi di 3500 ad una media di circa 300 unici di settembre con cali che si sono accentuati ad agosto (la botta finale) e poi più limitata a Ottobre (tanto che c'era più da togliere?).
Il secondo blog andava benissimo fino al 13 Ottobre... fcendo una media di circa 2500-3000 unici al mese (parliamo di un settore molto competitivo... quello economico).
Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico.
Ovviamente parliamo di contenuti originali di buona qualità (articoli realizzati in maniera professionale con una lunghezza variabile dalle 250 parole per alcune (poche) news fino ai 500-600 parole delle guide. Questo solo per far capire che non parliamo di un blog fatto di articoletti di 100 parole scopiazzati qui e li.
In queste pagine ho letto davvero molte cose interessanti ma quello che penso e che non può essere una perdita di valore dei backlink... perchè se così fosse tolti quelli google dovrebbe valutare cosa?
Vi posso portare l'esempio di diverse serp dove in prima posizione per key molto remunerative ci sono siti MDA di scarsissimo valore fatti da testi scarni e assolutamente inutili all'utente e analizzando i link in entrata (colpo di scena) trovi solo qualche link da commenti, un po di link nei profili dei forum (magari pure in inglese) e al massimo qualche link su siti di article marketing.
Ma allora chi ha creato nel tempo, con costanza una serie di ottimi link in entrata, a tema con il tuo settore, producendo contenuti di qualità che deve fare? Non è questo che vuole google?
Non voglio dire che Big G sia in crisi, ma di sicuro che ci siano delle serp inguardabili questo si. E lo posso dire con certezza perchè io stesso ho fatto qualche test (che volendo può fare chiunque) facendo arrivare in prima pagina siti inguardabili (spesso una paginetta o poco più) senza nessuno sforzo.
Insomma chi vogliamo prendere in giro... ci vorrebbero regole precise e controlli sulla qualità severi. Perchè se perdo 10 posizioni a danno di un mio concorrente ben venga, ma se mi metti dietro ad un sitarello di 3 pagine con un testo di poche decine di parole e 3 blocchi adsense... ma chi vogliamo prendere in giro?!
-
Mettiamo che ci sono 100 siti identici (il mio caso), l'unica differenza è il nome del dominio, perchè tutte le mie pagine sono scese mentre quelle di un mio competitor sono rimaste li ? L'unica conclusione che ho potuto trarre è che ho subito una penalizzazione sui backlinks....però sembrano penalizzate in maniera differente le anchors...se per una anchor google ritiene che non è cresciuta in maniera naturale, ti porta indietro nelle serp.
Oggi per esempio sono finito tra i primi 100 risultati per una anchor competitiva, cosa che non mi era mai successa...e credo di non averla spinta tanto, a parte qualche anchor qua e là.
Il problema adesso è come recuperare quelle coppie di chiavi affossate da google.
-
@wolf_cub said:
Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze?
Certamente che devi farlo, ogni giorno. Non un sondaggio nel senso di fargli riempire il questionario, ma nel senso di studiarne il comportamento. Le statistiche di Analytics ed anche altri strumenti che se sai programmare puoi farti da solo, possono aiutarti a capire se l'utente arriva sul tuo sito e riesce a trovare quel che cerca oppure no.
Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?
No, ma sei certo di fare qualcosa che Google ha interesse a mettere in evidenza, perché è interesse di Google mostare agli utenti dei risultati che soddisfano quel che cercano. Gli utenti, continuerebbero ad usare Google, se i suoi algoritmi non fossero ottimizzati per piacere all'utente?
-
Dopo avere visto una crescita continua (dovuta credo alla giovinezza del sito) negli ultimi 10 giorni sono stato decisamente penalizzato anche io nel sito in firma (più o meno un 25% di unici in meno) ... ma sinceramente non so quanto sia Panda e quanto altri fattori ... forse i più esperti hanno idee più precise al riguardo ... certo fa rabbia
-
@macantoni said:
Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.
Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
Ti potrei fare l' esempio dell' esperienza inversa. Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi? La stessa cosa accade per tutto il resto nelle dovute proporzioni. Vorrei rispondere a Stefanoimg quando dice:"Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico."
Ti dico cosa succede poi ognuno può trarre le proprie considerazioni. La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato. Fatta eccezione per quei siti che hanno un nome talmente famoso e facilmente riconoscibile. Gli aggiornamenti di Google hanno rimescolato le carte come succede in una partita a BJ dando a tutti la possibilità di apparire. Quel leggero balzo indietro nella serp significa perdere una % altissima di visite. Che sia giusto o sbagliato purtroppo non possiamo dirlo semplicemente perchè Google è un' azienda privata e come tale fa solo i suoi interessi (anche se in teoria i suoi interessi siamo noi utenti).
Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS. Bilanciate bene la pubblicità sul vostro sito sia come quantità che come qualità. Non fate scappare gli utenti solo per qualche euro in più.
-
@formatoweb said:
Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi?
La tesi è giusta, ma come ogni tesi, a mio modesto avviso , va integrata da alcune osservazioni, altrimenti sembra che Facebook sia il cerchio "magico" dove entrare e proliferare. ( ).
Intanto tu stesso poni l'esempio di un "attività di piccolo livello" , cioè, in ultima analisi , abbastanza circoscritta.
L'altra osservazione che muovo è che per avere un "discreto" numero di "amici" tali da innescare un "passaparola" , occorre che il gruppo sia abbastanza popolato e, particolare non trascurabile, direttamente "interessato" alla merce che proponi.
A questo punto va osservato necessariamente che per formare gruppi "discretamente" popolati occorre, tempo, pazienza e pratica di gestione cosa che, nel sul complesso significa "tempo" da spendere, e il tempo è denaro.
Inoltre il concetto di passaparola è valido , ma non è che gli utenti del gruppo stiano li tutti ad aspettare a "bocca aperta" le occasioni che si propongono con un bel "ohhhhhhhhhhhhh che meraviglia" quando le proponi.
E questo per la stessa ragione che Facebook è una bella vetrina posta nel centro di una città : potenzialmente tutti i passanti potrebbero fare "passaparola" delle offerte in vetrina, ma non è certo che lo facciano.
Fermo restando che Facebook , prima o poi, arriverà a una stretta proprio su questo , quando si accorgerà, ma pare se ne sia già accorto, che in questo modo si eludono i "canali pubblicitari" e quindi, in definitiva, perde soldi.In ogni caso Facebook e Google fanno due mestieri completamente diversi : esistono due punti dobe si intersecano, ma hanno due utilità diverse e due modi di essere gestiti diversi.
@formatoweb said:
La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato.
Mi sento di sposare questa tesi, fermo restando l'insostituibilità di Google come motore e l'impossibilità a sostituirlo con un social network.
Se cerco "legumi lessi" vado su Google non su facebook.
Dici bene che il "Popolo" ha imparato a navigare : però ti chiedo , secondo te non si accorge allo stesso modo degli spammer su facebook o sulle offerte farlocche e ingannevoli di "cellulari a 9 euro" ( per citare il tuo esempio ) offerti da perfetti sconosciuti ?
Fermo restando che lo scopo della maggioranza dei webmaster non è vendere.@formatoweb said:
Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS.
Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.
-
Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.E qui sono daccordo anch' io, ma non basta, non sono gli unici parametri. C' è qualcosa che ci sfugge o che, perlomeno, non è emerso in questa discussione. Inoltre, per le prestazioni, secondo voi, qual' è il parametro di riferimento come tempo di risposta della pagina? 5 secondi ? 3 secondi ? o meno ? Se con gli strumenti per webmaster ho una pagina che impiega 3,1 secondi, sono più lento del 50% dei siti; se con lo stesso strumento ho una pagina che impiega 2,9 secondi, sono più veloce del 50% dei siti. Per scendere sotto i 3 secondi, devo disattivare gli AdSense, in quanto, l' unica ottimizzazione che potrei ancora fare è quella di acquistare un servizio CDN. Inoltre, in base a questa situazione, va ad influire anche l' hosting. Devo per forza avere un server dedicato o un VPS per non essere danneggiato da qualcun altro che condivide la mia risorsa ? Quindi Google secondo questo ragionamento, non privilegia i contenuti di qualità, ma priviligia chi si può permettere un server dedicato o un VPS ed inoltre chi si può permettere anche una CDN. E' per questo che secondo me il discorso è valido solo in parte, Google, comportandosi in questo modo, farebbe troppo spudoratamente interessi di parte.
-
Che il fattore "velocità" sia determinante , se ne discute , ormai, da tempo.
E quanto dici è giusto, con l'unica variazione che Google non intende premiare chi ha un "buon numero di risorse" in termini di hosting, e quindi di banda disponibile, ecc., ma è ovvio che questo influisce.Secondo me, ma è opinabile, punisce soprattutto quelli che hanno fatto uso , per troppo tempo, di "chincaglieria" rendendo i loro siti "carini" ma lentissimi da caricare con vari widget e quanto altro.
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".E' ovvio che se "puoi spingere" in termini di velocità è tutto guadagno, di sicuro.
Ed è altrettanto ovvio che questo comporta un budget, spesso inconciliabile con i piccoli publisher, in termini di server, cdn ed altro.Trovo quindi giusto pensare di rendere i siti quanto più veloci possibili : è il primo punto , a mio avviso, di sicuro interesse per tutti i publisher.
Resta poi da capire come valorizzare i propri contenuti per renderli più appetibili e quindi cercare di migliorare quella serie di parametri che , ormai , sembrano identificarsi con frequenza di rimbalzo e altre cose di cui abbiamo discusso.
-
Sembra che oggi ci sono ancora grossi movimenti sulla SERP. Questa mattina ero tornato agli accessi che avevo prima del 14/10 e le chiavi per me più significative erano tornate in cima; da quasi mezz' ora sembra invece che siamo tornati alla situazione di ieri. E' come se Google stia facendo delle prove sulla Serp non soddisfatto dei risultati ottenuti.
-
Dalle 23 del 26/10 movimenti sconvolgenti in serp per un mio sito che aveva perso molto il 14/10 e sembra fino ad ora che la cosa continui.
Fosse che panda non ci sta capendo nulla nemmeno lui??
-
Volevo segnalare alcune cose. La prima è che anche gli altri motori seguono l' andamento di Google; per gli altri motori la cosa non si nota perchè gli accessi sono minimi, ma aumentando gli accessi da Google, aumentano di conseguenza quelli degli altri motori, se Google diminuisce, diminuiscono anche gli altri. Questo può significare due cose: o google ha acquisito tutti gli altri motori mettendo anche su questi lo stesso algoritmo, o qualche parametro li accomuna tutti e questo non può che essere la prestazione del sito, perchè, personalmente, la cosa più significativa che avevo fatto, era togliere gli AdSense (non erano nell' header ed erano molto inferiori al contenuto); per ora li ho rimessi, ma temo che dovrò toglierli di nuovo (1 secondo in meno). Altre modifiche minori sono state il noindex per le liste (ma non per i tag che ancora non riesco a fare. Altra cosa da non sottovalutare, è che la prima pagina degli strumenti per il webmaster di Google, oggi è in inglese; mi viene da pensare che sia stato fatto un errore da Google.it e la serp restituita sia ora quella di Google.com e non quella di Google.it. I mei aumenti sono generati da due chiavi che hanno ripreso quota, mentre altre tre o quattro chiavi sono ancora penalizzate. Le chiave penalizzate sono state superate da siti che hanno il noindex sui tag, non ho ancora controllato le chiavi che hanno ripreso.
-
Ho circa una 20ina di piccoli siti, alcuni in lingua italiana e alcuni in lingua inglese.
Tutti molto eterogenei: dalle 3 alle 30 pagine, alcuni ottimizzati per Adsense, altri per il mercato dell'affiliazione (clickbank), alcuni con i tag altri senza.Tutti costruiti seguendo le regole di qualità, senza contenuti duplicati, senza un uso di tecniche "black hat" senza l'uso di farm per la costruzione di link dall'esterno, con una buona diversità di anchor text (oltre alla variazione delle keyword, ho usato anche gli URL).
TUTTI e dico tutti indistintamente hanno subito un tracollo verticale il 18 ottobre: quindi per prima cosa non capisco perchè si parli di due momenti diversi di implementazione dell'algoritmo. Nei mesi di aprile/agosto, primi momenti di applicazione di Panda, invece non ho rilevato alcuna sostanziale diversità nelle SERP, anzi forse un miglioramento.
Ad essere sincero mi aspettavo una revisione della forza dei link building: non è possibile che il 70-80% del peso del posizionamento di un sito dipendesse da questi, quando ormai la compravendita di link è un mercato fiorente e conclamato. Di sicuro posso dire di essere pienamente d'accordo con chi dice che il link building non è penalizzante: e non lo sarai mai aggiungo, perchè altrimenti sarebbe troppo facile penalizzare i propri concorrenti.
La mia domanda è: dopo 11 pagine di 3d, il 95% di chi ha scritto lamenta un calo di visite. Ma allora chi ha avuto dei vantaggi? Se il 95% degli utenti occupava le prime pagine con i propri siti, come possono aver guadagnato posizioni quei siti che non essendo in prima pagina non ricevevano visite? C'è qualcosa che ancora non mi torna: come può contare così tanto la user experience? Davvero forse è stata rivista l'importanza dei backlink, ma come può un algoritmo giudicare la qualità o anche la velocità di acquisizione degli stessi?
Non può quest'ultima essere un fatto penalizzante, perchè altrimenti ne subirebbero le conseguenze tutti i siti di notizie.
Faccio un esempio: quanti link spontanei avrà ricevuto il primo sito che ha scritto una notizia clamorosa? Non può certo essere penalizzato per questo fattore.
Insomma non mi è ancora dato di capire quali siano i fattori che abbiano penalizzato indistintamente i miei siti. Forse sono ancora soggetti alla G dance?Ho notato (ho forse me lo sono perso) che nessuno ha menzionato la privacy: bazzicando forum e blog USA ho letto che con il nuovo algoritmo, Google toglierà ai webmaster la possibilità di conoscere quali sono le parole chiave che portano al proprio sito in funzione della privacy della navigazione: http://imimpact.com/non-public/protected-by-google/
Nessuno ha da lamentarsi di questo?
-
@ndwolfwood said:
Ad essere sincero mi aspettavo una revisione della forza dei link building: non è possibile che il 70-80% del peso del posizionamento di un sito dipendesse da questi, quando ormai la compravendita di link è un mercato fiorente e conclamato. Di sicuro posso dire di essere pienamente d'accordo con chi dice che il link building non è penalizzante: e non lo sarai mai aggiungo, perchè altrimenti sarebbe troppo facile penalizzare i propri concorrenti.
Infatti secondo me non conta la mole di link in breve tempo, ma le anchor che si usano...usarne una, o più, tutte molto similari, potrebbe farti cascare, perchè google potrebbe considearlo spam, e quindi penalizzarti su quella specifica anchor.
Io sul mio sito avevo spinto tutte le categorie, stranamente il 14 sono sparito dalla serp per tutte queste anchor...stranamente in questi giorni con la homepage invece sono comparso tra i primi 100 per una chiave molto competitiva, quindi non ho subito una penalizzazione sul dominio.
Ritengo quindi che se google considera i tuoi backlink costruiti ad arte, ti penalizza per quelle anchor che trova
-
@bluwebmaster said:
Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
E' capitato a me , figurati agli utenti "normali".Ma è affidabile ciò che dice in Google webmaster sulla velocità? Adesso uno dei miei siti è velocissimo, puro html, non c'è più alcuna elaborazione lato server... eppure continua a dire che è lento.
Secondo me sbarella molto anche Google nelle valutazioni... non sono sicurissimo ancora perchè le modifiche le ho fatte il 22/10 (adesso è una scheggia) e lo strumento webmaster segnala un controllo proprio il 22/10 (potrebbe averlo fatto poco prima dei cambiamenti).
Ma nei prossimi giorni o mi dice che è almeno più veloce di prima o non è affidabile. Una pagina singola adesso mi si apre in un secondo netto!
-
Secondo me sbarella molto anche Google nelle valutazioni... non sono sicurissimo ancora perchè le modifiche le ho fatte il 22/10 (adesso è una scheggia) e lo strumento webmaster segnala un controllo proprio il 22/10 (potrebbe averlo fatto poco prima dei cambiamenti).
Infatti, secondo me, queste sono ancora le prestazioni che Google rilevava prima delle tue modifiche. Se mantieni le prestazioni, per far passare prima Google, inserisci un nuovo contenuto e, mi raccomando, fai sapere.
-
Sì, è estremamente affidabile, a patto che il numero di visitatori del sito sia sufficientemente alto.
Coincide esattamente con quando dice pagespeed.
Pagespeed comunque è pur sempre uno strumento oggettivo, senza l'intervento umano e l'esperienza può trarre molto in inganno e far anche commettere degli errori.
Ad esempio un'immagine potrebbe risultare ottimizzata, ma in realtà riducendo la "qualità software" non si riduce la "qualità visiva", risparmiando un sacco di byte.
L'ottimizzazione che fornisce per l'html, a parte far diventare la pagina non più validata w3c, può far perdere alcune parti commentate che in realtà sono istruzioni css per Internet Explorer.
I css possono essere estremamente ridotti, senza che lo strumento se ne accorga (non applica ragionamenti umani).
Può fornire percententuali basse su siti in realtà velocissimi, o comunque che offrono un impatto per l'utente molto valido, perché caricano varie cose in background. O viceverda percentuali alte per siti non proprio eccezionali.
Ad esempio questa stessa pagina del forum, ha invece una percentuale non proprio male (82%), ma in realtà ha margini di miglioramento enormi, richiede ben 7 secondi per essere ricaricata.
ecc..
-
Questi sono i dati del mio sito che è stato pesantemente penalizzato:
La penalizzazione ha avuto luogo venerdi 14 ottobre, durante i precedenti cambi di algoritmo avvenuti tra aprile e agosto di quest'anno non avevo ravvisato alcun cambiamento.
Il sito è completamente scomparso da quasi tutte le SERP, portando le visite giornaliere da una media di 300 a circa 40.
L'unica keyword che è rimasta dov'era è una per la quale il sito si trova in prima posizione con una pagina che ha PR1 (tutte le altre pagine del sito hanno PR0). Questa chiave era in cima già da circa 3-4 mesi.
Queste sono le statistiche globali del sito:1,52 Pagine/Visita
00:01:15 Tempo medio sul sito
81,98% Frequenza di rimbalzo
82,69% % nuove visiteIl sito è un blog su piattaforma WordPress, tag e categorie NON sono indicizzate. Su tutto il sito è presente un unico link in uscita su una sola pagina.
La politica di link-building degli ultimi 2-3 mesi è stata abbastanza "artificiosa", si è trattato in pratica di un esperimento che stavo portando avanti: ogni giorno ho aggiunto 2-3 backlink sempre per le stesse 2-3 anchor text.
Anche se la velocità di caricamento è molto buona, vale la pena notare che il sito è monetizzato tramite Simply, e che i banner di questo circuito a volte impiegano molto tempo a comparire, oppure non compaiono affatto.
-
@Atanor
Da quello che hai indicato, secondo ciò che è stato rilevato nella discussione, per me ci sono parecchi fattori che hanno potuto influire. Primo, la frequenza di rimbalzo (superiore al 70%), quindi il tempo medio e le pagine viste. Inoltre, da quello che dici, i banner impiegano molto tempo a comparire oppure non compaiono affatto e questo sembra contraddire che la velocità di caricamento è buona, quando per velocità di caricamento personalmente intento l' intera pagina comprensiva di banner.
Ciò che invece mi fa piacere sentire, è che utilizzi noindex per tags e categorie; questo indica che duplicati eventuali, relativi a questo uso, non sono penalizzanti. Per meglio capire questo fattore, posterò in seguito una ulteriore domanda.
-
DOMANDA:
Cosa sono veramente i contenuti duplicati ?
Pongo adesso un altro quesito, posto anche in altri forum: Google penalizza veramente i siti con contenuto duplicato ? Ma per contenuto duplicato, cosa si intende?
Chiedo questo perchè non vorrei perdere le posizioni acquisite nella Serp dai tag indicizzati, prima di applicare la modifica quì risolta: drupalitalia.org/node/16347 ; infatti, in molti casi e per alcune chiavi, le pagine indicizzate da Google attraverso i tags, superano di molto la pagina stessa.
Per fare questo riporto un passo della Guida per webmaster di Google relativa alle Norme sulla qualità:
"Il termine "contenuti duplicati" si riferisce in genere a blocchi di contenuti importanti all'interno o tra i domini che sono identici o molto simili. In genere questa pratica non è all'origine ingannevole. Tra gli esempi di contenuti duplicati non dannosi vi sono:- Forum di discussione che possono generare sia pagine regolari che pagine "abbreviate" destinate a dispositivi mobili
- Contenuti archiviati visualizzati o collegati tramite più URL distinti
- Versioni unicamente stampabili delle pagine web"
In base al secondo punto, ritengo che le pagine indicizzate attraverso i tags, che contengono le anteprime dei contenuti che hanno lo stesso tag, non rappresentano contenuti duplicati dannosi, ma contenuti collegati tramite più URL distinte.
Infatti, dagli strumenti per webmaster, non ho duplicati per questi contenuti.
Voi che ne pensate ? Posterò lo stesso quesito anche sul blog di Google.
-
@giovanninews said:
Inoltre, da quello che dici, i banner impiegano molto tempo a comparire oppure non compaiono affatto e questo sembra contraddire che la velocità di caricamento è buona, quando per velocità di caricamento personalmente intento l' intera pagina comprensiva di banner.
Hai ragione, mi sono contraddetto. Ciò che volevo dire è che il sito in sè è ben performante (si trova su un buon hosting), ma che la velocità è penalizzata dal caricamento dei banner. Ho dimenticato di specificare che c'erano ben 5 banner su ogni singola pagina.
Non so cosa utilizzate per verificare la velocità di caricamento delle pagine, forse i dati del WebMaster Tools? Nel caso, questi sono i miei:
postimage.org / image / m5w9zpow7