• User Attivo

    @Danilo83 said:

    Il 15 Agosto è un periodo un pò azzardato per ritenere dimezzate le proprie visite sul blog così come su un sito. Periodo di vacanze.

    Credo che analisi più accurate vadano fatte intorno alla metà di Settembre. E fino ad oggi, a parte casi eclatanti come Liquida e Wikio ad esempio, Google Panda non ha sortito gravi danni in Italia.

    Sono restato in 1° o 2° posizione per keywords importanti da anni, e guarda caso dal 15 agosto mi ritrovo dalla 7° posizione in giu? Non credo che c'entrino i vacanzieri o i mesi dell'anno.


  • User Attivo

    @Tigullioweb said:

    Del 50 70% rispetto a quando? all'agosto dell'anno scorso o al luglio di quest anno?

    Rispetto alle stesse date e confrontando anche i giorni della settimana.


  • Moderatore

    Io per ora non faccio previsioni, ho molti siti, alcuni sono stabili altri un po sotto la media, alcuni sono saliti un bel pò. Ma per me il primo vero giorno normale è stato ieri, quindi almeno un altra settimana per farsi un idea credo serva.
    Fra l'altro io il 12 agosto non ho notato cambiamenti particolari rispetto ai giorni immediatamente precedenti o successivi.

    Per quello che riguarda il posizionamento delle varie kw per ora ho soltanto la vaga impressione che (solo per alcuni siti) ci sia stato un leggero peggioramento della posizione delle parole chiavi fino ad oggi meglio posizionate, ma un miglioramento di quelle fino ad oggi peggio posizionate.

    Insomma stesso traffico ma con piu parole chiave.

    Ciao da Fabio


  • User

    @bmastro said:

    Scusa, ma mi spieghi questa cosa?
    Vorresti dire che scrivi un centinaio di articoli al giorno? :mmm:

    Li avevo scritti e fatti scrivere nel giro di qualche mese. Comunque sono passato da 800 a 3000 a 12000 e infine 27000 serps su Google nel giro di una settimana. Un record. Però le visite sono sempre le stesse (20 in media).


  • User Attivo

    Ma in definitiva che tipo di sito o blog dovrebbe essere penalizzato?
    Di sicuro gli aggregatori questo lo si è capito ... ma per il resto?
    pochi contenuti forse ... cosa altro?
    Intanto a parte le lagnanze iniziali direi che l'unica cosa sensata da fare è farci amico Panda e riattare i nostri siti in modo che gli piacciano direi ...


  • User Attivo

    Non credo ci sia bisogni di allarmarsi per ora dato che nel periodo estivo è normale un abbassamanto di SERP e visite.

    Per il resto se hanno penalizzato gli aggregatori tanto meglio!


  • User

    @Tuonorosso said:

    io sono passato dal -35% del 12 agosto al -20/15 di questi giorni...

    Strani movimenti da ieri su G, probabilmente riferibili ad un pesante aggiustamento dell'algoritmo Panda. Su un nostro sito penalizzato (ingiustamente per come la vedo io) da circa 15.000 visitatori al giorno l'11 agosto siamo passati in 2 giorni a 5.600, ma il 30 agosto siamo tornati in un solo giorno a 11.000 visitatori.

    Nei giorni dopo il 12 siamo intervenuti per:

    1. eliminare contenuti duplicati (eliminando un blog per esempio che presentava sostanzialmente le new-entry del sito con testi duplicati)
    2. aggiungendo nel robots.txt il disallow su sezioni del sito in lingue che non avevano un sufficiente numero di traduzioni
    3. eliminando alcuni bug nel codice che indirizzavano a pagine inesistenti
    4. eliminando alcuni bug nel codice che creavano loop sui redirect
    5. mantenedo alcune pagine di dettaglio ma raggruppandole con il rel="canonical" alla pagina principale
    6. mantenedo alcune pagine ma segnadole con "nofollow,noindex"
    7. specificando il rel="canonical" sul sito mobile, puntandolo sulle rispettive pagine del sito "desktop"
    8. diminuendo drasticamente l'impatto di adsense (anche se il layout era stato da poco approvato da una strategist di google adsense)
    9. Aumentando le prestazioni del sito, togliendo più di 3 secondi al caricamento delle pagine, ottimizzando tutte le immagini, installando un reverse proxy dedicato ai contenuti statici, e ottimizzando le QUERY togliendo qualche decina di SELECT *

    Come affiliati ad un importante portale di prenotazioni alberghiere, usiamo ancora i testi forniti dal nostro partner (eravamo certi che questo fosse il problema... ora non sappiamo più cosa pensare).
    Non abbiamo ancora provveduto a riscrivere tutti i testi di descrizione degli hotel (17.000 * 4 lingue!), eppure i risultati sono in netto miglioramento.

    Sinceramente non so ancora se la causa è un aggiustamento dell'algoritmo o i nostri primi interventi.
    Personalmente propendo per l'aggiustamento...
    Parlando con alcuni "Affiliate Account Manager" mi è stato detto che molti siti affiliati sono stati colpiti da Panda, ma sostanzialmente siti il cui UNICO contenuto era quello del partner, senza alcun "valore aggiunto".

    Ora, il nostro portale è composto di 4 subdomains diversi, divisi per argomento, l'unico colpito quello degli hotel.
    E' vero che la sezione degli hotel contiene molti duplicati (i testi del partner), ma è altrettanto vero che forniamo un'ingente quantità di contenuti "di valore" nelle altre sezioni. Se Panda, come scritto, agisce a livello di host e non di dominio, potrebbe essere nel nostro caso incappato in un clamoroso "falso positivo".

    Ma mi chiedo... non ci potevano pensare prima a Mountain View?
    Ho passato le 2 peggiori settimane della mia vita... e ancora ho molte più domande che risposte.

    Spero che queste indicazioni siano di aiuto a qualcuno.

    Trilli0


  • ModSenior

    @Trilli0 said:

    eppure i risultati sono in netto miglioramento.

    Trilli0, sono davvero strafelice per te e per il tuo business, però proprio perché vedi già dei risultati nettamente migliori, escluderei nel tuo caso una penalizzazione dovuta a Panda.

    Evidentemente il tuo problema era solo di contenuti duplicati ed è stato solo una coincidenza che la penalizzazione sia stata applicata in concomitanza con il lancio di Panda anche in Italia.

    Valerio Notarfrancesco


  • User Attivo

    @Trilli0 said:

    Ma mi chiedo... non ci potevano pensare prima a Mountain View?
    Ho passato le 2 peggiori settimane della mia vita... e ancora ho molte più domande che risposte.

    Spero che queste indicazioni siano di aiuto a qualcuno.

    Trilli0

    Penso invece che tu sia stato colpito proprio dal Panda, la tua vicenda non è dissimile ad altri siti statunitensi colpiti ingiustamente nei mesi scorsi. Nei giorni successivi (alcuni addirittura senza che cambiassero una sola virgola) sono risaliti: è probabile che ci sia stato un massiccio intervento di quality rater.

    A Mountain View sanno perfettamente che è impossibile per un algoritmo lavorare con qualità su temi molto delicati e soggettivi, l'uso dei quality rater è stato impiegato in maniera massiccia per "ripulire" grossi danni effettuati dall'algoritmo.

    Evidentemente in questa "guerra" hanno calcolato che pur con tante vittime innocenti i costi-benifici sarebbero stati comunque positivi con questo algoritmo.

    Non solo tu sei migliorato, ma anche molti siti che seguo, su alcuni non è stato effettuato il benchè minimo intervento, eppure il 12 erano stati colpiti in maniera molto pesante. Addirittura un blog era passato da 6 mila unici a 300 unici! (Prima che qualcuno chiami in causa il ferragosto dico che l'anno scorso aveva perso solo il 30%) Ora è tornato intorno ai 5 mila... e ti assicuro che non è stata cambiata una sola virgola (era assolutamente ingiusta la penalizzazione, ed avevo visto giusto).


  • Super User

    Beh...questo calo del 35/40 e successiva risalita verso il 15 direi che accomuna molti.

    Di certo però oltre al Panda c'è sicuramente anche il ferragosto...

    Mi spiego: probabilmente panda ha dato un -15 al mio sito, il ferragosto ha fatto l'altro 15/20/25% in meno ed ecco il -35/-40 che pian piano risale man mano che passano i giorni.

    Che ne dite?

    Ah..io per ora non ho toccato una virgola...mi sono limitato ad analizzare i dati senza cavarne nulla...

    Queste le mie analisi:

    https:// plus.google. com/109901937515857177418/posts/VetQgjjM97E


  • User Attivo

    @Tuonorosso said:

    Di certo però oltre al Panda c'è sicuramente anche il ferragosto...

    Mi spiego: probabilmente panda ha dato un -15 al mio sito, il ferragosto ha fatto l'altro 15/20/25% in meno ed ecco il -35/-40 che pian piano risale man mano che passano i giorni.

    E' quello che cercavo di dire da quando Panda e' entrato in Italia 🙂


  • User Attivo

    @gokufg said:

    E' quello che cercavo di dire da quando Panda e' entrato in Italia 🙂

    Io Io ... l'ho detto anch'io! :D:D


  • User

    Secondo voi è possibile avere 20 visitatori al giorno con 28.000 serps su Google? Saliranno?
    Sono video presi dal web, ma non con un aggregatore rss che ne prende tot ogni ora. Il sito ha 8 mesi.


  • User Attivo

    Secondo me sì, sennò sarebbe facile aumentare le visite in modo esponenziale. (Era il metodo più usato 3 anni fà dai motori di ricerca spam) Google da parecchio tempo ci ha messo una pezza.

    Finchè il tuo dominio non avrà un trust riconosciuto e buono le visite saranno pochissime rispetto al numero degli articoli, aggiungere altri news sarà inutile... o diciamo, quasi.
    😉


  • User Attivo

    @hendez said:

    Secondo voi è possibile avere 20 visitatori al giorno con 28.000 serps su google? Saliranno? sono video presi dal web, ma non con un aggregatore rss che ne prende tot ogni ora. il sito ha 8 mesi.

    Bisognerebbe capire se i video hanno anche del testo attorno, non scopiazzato, e se stai facendo un lavoro per incrementare i backlink.


  • User Attivo

    Non voglio apparire inopportuno ma 20 visite con 28.000 serps mi viene il dubbio che sia anche poco interessante come sito ... cioè su queste proporzioni si pone anche un problema di visitatori di ritorno che non ci sono e nessuno che segnala il tuo sito perché gli è piaciuto ...


  • Super User

    Per quanto mi riguarda direi che su alcuni siti ho registrato sostanziali progressi ( anche dalla metà di agosto periodo notoriamente "folle" ! 😄 ), in uno in particolare ho avuto un incremento pari al 25/30 %.

    Su altri ci sono stati "scivoloni" di poco, ma pur sempre scivoloni : ma per questi c'è da dire che sono siti giovani, pochissimo aggiornati.

    Penso di poter dedurre alcune mie ( personalissime ) impressioni che così sintetizzo per quel che riguarda i siti che hanno avuto una "lievitazione" concreta e sostanziale.

    1. I siti sono abbastanza aggiornati ( quasi quotidiani )
    2. Hanno una bassissima frequenza di rimbalzo e in più un tempo di permanenza medio dell'ordine di svariati minuti.
    3. Hanno un buon numero di pagine viste.

    I migliori risultati li ho ottenuti dopo una quindicina di giorni circa dopo che ho scovato due web che mi copiavano lettarlmente gli articoli e ho letteralmente sollevato una guerra per far cancellare i testi ( grazie avvocato , sempre riconoscente ! :D:D).
    Una quindicina di giorni dopo ho visto un impennata dei visitatori e un generico miglioramento per alcune chiavi.

    Quelli che hanno subito flessioni :

    1. Poco aggiornati
    2. Frequenza di rimbalzo alta
    3. Siti relativamente giovani e ancora da strutturare in modo definitivo
    4. Tempo di permanenza medio sulla pagine davvero modesto.
    5. Siti per lo più generalisti e di news di gossip e spettacolo.

    Insomma se la strada è quella , meglio prenderla per il maggior numero di siti...e in fretta.


  • Super User

    Mi inserisco anche io in questa discussione 🙂
    Inizio con il dire che sono uno di quelli che è stato ben visto da questo aggiornamento e non dico altro a riguardo. Voglio invece concentrarmi su altri aspetti che reputo più interessanti, aspetti come frequenza di rimbalzo, pagine viste, tempo di permanenza.

    A mio (personalissimo e insindacabile 😄 ) parere, questi elencati sopra sono parametri sicuramente importanti per l'algoritmo ma sui quali si debba assolutamente mettere in chiaro un piccolo particolare. Non tutti i siti sono uguali!
    Personalmente penso che non per tutte le categorie di siti vi possa essere un legame diretto ad esempio tra pagine viste e qualità della risorsa, o almeno non vi possa essere un legame diretto con la stessa proporzionalità in tutti i settori. Ci sono infatti siti che per natura sono caratterizzati da un basso numero di pagine viste e non per questo possono essere classificati come di scarsa qualità, anzi paradossalmente potremmo dire il contrario.

    Dopo aver analizzato dati sul campo, posso dire senza paura di smentita che per alcune risorse avere due pagine a visitatore può essere paragonabile ad averne 8 in un altro settore. Per questo motivo, dobbiamo stare alla larga da semplici confronti a "chi lo ha più grande" (:D) e concentrarci al contrario sul settore specifico analizzando di caso in caso la risorsa di cui ci stiamo occupando.

    Altro discorso è quello dei duplicati & co. Non vi è alcun dubbio che per contenuti duplicati di alcuni tipi si possano avere delle mazzate tremende che possono essere riportare al Panda per somiglianza, questo però non ci deve rallentare nella risoluzione delle problematiche pensando alla periodicità di questo caro algoritmo.

    Quoto infine 444523 quando parla di rientri magici dopo il Panda dovuti al personale umano

    Penso invece che tu sia stato colpito proprio dal Panda, la tua vicenda non è dissimile ad altri siti statunitensi colpiti ingiustamente nei mesi scorsi. Nei giorni successivi (alcuni addirittura senza che cambiassero una sola virgola) sono risaliti: è probabile che ci sia stato un massiccio intervento di quality rater
    concordo in toto con quanto detto da lui, ma non vi è dubbio che per il caso mostrato da trilli0 basti il punto "1 ben organizzato" > eliminare contenuti duplicati (eliminando un blog per esempio che presentava sostanzialmente le new-entry del sito con testi duplicati) per causare una penalty pesantissima.

    Un saluto


  • Super User

    @RoPa said:

    Ci sono infatti siti che per natura sono caratterizzati da un basso numero di pagine viste e non per questo possono essere classificati come di scarsa qualità, anzi paradossalmente potremmo dire il contrario.

    Personalmente non ho mai scritto, ne inteso sottointendere, che siti che hanno un basso numero di pagine viste per utente sono classificabili come "di scarsa qualità".
    Ho semplicemente esposto quello che , a mio modesto avviso, è uno dei criteri che Panda Update potrebbe tenere in considerazione : poi se il sito sia di "scarsa qualità o meno" non sta a me dirlo ne concettualizzarlo.
    Tuttavia mi permetto di fare una considerazione , direi, logica : un sito con poche pagine viste non da seguito all'immediata immagine di un sito di scarsa qualità, d'accordissimo, ma se l'utente vede uno o due pagine e poi "scappa" qualche motivo ci sarà pure e il primo motivo che mi può venire in mente è...che non tovi risposte adeguate o lo reputi interessante.
    Poi ovvio ci possono essere casi a parte ( ma non me ne viene in mente nessuno ).
    Personalmente ho un paio di siti ...ehm...direi fatti maluccio ( grafica e organizzazione ) : tuttavia hanno una media di 8 / 9 pagine per utente e ...contano quasi 10 k unici al giorno cadauno e da diverso tempo.
    Se la gente si ferma quasi 5 o 6 minuti a visita ...un motivo ci sarà pure ...a meno che non prendano tutti sonno mentre visitano i miei siti ( ipotesi sempre...possibile 😄 ).
    Ed è inutile nascondere che lo scopo prioritario per un sito web è quello di ...essere visitato da un sempre maggior numero di utenti : non conosco ancora nessuno che faccia un sito per essere visitato da 100 persone con 2 pagine a visita.
    E per capire che dico il vero basta seguire la cronaca di questo forum.

    @RoPa said:

    Dopo aver analizzato dati sul campo, posso dire senza paura di smentita che per alcune risorse avere due pagine a visitatore può essere paragonabile ad averne 8 in un altro settore. Per questo motivo, dobbiamo stare alla larga da semplici confronti a "chi lo ha più grande" (:D)

    😄 Mi ricorda la battuta ...meglio lungo o largo?...e quando uno risponde "largo" (! ) ...la risposta scontata è "ecco un altro che ce l'ha corto!".
    Tornando seri io credo che ogni webmaster preferisca di gran "lunga" un sito con 1 milione di visitatori al mese e con 10 milione di pagine viste , piuttosto che 1000 mensili e 2000 pagine viste al mese.
    Altrimenti, scusa la franchezza, a cosa servirebbe il SEO?
    Non credo che siano molti quelli che dopo aver fatto un eccellente sito si siedano a contemplarlo e soddisfatti esclamino " ah che bel sito , peccato che lo vedano io, mia moglie e i miei tre figli! " 😄
    Ovvio che visto in questo modo è alquanto riduttivo ma, e lo ripeto, non conosco ancora nessuno che si fregi di avere un sito di eccellente qualità e sia contento di avere quarantaquattro gatti a visitarlo .

    E poi , sempre a mio avviso e salvo miglior parere, il concetto di "qualità" di un sito è come una salita che vista dall'alto sembra stranamente una discesa !

    @RoPa said:

    e concentrarci al contrario sul settore specifico analizzando di caso in caso la risorsa di cui ci stiamo occupando.

    Condivido : ma questo suppone che chi analizza la "risorsa del settore specifico" sia, prima di tutto, un esperto dello stesso settore.
    Altrimenti si corre il rischio di fare la figura della perpetua che di fronte al vescovo ha una soluzione ( secondo lei giusta e scontata ) per ogni problema della chiesa.

    @RoPa said:

    Altro discorso è quello dei duplicati & co. Non vi è alcun dubbio che per contenuti duplicati di alcuni tipi si possano avere delle mazzate tremende

    Credo che fosse così già prima di Panda , solo che il nuovo algoritmo , credo, l'abbia evidenziato ancora di più.

    Faccio una battuta : è infondata la preoccupazione per il Panda update .
    Basta consolarsi ammettendo che si ha "un sito di qualità" : cosa importa poi se il nuovo algoritmo ci ha scardinato il 40 o il 50 % delle visite?

    Però ( 😄 battuta ) ...io preferisco avercelo lungo , ma credo che del mio stesso avviso siano ...in molti , forse quasi tutti.


  • Super User

    Attenzione, non sto dicendo che verranno premiati i siti con poche pagine per visita o cose simili, sto dicendo che certi parametri non possono essere presi e confrontati in qualsiasi settore... non ha senso! Il tetto idealmente raggiungibile si sposta di volta in volta.
    Ovvio poi che il webmaster vorrebbe milioni di visite e pagine viste, ma al motore cosa gli frega di questo? Nulla!

    La cosa certa e che un sito contenente risorse divertenti per i social non può essere paragonato ad un sito sulla fissione nucleare, o meglio, il valore massimo che indica la bontà di una risorsa deve essere spostato necessariamente di volta in volta. Ovvio che se hai un numero maggiore di pagine viste è solo un bene, ma non è normale mettersi a confrontare valori di altri settori totalmente fuori dal nostro, come non è normale pensare di avere una risorsa a rischio se nel settore x fa 4 pagine a visita mentre un altro sito nel settore y ne fa 10.

    @bluwebmaster said:

    Credo che fosse così già prima di Panda , solo che il nuovo algoritmo , credo, l'abbia evidenziato ancora di più.

    Assolutamente d'accordo 🙂