• User

    @bmastro said:

    Scusa, ma mi spieghi questa cosa?
    Vorresti dire che scrivi un centinaio di articoli al giorno? :mmm:

    Li avevo scritti e fatti scrivere nel giro di qualche mese. Comunque sono passato da 800 a 3000 a 12000 e infine 27000 serps su Google nel giro di una settimana. Un record. Però le visite sono sempre le stesse (20 in media).


  • User Attivo

    Ma in definitiva che tipo di sito o blog dovrebbe essere penalizzato?
    Di sicuro gli aggregatori questo lo si è capito ... ma per il resto?
    pochi contenuti forse ... cosa altro?
    Intanto a parte le lagnanze iniziali direi che l'unica cosa sensata da fare è farci amico Panda e riattare i nostri siti in modo che gli piacciano direi ...


  • User Attivo

    Non credo ci sia bisogni di allarmarsi per ora dato che nel periodo estivo è normale un abbassamanto di SERP e visite.

    Per il resto se hanno penalizzato gli aggregatori tanto meglio!


  • User

    @Tuonorosso said:

    io sono passato dal -35% del 12 agosto al -20/15 di questi giorni...

    Strani movimenti da ieri su G, probabilmente riferibili ad un pesante aggiustamento dell'algoritmo Panda. Su un nostro sito penalizzato (ingiustamente per come la vedo io) da circa 15.000 visitatori al giorno l'11 agosto siamo passati in 2 giorni a 5.600, ma il 30 agosto siamo tornati in un solo giorno a 11.000 visitatori.

    Nei giorni dopo il 12 siamo intervenuti per:

    1. eliminare contenuti duplicati (eliminando un blog per esempio che presentava sostanzialmente le new-entry del sito con testi duplicati)
    2. aggiungendo nel robots.txt il disallow su sezioni del sito in lingue che non avevano un sufficiente numero di traduzioni
    3. eliminando alcuni bug nel codice che indirizzavano a pagine inesistenti
    4. eliminando alcuni bug nel codice che creavano loop sui redirect
    5. mantenedo alcune pagine di dettaglio ma raggruppandole con il rel="canonical" alla pagina principale
    6. mantenedo alcune pagine ma segnadole con "nofollow,noindex"
    7. specificando il rel="canonical" sul sito mobile, puntandolo sulle rispettive pagine del sito "desktop"
    8. diminuendo drasticamente l'impatto di adsense (anche se il layout era stato da poco approvato da una strategist di google adsense)
    9. Aumentando le prestazioni del sito, togliendo più di 3 secondi al caricamento delle pagine, ottimizzando tutte le immagini, installando un reverse proxy dedicato ai contenuti statici, e ottimizzando le QUERY togliendo qualche decina di SELECT *

    Come affiliati ad un importante portale di prenotazioni alberghiere, usiamo ancora i testi forniti dal nostro partner (eravamo certi che questo fosse il problema... ora non sappiamo più cosa pensare).
    Non abbiamo ancora provveduto a riscrivere tutti i testi di descrizione degli hotel (17.000 * 4 lingue!), eppure i risultati sono in netto miglioramento.

    Sinceramente non so ancora se la causa è un aggiustamento dell'algoritmo o i nostri primi interventi.
    Personalmente propendo per l'aggiustamento...
    Parlando con alcuni "Affiliate Account Manager" mi è stato detto che molti siti affiliati sono stati colpiti da Panda, ma sostanzialmente siti il cui UNICO contenuto era quello del partner, senza alcun "valore aggiunto".

    Ora, il nostro portale è composto di 4 subdomains diversi, divisi per argomento, l'unico colpito quello degli hotel.
    E' vero che la sezione degli hotel contiene molti duplicati (i testi del partner), ma è altrettanto vero che forniamo un'ingente quantità di contenuti "di valore" nelle altre sezioni. Se Panda, come scritto, agisce a livello di host e non di dominio, potrebbe essere nel nostro caso incappato in un clamoroso "falso positivo".

    Ma mi chiedo... non ci potevano pensare prima a Mountain View?
    Ho passato le 2 peggiori settimane della mia vita... e ancora ho molte più domande che risposte.

    Spero che queste indicazioni siano di aiuto a qualcuno.

    Trilli0


  • ModSenior

    @Trilli0 said:

    eppure i risultati sono in netto miglioramento.

    Trilli0, sono davvero strafelice per te e per il tuo business, però proprio perché vedi già dei risultati nettamente migliori, escluderei nel tuo caso una penalizzazione dovuta a Panda.

    Evidentemente il tuo problema era solo di contenuti duplicati ed è stato solo una coincidenza che la penalizzazione sia stata applicata in concomitanza con il lancio di Panda anche in Italia.

    Valerio Notarfrancesco


  • User Attivo

    @Trilli0 said:

    Ma mi chiedo... non ci potevano pensare prima a Mountain View?
    Ho passato le 2 peggiori settimane della mia vita... e ancora ho molte più domande che risposte.

    Spero che queste indicazioni siano di aiuto a qualcuno.

    Trilli0

    Penso invece che tu sia stato colpito proprio dal Panda, la tua vicenda non è dissimile ad altri siti statunitensi colpiti ingiustamente nei mesi scorsi. Nei giorni successivi (alcuni addirittura senza che cambiassero una sola virgola) sono risaliti: è probabile che ci sia stato un massiccio intervento di quality rater.

    A Mountain View sanno perfettamente che è impossibile per un algoritmo lavorare con qualità su temi molto delicati e soggettivi, l'uso dei quality rater è stato impiegato in maniera massiccia per "ripulire" grossi danni effettuati dall'algoritmo.

    Evidentemente in questa "guerra" hanno calcolato che pur con tante vittime innocenti i costi-benifici sarebbero stati comunque positivi con questo algoritmo.

    Non solo tu sei migliorato, ma anche molti siti che seguo, su alcuni non è stato effettuato il benchè minimo intervento, eppure il 12 erano stati colpiti in maniera molto pesante. Addirittura un blog era passato da 6 mila unici a 300 unici! (Prima che qualcuno chiami in causa il ferragosto dico che l'anno scorso aveva perso solo il 30%) Ora è tornato intorno ai 5 mila... e ti assicuro che non è stata cambiata una sola virgola (era assolutamente ingiusta la penalizzazione, ed avevo visto giusto).


  • Super User

    Beh...questo calo del 35/40 e successiva risalita verso il 15 direi che accomuna molti.

    Di certo però oltre al Panda c'è sicuramente anche il ferragosto...

    Mi spiego: probabilmente panda ha dato un -15 al mio sito, il ferragosto ha fatto l'altro 15/20/25% in meno ed ecco il -35/-40 che pian piano risale man mano che passano i giorni.

    Che ne dite?

    Ah..io per ora non ho toccato una virgola...mi sono limitato ad analizzare i dati senza cavarne nulla...

    Queste le mie analisi:

    https:// plus.google. com/109901937515857177418/posts/VetQgjjM97E


  • User Attivo

    @Tuonorosso said:

    Di certo però oltre al Panda c'è sicuramente anche il ferragosto...

    Mi spiego: probabilmente panda ha dato un -15 al mio sito, il ferragosto ha fatto l'altro 15/20/25% in meno ed ecco il -35/-40 che pian piano risale man mano che passano i giorni.

    E' quello che cercavo di dire da quando Panda e' entrato in Italia 🙂


  • User Attivo

    @gokufg said:

    E' quello che cercavo di dire da quando Panda e' entrato in Italia 🙂

    Io Io ... l'ho detto anch'io! :D:D


  • User

    Secondo voi è possibile avere 20 visitatori al giorno con 28.000 serps su Google? Saliranno?
    Sono video presi dal web, ma non con un aggregatore rss che ne prende tot ogni ora. Il sito ha 8 mesi.


  • User Attivo

    Secondo me sì, sennò sarebbe facile aumentare le visite in modo esponenziale. (Era il metodo più usato 3 anni fà dai motori di ricerca spam) Google da parecchio tempo ci ha messo una pezza.

    Finchè il tuo dominio non avrà un trust riconosciuto e buono le visite saranno pochissime rispetto al numero degli articoli, aggiungere altri news sarà inutile... o diciamo, quasi.
    😉


  • User Attivo

    @hendez said:

    Secondo voi è possibile avere 20 visitatori al giorno con 28.000 serps su google? Saliranno? sono video presi dal web, ma non con un aggregatore rss che ne prende tot ogni ora. il sito ha 8 mesi.

    Bisognerebbe capire se i video hanno anche del testo attorno, non scopiazzato, e se stai facendo un lavoro per incrementare i backlink.


  • User Attivo

    Non voglio apparire inopportuno ma 20 visite con 28.000 serps mi viene il dubbio che sia anche poco interessante come sito ... cioè su queste proporzioni si pone anche un problema di visitatori di ritorno che non ci sono e nessuno che segnala il tuo sito perché gli è piaciuto ...


  • Super User

    Per quanto mi riguarda direi che su alcuni siti ho registrato sostanziali progressi ( anche dalla metà di agosto periodo notoriamente "folle" ! 😄 ), in uno in particolare ho avuto un incremento pari al 25/30 %.

    Su altri ci sono stati "scivoloni" di poco, ma pur sempre scivoloni : ma per questi c'è da dire che sono siti giovani, pochissimo aggiornati.

    Penso di poter dedurre alcune mie ( personalissime ) impressioni che così sintetizzo per quel che riguarda i siti che hanno avuto una "lievitazione" concreta e sostanziale.

    1. I siti sono abbastanza aggiornati ( quasi quotidiani )
    2. Hanno una bassissima frequenza di rimbalzo e in più un tempo di permanenza medio dell'ordine di svariati minuti.
    3. Hanno un buon numero di pagine viste.

    I migliori risultati li ho ottenuti dopo una quindicina di giorni circa dopo che ho scovato due web che mi copiavano lettarlmente gli articoli e ho letteralmente sollevato una guerra per far cancellare i testi ( grazie avvocato , sempre riconoscente ! :D:D).
    Una quindicina di giorni dopo ho visto un impennata dei visitatori e un generico miglioramento per alcune chiavi.

    Quelli che hanno subito flessioni :

    1. Poco aggiornati
    2. Frequenza di rimbalzo alta
    3. Siti relativamente giovani e ancora da strutturare in modo definitivo
    4. Tempo di permanenza medio sulla pagine davvero modesto.
    5. Siti per lo più generalisti e di news di gossip e spettacolo.

    Insomma se la strada è quella , meglio prenderla per il maggior numero di siti...e in fretta.


  • Super User

    Mi inserisco anche io in questa discussione 🙂
    Inizio con il dire che sono uno di quelli che è stato ben visto da questo aggiornamento e non dico altro a riguardo. Voglio invece concentrarmi su altri aspetti che reputo più interessanti, aspetti come frequenza di rimbalzo, pagine viste, tempo di permanenza.

    A mio (personalissimo e insindacabile 😄 ) parere, questi elencati sopra sono parametri sicuramente importanti per l'algoritmo ma sui quali si debba assolutamente mettere in chiaro un piccolo particolare. Non tutti i siti sono uguali!
    Personalmente penso che non per tutte le categorie di siti vi possa essere un legame diretto ad esempio tra pagine viste e qualità della risorsa, o almeno non vi possa essere un legame diretto con la stessa proporzionalità in tutti i settori. Ci sono infatti siti che per natura sono caratterizzati da un basso numero di pagine viste e non per questo possono essere classificati come di scarsa qualità, anzi paradossalmente potremmo dire il contrario.

    Dopo aver analizzato dati sul campo, posso dire senza paura di smentita che per alcune risorse avere due pagine a visitatore può essere paragonabile ad averne 8 in un altro settore. Per questo motivo, dobbiamo stare alla larga da semplici confronti a "chi lo ha più grande" (:D) e concentrarci al contrario sul settore specifico analizzando di caso in caso la risorsa di cui ci stiamo occupando.

    Altro discorso è quello dei duplicati & co. Non vi è alcun dubbio che per contenuti duplicati di alcuni tipi si possano avere delle mazzate tremende che possono essere riportare al Panda per somiglianza, questo però non ci deve rallentare nella risoluzione delle problematiche pensando alla periodicità di questo caro algoritmo.

    Quoto infine 444523 quando parla di rientri magici dopo il Panda dovuti al personale umano

    Penso invece che tu sia stato colpito proprio dal Panda, la tua vicenda non è dissimile ad altri siti statunitensi colpiti ingiustamente nei mesi scorsi. Nei giorni successivi (alcuni addirittura senza che cambiassero una sola virgola) sono risaliti: è probabile che ci sia stato un massiccio intervento di quality rater
    concordo in toto con quanto detto da lui, ma non vi è dubbio che per il caso mostrato da trilli0 basti il punto "1 ben organizzato" > eliminare contenuti duplicati (eliminando un blog per esempio che presentava sostanzialmente le new-entry del sito con testi duplicati) per causare una penalty pesantissima.

    Un saluto


  • Super User

    @RoPa said:

    Ci sono infatti siti che per natura sono caratterizzati da un basso numero di pagine viste e non per questo possono essere classificati come di scarsa qualità, anzi paradossalmente potremmo dire il contrario.

    Personalmente non ho mai scritto, ne inteso sottointendere, che siti che hanno un basso numero di pagine viste per utente sono classificabili come "di scarsa qualità".
    Ho semplicemente esposto quello che , a mio modesto avviso, è uno dei criteri che Panda Update potrebbe tenere in considerazione : poi se il sito sia di "scarsa qualità o meno" non sta a me dirlo ne concettualizzarlo.
    Tuttavia mi permetto di fare una considerazione , direi, logica : un sito con poche pagine viste non da seguito all'immediata immagine di un sito di scarsa qualità, d'accordissimo, ma se l'utente vede uno o due pagine e poi "scappa" qualche motivo ci sarà pure e il primo motivo che mi può venire in mente è...che non tovi risposte adeguate o lo reputi interessante.
    Poi ovvio ci possono essere casi a parte ( ma non me ne viene in mente nessuno ).
    Personalmente ho un paio di siti ...ehm...direi fatti maluccio ( grafica e organizzazione ) : tuttavia hanno una media di 8 / 9 pagine per utente e ...contano quasi 10 k unici al giorno cadauno e da diverso tempo.
    Se la gente si ferma quasi 5 o 6 minuti a visita ...un motivo ci sarà pure ...a meno che non prendano tutti sonno mentre visitano i miei siti ( ipotesi sempre...possibile 😄 ).
    Ed è inutile nascondere che lo scopo prioritario per un sito web è quello di ...essere visitato da un sempre maggior numero di utenti : non conosco ancora nessuno che faccia un sito per essere visitato da 100 persone con 2 pagine a visita.
    E per capire che dico il vero basta seguire la cronaca di questo forum.

    @RoPa said:

    Dopo aver analizzato dati sul campo, posso dire senza paura di smentita che per alcune risorse avere due pagine a visitatore può essere paragonabile ad averne 8 in un altro settore. Per questo motivo, dobbiamo stare alla larga da semplici confronti a "chi lo ha più grande" (:D)

    😄 Mi ricorda la battuta ...meglio lungo o largo?...e quando uno risponde "largo" (! ) ...la risposta scontata è "ecco un altro che ce l'ha corto!".
    Tornando seri io credo che ogni webmaster preferisca di gran "lunga" un sito con 1 milione di visitatori al mese e con 10 milione di pagine viste , piuttosto che 1000 mensili e 2000 pagine viste al mese.
    Altrimenti, scusa la franchezza, a cosa servirebbe il SEO?
    Non credo che siano molti quelli che dopo aver fatto un eccellente sito si siedano a contemplarlo e soddisfatti esclamino " ah che bel sito , peccato che lo vedano io, mia moglie e i miei tre figli! " 😄
    Ovvio che visto in questo modo è alquanto riduttivo ma, e lo ripeto, non conosco ancora nessuno che si fregi di avere un sito di eccellente qualità e sia contento di avere quarantaquattro gatti a visitarlo .

    E poi , sempre a mio avviso e salvo miglior parere, il concetto di "qualità" di un sito è come una salita che vista dall'alto sembra stranamente una discesa !

    @RoPa said:

    e concentrarci al contrario sul settore specifico analizzando di caso in caso la risorsa di cui ci stiamo occupando.

    Condivido : ma questo suppone che chi analizza la "risorsa del settore specifico" sia, prima di tutto, un esperto dello stesso settore.
    Altrimenti si corre il rischio di fare la figura della perpetua che di fronte al vescovo ha una soluzione ( secondo lei giusta e scontata ) per ogni problema della chiesa.

    @RoPa said:

    Altro discorso è quello dei duplicati & co. Non vi è alcun dubbio che per contenuti duplicati di alcuni tipi si possano avere delle mazzate tremende

    Credo che fosse così già prima di Panda , solo che il nuovo algoritmo , credo, l'abbia evidenziato ancora di più.

    Faccio una battuta : è infondata la preoccupazione per il Panda update .
    Basta consolarsi ammettendo che si ha "un sito di qualità" : cosa importa poi se il nuovo algoritmo ci ha scardinato il 40 o il 50 % delle visite?

    Però ( 😄 battuta ) ...io preferisco avercelo lungo , ma credo che del mio stesso avviso siano ...in molti , forse quasi tutti.


  • Super User

    Attenzione, non sto dicendo che verranno premiati i siti con poche pagine per visita o cose simili, sto dicendo che certi parametri non possono essere presi e confrontati in qualsiasi settore... non ha senso! Il tetto idealmente raggiungibile si sposta di volta in volta.
    Ovvio poi che il webmaster vorrebbe milioni di visite e pagine viste, ma al motore cosa gli frega di questo? Nulla!

    La cosa certa e che un sito contenente risorse divertenti per i social non può essere paragonato ad un sito sulla fissione nucleare, o meglio, il valore massimo che indica la bontà di una risorsa deve essere spostato necessariamente di volta in volta. Ovvio che se hai un numero maggiore di pagine viste è solo un bene, ma non è normale mettersi a confrontare valori di altri settori totalmente fuori dal nostro, come non è normale pensare di avere una risorsa a rischio se nel settore x fa 4 pagine a visita mentre un altro sito nel settore y ne fa 10.

    @bluwebmaster said:

    Credo che fosse così già prima di Panda , solo che il nuovo algoritmo , credo, l'abbia evidenziato ancora di più.

    Assolutamente d'accordo 🙂


  • Super User

    @RoPa said:

    Attenzione, non sto dicendo che verranno premiati i siti con poche pagine per visita o cose simili, sto dicendo che certi parametri non possono essere presi e confrontati in qualsiasi settore...

    Ma infatti si discuteva su quali parametri Panda , sembrerebbe, valutare e quindi meglio posizionare un sito, non se effettivamente il tutto risponda a dei requisiti di "qualità".
    Ovvio che un sito sul nucleare non è paragonabile a un sito di gossip, per carità, ci mancherebbe : ma consentimi di aggiungere un particolare che ritengo importante.
    Nell'ambito dello stesso settore dipende da come si affronta l'argomento o gli argomenti correlati .
    Esempio : l'11 settembre.
    Ci sono centinaia ( forse migliaia ) che trattano il crollo delle torre gemelle, tuttavia quelli più completi, con maggiori informazioni ( serie e non di fantasia ) , con dovizia di particolari , anche spiegati oltre che dettagliati, sembrano ( a giudicare da quello che ho letto in giro sugli stessi ) essere quelli in cui i visitatori vedono un maggior numero di pagine.
    E torna l'ipotesi ...del più "lungo".

    @RoPa said:

    Ovvio poi che il webmaster vorrebbe milioni di visite e pagine viste, ma al motore cosa gli frega di questo? Nulla!

    Questa credo di non averla capita. :mmm:

    @RoPa said:

    Ovvio che se hai un numero maggiore di pagine viste è solo un bene, ma non è normale mettersi a confrontare valori di altri settori totalmente fuori dal nostro

    Per lo stesso settore se due siti fanno uno 3 pagine viste per utente, e un altro 7 e con un maggior tempo per visita , non credi che , forse e salvo miglior parere, il secondo sito deve avere una marcia in più?
    Ovvio che Google dovrebbe "stimare" questi dati per settore : e chi ti dice che non lo faccia? Anzi , secondo me lo fa, eccome se lo fa.

    @RoPa said:

    come non è normale pensare di avere una risorsa a rischio se nel settore x fa 4 pagine a visita mentre un altro sito nel settore y ne fa 10.

    Ma non erro le query sono per parole chiavi, quindi la serp originata a partire da quelle parole chiavi ordina i risultati per "settore" : se nello stesso settore Google ordina i risultati utilizzando questi ( e altri ) parametri mi pare che faccia un confronto , tutto sommato, accettabile ricorrendo all'ipotesi che se un sito , ad esempio sull'11 settembre, viene visto per 10 pagine a utente con un tempo di permanenza sulla pagine di 6 minuti, è sicuramente più interessante di uno che a parità di argomento ne fa 2 per un tempo totale di permanenza medio di un minuto.

    Insomma pare che G. tenga conto , nell'ambito dello stesso settore ( quindi la tua "condizione" sarebbe soddisfatta ) ...:D:D di chi ce l'ha più lungo...il tempo di permanenza e il "trenino" di pagine viste per utente.


  • Super User

    @bluwebmaster said:

    Per lo stesso settore se due siti fanno uno 3 pagine viste per utente, e un altro 7 e con un maggior tempo per visita , non credi che , forse e salvo miglior parere, il secondo sito deve avere una marcia in più?
    Ovvio che Google dovrebbe "stimare" questi dati per settore : e chi ti dice che non lo faccia? Anzi , secondo me lo fa, eccome se lo fa.
    E' quello che sto dicendo ( cercando di dire :mmm: ) da due post a questa parte.

    @bluwebmaster said:

    se nello stesso settore Google ordina i risultati utilizzando questi ( e altri ) parametri mi pare che faccia un confronto , tutto sommato, accettabile ricorrendo all'ipotesi che se un sito , ad esempio sull'11 settembre, viene visto per 10 pagine a utente con un tempo di permanenza sulla pagine di 6 minuti, è sicuramente più interessante di uno che a parità di argomento ne fa 2 per un tempo totale di permanenza medio di un minuto.
    Rispetta assolutamente il mio modo di vedere le cose finchè il sito sulle torri gemelle da 10 pagine/visita non viene giudicato di livello più alto di un sito sulla peste bubbonica che ne fa 5. Quest'ultimo, invece, potrà essere definito migliore (solo da questo limitato punto di vista) di un'altro sito sulla peste bubbonica che fa 2 pagine a visita.


  • Super User

    In definitiva dicevamo la stessa cosa, con termini diversi. 😉