• User Attivo

    Sono d'accordo con te.

    Ho fatto un check sulle prestazioni: a parte che sono aggiornate all'11 settembre, più o meno tutti i siti (sia quelli penalizzati che quelli non penalizzati) hanno la stessa velocità di caricamento, circa 4 secondi, più lento di circa il 65% dei siti.

    Che poi sono semplicissimi siti wordpress, come facciano a essere così lenti sinceramente mi ha stupito; però comunque questo dovrebbe escludere questo fattore.


  • User Attivo

    Bah... proprio non capisco se sia affidabile quel dato della velocità di pagina da Google Webmaster. Ora è stato aggiornato al 23 Ottobre, le modifiche erano già attive, e praticamente anche adesso il tempo è lo stesso!

    Non è possibile che sia identico, dimmi che è sempre lento, ma non è possibile che sia identico.

    Ho controllato più volte personalmente il caricamento della pagina, ora è davvero veloce, la pagina si completa in 1 secondo, e non ci sono altre richieste al browser.

    Farò altri controlli...


  • User Attivo

    Non me ne vogliano i blogger, ma secondo me la massiccia penalizzazione di questo tipo di siti, dipende più che altro dal contenuto e dalla struttura, piuttosto che dalla velocità o altro. Per chi utilizza wordpress, che confermo comunque essere abbastanza lento (per curiosità ho caricato proprio ora geekissimo . com, che credo molto visitato... ci ha messo 12 secondi), è una lotta alla pari con migliaia di altri siti, con lo stesso argomento e la stessa struttura, emergere diventa quindi molto più difficile che con strutture proprie e più ottimizzate.

    Bisogna per prima cosa fare una bella autoanalisi. Il blog è esaustivo sull'argomento trattato? E' invogliata la consultazione di altre pagine? Nella stragrande maggioranza dei casi la risposta, almeno la mia, è no, anche perché la struttura è quella di un diario. Per tutte le cose in cui il tempo non è la parte predominante, converrebbe usare un altro tipo di struttura.


  • User Attivo

    @444523 said:

    Bah... proprio non capisco se sia affidabile quel dato della velocità di pagina da Google Webmaster. Ora è stato aggiornato al 23 Ottobre, le modifiche erano già attive, e praticamente anche adesso il tempo è lo stesso!

    Ti assicuro che è affidabilissimo. Poi per tagliare la testa al toro installati pagespeed o utilizza pagespeed online.

    Con page speed ho rilevato i seguenti tempi per il sito che hai in firma:

    4:01 per onload, 5:22 per caricamento totale (ossia anche gli elementi asincroni, googlefriend).

    Se il sito è in cache i tempi diventano rispettivamente 2:51 e 3:14.

    Strumenti per webmaster ti indicherà probabilmente una via di mezzo (3:25), perché alcuni elementi sono già in cache anche per chi ti visita la prima volta.


  • User Attivo

    @dirioz said:

    Se il sito è in cache i tempi diventano rispettivamente 2:51 e 3:14.

    No non è il sito in firma, 🙂 Quelle sono pagine abbandonate da anni...

    Scusa, ma lavoro da 12 anni nel web, da otto anni professionalmente con partita IVA, non farei mai errori nel considerare la cache nel caricamento del sito. Ovvio che ho provato con cache vuota ed altri accorgimenti per evitarlo, ed il tempo di caricamento senza alcun elemento in cache è di poco superiore al secondo, con tutte le richieste esaudite dal browser (non rimane appeso nulla).

    Comunque farò altri controlli...

    ---- Edit ----
    Sono andato a controllare il sito in firma ed è visibilmente lento, prima che la pagina si completi ci sono richieste del browser che rimangono "appese". Non c'è paragone con il sito che curo giornalmente, il mio sito di punta è una scheggia a confronto.

    Non che credi che maggiore velocità mi faccia uscire dal Panda, figuriamoci (sono convinto che sia un parametro che incide pochissimo), ma visto che c'ero ho fatto delle prove.


  • User Attivo

    Dai ancora un po' di giorni di tempo a strumenti per webmaster, non è detto che l'aggiornamento indicato riguardi tutto il sito. Poi il sito deve essere molto visitato affinché i dati indicati siano corretti: ti scrive alta affidabilità (o qualcosa di simile) in alto? Non ti offendere, non posso sapere se il tuo sito è molto visitato o meno.


  • User Attivo

    Non mi offendo tranquillo... come spesso dico: prima c'era il mio sito e poi è arrivato Google. E' un sito generalista e pertanto colpito pesantemente, ma io non lo sapevo che un giorno sarebbe stato creato Google, non ho mai fatto un sito per Google... dovrebbero considerarlo che sono in buona fede.
    😄 😄

    Prima del Panda viaggiava sui 40 mila unici al giorno... con una giornata top di 45 mila... era abbastanza visitato. Nei momenti più alti della giornata anche 600/700 utenti online, lo è anche adesso trafficato, ma ha perso una enorme fetta di traffico.

    Il dubbio che ho è su analytics, secondo me rallenta molto. Posso anche toglierlo e controllare direttamente sul server...


  • User Attivo

    Dalla tua risposta si potrebbe evincere che il tuo sito è rimasto com'era ai tempi pre-google, mi auguro di aver capito male. Se negli anni non ti sei adattato a google, l'errore è tuo, non certo di panda.

    Credo possa interessarti un mio post di qualche giorno fa, io sono patito delle performance.

    http : // www . giorgiotave . it / forum / google / 176190-proviamo-svelare-panda-fattori-di-influenza.html#post_message_930467


  • User Attivo

    @dirioz said:

    Se negli anni non ti sei adattato a google, l'errore è tuo, non certo di panda.

    Lo sai che non sono d'accordo con questa filosofia? Non mi sono mai adattato a Google ed è sempre andato tutto bene, nonostante gli innumerevoli algoritmi immessi nelle serp in questi 10 anni...

    E' la prima volta, in dieci anni, che adesso dovrei adattarmi a Google con il Panda... non era mai accaduto prima e secondo me era una filosofia vincente e leale nei confronti di Google.


  • User Attivo

    Ma adattarsi a google non significa utilizzare tecniche truffaldine, significa semplicemente seguire delle linee guida dettate da chi la sa molto più lunga di noi. Chi non riconosce questo in google, non è abbastanza umile.

    Senza strumenti per webmaster, google analitcs, pagespeed, google trend, vivrei in un'ampolla dove sarei convinto di essere bravo, perché me lo dicono gli amici.


  • Moderatore

    Mi ero limitato a togliere qualche insieme di link di adsense (fra le altre cose ormai non rendono più nulla), a spostare in basso la pubblicità, in una settimana sembrava tornato tutto a posto poi è ritornato a fare circa il 40% in meno delle visite. Ho anche rimosso le pagine tag e le ho fatte deindicizzare, dopo aver fatto un redirect. Le serp per le chiavi che mi riguardano sembrano impazzite, ogni giorno cambiano risultati, compaiono in posizioni ottime siti politematici che hanno una pagina dedicata, il giorno dopo può essere sia primo io, ma il giorno dopo ancora non si sa. Sembra sia una fluttuazione continua, ma senza molto senso e da qualche mese ormai...


  • User Attivo

    @444523 said:

    Non che credi che maggiore velocità mi faccia uscire dal Panda, figuriamoci (sono convinto che sia un parametro che incide pochissimo), ma visto che c'ero ho fatto delle prove.

    Con l'aggiornamento del 27 Ottobre adesso risulta nettamente più veloce... evidentemente l'aggiornamento del 23 Ottobre, nonostante fossero già attive le modifiche al 22 Ottobre non aveva rilevato i cambiamenti, oppure è molto lento ad aggiornarsi per l'elaborazione.

    Come previsto, nonostante sia più veloce, non ci sono novità riguardanti il Panda e la penalizzazione... la velocità è solo un piccolo parametro tra decine e decine di parametri... a meno che non debba essere di nuovo elaborato dal Panda, questo cambiamento, ma sono decisamente scettico.


  • User

    Una domanda:
    Avete per caso rilevato un aumento di errori 404 con Strumenti per webmaster, ma provienienti da siti esterni ai vostri, sotto forma di vostre url troncate ?
    E' attiva questa discussione sul forum di Google, e, anche se mi sembra strano, potrebbe anche esserci un errore di Google in merito a questo, se Google penalizza i siti su cui rileva frequenti errori 404.
    Nel mio caso questi errori sono generati da aggregatori e scadenti motori di ricerca, che, nelle loro pagine, pur indicando titolo con link corretto, dopo la descrizione, inserisce una url troncata sotto forma di solo testo che è esattamente quella rilevata da Google. Ma questo è anche quello che fa Google nella sua SERP.


  • User Attivo

    Personalmente ho qualche errore 400 (pochi in verità) con chiamate esterne da siti spam... addirittura in alcuni si pubblicizza viagra. Sono quei siti o forum ormai abbandonati e dove gli spammer hanno inserito migliaia di link e in automatico c'è finito anche il mio dominio con chiamate a pagine che non esistono (un anno fa ero stato attaccato da spammer di viagra e cialis).

    Anche qualche 404, ma ho una pagina custom per quello, ma sono sempre piccoli numeri rispetto alla globalità del sito. E comunque in questi anni non è la prima volta che sono in siti spam, anzi, ora sono ancora meno che mi linkano.

    Penso che non incida, sono una 10-15 di url a fronte di un sito che ha circa 10 mila pagine in serp... sarebbe ridicolo se bastasse questo a far "sballare" il Panda.


  • User Attivo

    @giovanninews said:

    Una domanda:
    Avete per caso rilevato un aumento di errori 404 con Strumenti per webmaster, ma provienienti da siti esterni ai vostri, sotto forma di vostre url troncate ?

    E' un po' che li rilevo, ma non tramite strumenti per webmaster, solo tramite una mia gestione dei 404. Trasformo le url incomplete nella url della directory in cui si verifica l'errore tramite un redirect 301. Ad esempio se l'errore è su "auto/pippo", lo ridirigo a "auto/"

    Onestamente pensavo che google non segnalasse questi 404, visto che si tratta semplicemente di provare un testo sotto forma di url, se è una url reale.

    A me arrivato centinaia di errori di quel tipo, oltre che da siti spamm, anche da tripadvisor.


  • Moderatore

    Confermo, anch'io da qualche tempo rilevo parecchi errori 404 a causa di link troncati (con tre puntini in fondo) provenienti da diversi siti, alcuni dei quali con lo stesso layout gialloverde.

    A dire il vero non credo che il sito sia penalizzato per questo, dato che non avrebbe senso, però non si sa mai, e poi comunque danno fastidio a vederli, per cui penso che li ridirigerò anch'io.

    In ogni caso la mia impressione è che gli errori 404 possano penalizzare solo la pagina su cui si verificano e non il sito, per cui in questo caso dovrebbero essere innocui, dato che la pagina non trovata non esiste.
    D'altra parte molto spesso è lo stesso google che fa dei tentativi di accesso con pagine inesistenti per verificare la corretta impostazione del codice di errore, e poi li segnala come pagine non trovate, non si può pensare che in conseguenza di questo possa penalizzare il sito.


  • User Attivo

    Altra cosa che succede e di avere dei 404 segnalati in webmaster tool, quando in realtà la pagina incriminata restituisce un 410 (gone, perché la pagina è scaduta).

    Non tutte le pagine devono essere eterne. Ad esempio se ho una pagina per vendere la mia bicicletta, una volta venduta non ha senso che la pagina continui ad esistere, o che ci sia un redirect chissà dove.

    Trovo molto più onesto avvisare l'utente con una pagina informativa che avvisa che la pagina è scaduta, e quindi se lo desidera può consultare il sito.

    Ho degli errori 404 (che come detto in realtà sono dei 410) che risalgono anche a pagine di 5 anni fa!


  • Super User

    @xpx said:

    poi è ritornato a fare circa il 40% in meno delle visite. Ho anche rimosso le pagine tag e le ho fatte deindicizzare, dopo aver fatto un redirect.

    I siti di cui parli sono quelli in firma?


  • User Attivo

    Il 26 c'è stato un bel movimento in Serp, che ha fatto schizzare un sito a +50%, ecco i dati:

    3,38 Pagine/Visita00:02:08 Tempo medio sul sito

    51,50% Frequenza di rimbalzo


  • User Attivo

    Sì,confermo che anche il 26 Ottobre c'è stato un grosso movimento, non so se sempre a causa del Panda o altro...
    :bho: