• Community Manager

    Allora Maurizio prima di continuare voglio dirti:

    • Stiamo calmi, nessuno ha individuato cosa sta succedendo, quindi facciamo delle ipotesi e poi vediamo di farle cadere. Quindi non agitarti se dico una cosa che non è come credi o sbagliata, nessun ha la bacchetta magica, anzi, in questo caso io non ho siti penalizzati (non mi è mai successo) e quindi faccio delle ipotesi.

    • Siamo qui tutti per aiutarci, non uno contro l'altro. Il Forum GT nasce per questo, quindi discutiamone fraternamente 😉

    @Maurizio42 said:

    Ti riferisci a Bloogz.com? E per quale motivo dovrebbe essere bannato? Trovami cosa non va! Per quanto riguarda l'indicizzazione di quella pagina, peraltro con una parola chiave prettamente specifica, ti sembra normale che in prima posizione ci sia un sito che ha copiato il nostro articolo? (Tanto è vero che linka la fonte). Il nostro dominio, bè, è un tantinello più forte di monitorpress.it. E i nostri contenuti sono originali, non duplicati. Se vuoi di esempi, te ne posso fare a centinaia. Non si parla d'altro sui vari Forum e Blog americani.

    No, spetta. La mia era una battuta, ho messo scherzo 🙂

    La situazione del tuo blog è strana, sopratutto perchè è un blog forte. Riceve link da molte parti, ma ne riceve tanti anche da siti che copiano gli articoli.

    [url=http://www.google.it/search?hl=it&c2coff=1&q=Mondo+Digitale+-+Il+Blog+dei+trend+digitali&btnG=Cerca&meta=]Siti che parlano di te

    Però riceve link anche da siti forti. Il mio era un esempio, non volevo dire che monitopress è più potente del tuo.

    Che forse Google stia penalizzando i siti che prendono link in una % elevata da altri siti che ripubblicano gli articoli?

    Sei in grado di fare un'analisi di questo Maurizio? Secondo te ci sono queste possibilità?

    @Maurizio42 said:

    Cosa c'entra scusa?? Non puoi alzare i "parametri" per combattere lo spam nei blog e colpire chi non produce spam! (Premetto che sono un SEO e parlo la tua stessa lingua)

    E se per caso la vostra matrice di link potrebbe in qualche modo aver detto a Google: hey, questi stanno aumentanto la popolarità ripubblicandosi i propri articoli.

    • o si interviene sui siti che ripubblicano
    • o sugli altri

    Preferendo la prima, penso che Google stia testando le sue soluzioni.

    Premetto, che io parlo la stessa lingua con tutti, sia che siano SEO o meno, ci mancherebbe pure 😉

    @Maurizio42 said:

    Anche questo blog produce spam? http://be-cool.bloogz.com; qui scrive una giornalista di moda e gli articoli sono originali e se vuoi, puoi analizzare le keyword con le quali da 3 giorni questo blog è sorpassato da siti che non hanno nè il Rank, nè articoli attinenti.

    Maurizio, cosa hanno in comune i siti penalizzati?

    Tutti su Bloogz? Hanno tanti link da siti che ripubblicano articoli? Sono blog?

    @Maurizio42 said:

    Il problema c'è e non mi riferisco solo ai miei domini.

    Come sopra

    @Maurizio42 said:

    Scusa se insisto, ma ora che ci ripenso: hai preso in esame PROPRIO il sito che ha copiato il nostro articolo e che risulta posizionato in prima pagina rispetto a noi! Questo non ti basta per comprendere che c'è qualcosa che non va? O monitorpress ha un PR alto e non me ne sono accorto? Scusa eh! Qual è la logica di questo allineamento?

    Si ho preso in esame quello per esempio, ma ne hai un casino che ripubblicano il tuo articolo, e tutti con valore più basso del tuo.

    Lasciando stare il PR che c'entra poco, forse la tua matrice di link è un pochino sporcata.

    Quindi ricapitolando, andiamo all'ipotesi due Maurizio, partendo da:

    Google sta testando e nel farlo sta penalizzando tutti quei siti/blog che si fanno ripubblicare gli articoli e che quindi prendono una buona % di link da questi aggregatori.

    Ripeto infine:

    Maurizio, cosa hanno in comune i siti penalizzati?

    Tutti su Bloogz? Hanno tanti link da siti che ripubblicano articoli? Sono blog?

    Giorgio 😉


  • Super User

    Maurizio42 benvenuto nel forum 🙂

    come in ogni Update (grande o piccolo ) che Google ci propone tra preoccupazione e meraviglia, a secondo delle nuove posizioni, parte la caccia al 'perchè lo fa, come lo fa'

    purtroppo è difficile, se non impossibile, determinarlo ...

    seguendo l'esempio di analisi che Giorgio ha proposto potremmo però avvicinarci a considerazioni reali.

    avete casi / esempi ?


  • User Newbie

    Ciao Giorgio, grazie per la risposta e scusami se ti ho dato l'impressione di essere agitato. Bè, in effetti lo sono ma non ce l'avevo con te, ci mancherebbe. E' stato proprio con il tuo intervento che mi sono accorto che un sito che ci ha duplicato un intero articolo con tanto di foto (le manine che tengono quell'LG sono le mie) si ritrova nelle prime posizioni mentre il nostro sta sparendo.

    E' la prima volta in 8 anni che mi capita una cosa simile: non hanno mai subito penalizzazioni né i miei siti né quelli dei miei clienti. E ho sempre pensato che tutti quelli che accusavano Google di aver penalizzato un sito "pulito" fossero in errore e, in molti casi, in malafede. Ma ora ci sono capitato io!

    Non credo che il problema riguardi la matrice dei link e neppure le ripubblicazioni (fatte da altri senza il nostro permesso) perchè Be-Cool, ad esempio, non ha subito "ripubblicazioni" e i link che ha ottenuto sono di buon livello (recentemente anche da autorevoli blog stranieri). Non riesco a dare nessuna spiegazione per quello che sta accadendo. Le ipotesi mie sono tre:

    • l'update non è ancora completato (anche se ormai i dati si stanno spargendo su tutti i data center, compreso questo http://64.233.189.104/, dove per molte keywords siamo ancora in alto, ma col passare del tempo anch'esso viene contaminato dai nuovi impulsi.
      -siamo finiti in sandbox;
    • dato che il problema lo stanno vivendo anche siti che esistono da 5/6 anni, credo si tratti più verosimilmente di un filtro che, a mio modesto parere, presenta qualche difetto.
      Matt Cutt, è finalmente tornato dalle vacanze e, molto probabilmente, lunedì spiegherà attraverso il suo blog quello che sta accadendo. Ora comprendo benissimo la frustrazione di coloro che si ritrovano di punto in bianco un sito che sparisce dalla SERPs e per il quale hanno lavorato profondendo impegno e, in molti casi, anche energie finanziarie.

  • Community Manager

    @Maurizio42 said:

    Ciao Giorgio, grazie per la risposta e scusami se ti ho dato l'impressione di essere agitato. Bè, in effetti lo sono ma non ce l'avevo con te, ci mancherebbe. E' stato proprio con il tuo intervento che mi sono accorto che un sito che ci ha duplicato un intero articolo con tanto di foto (le manine che tengono quell'LG sono le mie) si ritrova nelle prime posizioni mentre il nostro sta sparendo.

    Bene 🙂

    Dura lotta a chi copia e ripubblica senza permesso però. Fà piacere si, ma si dovrebbe chiedere il permesso.

    @Maurizio42 said:

    E' la prima volta in 8 anni che mi capita una cosa simile: non hanno mai subito penalizzazioni né i miei siti né quelli dei miei clienti. E ho sempre pensato che tutti quelli che accusavano Google di aver penalizzato un sito "pulito" fossero in errore e, in molti casi, in malafede. Ma ora ci sono capitato io!

    Questa affermazione mi fa capire molte cose, la prima è che primo o poi capiterà anche a me.

    Allora, prima regola di Fradefra, farsi un giro e giù le mani dalla tastiera, continuare a lavorare normalmente.

    @Maurizio42 said:

    Non credo che il problema riguardi la matrice dei link e neppure le ripubblicazioni (fatte da altri senza il nostro permesso) perchè Be-Cool, ad esempio, non ha subito "ripubblicazioni" e i link che ha ottenuto sono di buon livello (recentemente anche da autorevoli blog stranieri). Non riesco a dare nessuna spiegazione per quello che sta accadendo.

    Okey 🙂

    @Maurizio42 said:

    Le ipotesi mie sono tre:

    • l'update non è ancora completato (anche se ormai i dati si stanno spargendo su tutti i data center, compreso questo http://64.233.189.104/, dove per molte keywords siamo ancora in alto, ma col passare del tempo anch'esso viene contaminato dai nuovi impulsi.

    Ipotesi più plausibile a questo punto.

    @Maurizio42 said:

    -siamo finiti in sandbox;

    No, non penso.

    @Maurizio42 said:

    • dato che il problema lo stanno vivendo anche siti che esistono da 5/6 anni, credo si tratti più verosimilmente di un filtro che, a mio modesto parere, presenta qualche difetto.

    Sarà un test, sarebbe bello sapere a cosa. Stuart? Beke? Low? Rinzi? Must? e tutti gli altri?

    @Maurizio42 said:

    Matt Cutt, è finalmente tornato dalle vacanze e, molto probabilmente, lunedì spiegherà attraverso il suo blog quello che sta accadendo.

    Matt Cutts, se non vado errato, è a capo degli Spammer Killer 😄
    Non so come si chiamano, ma credo che diriga il Team di chi combatte lo spam. Quindi potrebbe avere delle informazioni interessanti.

    @Maurizio42 said:

    Ora comprendo benissimo la frustrazione di coloro che si ritrovano di punto in bianco un sito che sparisce dalla SERPs e per il quale hanno lavorato profondendo impegno e, in molti casi, anche energie finanziarie.

    Spero di non comprenderla mai e spero che duri poco.

    Aspettando news da Matt e ipotesi dai nostri forumisti, ti auguro di tornare più forte di prima 😉

    :ciauz:


  • User Attivo

    secondo la mia esperienza queste penalizzazioni sono una cosa ciclica,
    ovvero per il mio sito principale (per il quale ho sempre utilizzate tecnice whiteSEO) online da 5 anni è già successo 2 volte, questa è la terza: il sito sparisce per qualche mese ma poi quando torna su si piazza meglio e con molte più kw di prima.

    Quindi in linea di massima consiglierei di non allarmarsi troppo e di continuare a lavorare sempre con tecnice seo pulite e di ampliare con nuove pagine i propri amati siti.

    :ciauz: :ciauz:


  • Super User

    assolutamente d'accordo con Martin. lascialo finire e vedremo.

    periodicamente siti piú o meno anziani subiscono questa sorte. a volte dura pochi giorni, a volte qualche settimana, a volte qualche mese.

    secondo me, questo avviene perché ciclicamente applica ai siti giá presenti nell'indice nuovi filtri/algoritmi/antani.

    e magari ci puó essere un errore di valutazione, su quale sia il sito da premiare e quale quello da penalizzare.

    l'importante in queste situazioni é fare finta di niente. continua a lavorare pensando ai tuoi utenti.

    e potresti, ad esempio, obbligare chi vuole ripubblicare i tuoi testi, a linkare 3 volte il sito originale: tipo

    [url="tuosito/guida-seo/"]questa guida al posizionamento é rilasciata dalla sezione [url="tuosito/docs/"]documentazione del sito [url="tuosito/"]tuosito.
    

  • User Attivo

    Ciao,
    imho la risposta a tutto questo casino va cercata nel filtro dupe-content e nei contrappesi che gli sono stati assegnati per la canonizzazione della pagina. Passero' per fissato, ma mi sembra la fragilità piu' evidente del dopo BigDaddy.
    Da quello che vedo nelle SERP è da fine marzo che il ballo è in corso, ora su un settore ora su un'altro.
    Il filtro dupe-content è spietato come mai, ma va in confusione spesso, addirittura a volte va in stallo e non riesce a decidere quale pagina mostrare, randomizza.... e GG mantiene nel db il record doppio per mesi, aggiornando entrambi.

    Ipotizzo che la debolezza nella nuova miscela di algoritmi stia nel fatto che ai fini della canonizzazione di pagina il numero di link (non la qualità, il numero) abbia un peso spropositato rispetto ad altri fattori e all'anzianità di pagina, che GG sembra non considerare proprio.

    Per GG non esistono originali, esistono documenti che nel caso siano uguali hanno bisogno di una decisione, e resta in piedi quello che ha la "qualità" migliore. Chiaro che se nella definizione di qualità l'ingrediente numero-di-link pesa troppo, i risultati possono essere paradossali.

    Un contenuto originale in un blog vecchio con pochi link pesanti ha discrete possibilità di venir cassato dalla sua stessa copia su un portale giovane e linkato a muzzo.... ora purtroppo è cosi'.

    E' stano come GG non abbia inventato un tag per il dupe-content equivalente al rel=nofollow dei link.... qualcosa che possa essere incluso nella licenza di riproduzione: "vuoi pubblicarlo nel tuo sito? accomodati, ma ricorda di mettere il tag <nocare> </nocare>, senno' ciccia".

    Ciao.


  • User Attivo

    @pieropan said:

    Da quello che vedo nelle SERP è da fine marzo che il ballo è in corso, ora su un settore ora su un'altro.

    Posso portare la mia piccola esperienza con un sito ( www.baraccadeibuffoni.com ) che aveva pr=4. Due mesi fa inizia a non apparire più nelle SERP... grande tristezza, e vi dirò di più il pr era = 0!!!

    Dopo un mese il sito è ritornato esattamente dov'era e con il PR ristabilito. Non so quanto possa essere di conforto, ma succede anche questo.

    :ciauz:


  • User Attivo

    Anche a me...

    • Il sito in questione è vecchio di almeno 5 anni.
    • Ho trovato altri siti che duplicano un testo della mia home (una decina di pagine)
    • Avevo appena acquisito alcuni link importanti
    • Ero appena giunto in prima pagina, dopo anni di seconda/terza (forse ci sono stato qualche ora.. sigh!)
    • La sparizione è relativa solo ad alcune chiavi molto competitive (con altre chivi esco normalmente)
    • La query "site:" non mi restituisce l'home page ma solo alcune pagine interne (mi ricorda un vecchio bug di google... del 2004 mi sembra... poi fu risolto)
    • Su almeno 3 DCs sono ancora in prima pagina, su altri 4 ci sono ma in sesta.

    Perchè sconsigliate di modificare il sito durante la sparizione?

    Ciao.


  • Super User

    @madai said:

    Perchè sconsigliate di modificare il sito durante la sparizione?

    io personalmente non sconsiglio di modificare il sito durante la sparizione. sconsiglio di modificare il sito a causa della sparizione. se vuoi/devi modificarlo per l'interesse dei tuoi utenti, fai pure senza patemi. sono le pezze da "sono-disperato-perchè-il-sito-è-sparito-dalle-serp" che creano più problemi che altro, solitamente.


  • User Attivo

    Una volta i motori ammodernavano le loro serp con una continua immissione di pagine nuove.

    Questo causava una serie di problemi, innanzitutto che gli utenti non riuscivano a ritrovare nell'arco di una settimana lo stesso sito che avevano identificato pochi giorni prima per una data key, che non davano il tempo agli algoritmi di qualita' di verificare l'efficacia delle serp (cambiavano continuamente), che i wm modificavano sistematicamente le pagine anche parola per parola per ottimizzare le pagine e vedere entro pochi giorni i risultati, che gli spider lavoravano come pazzi, le risorse hardware per gestire i db si sprecavano...

    Allora hanno rallentato il tutto, con il risultato che le serp tendendenzialmente ora sono molto piu' stabili, ma di contro le modifiche che prima avvenivano gradualmente ora, quando avvengono, sono "brutali".

    Pezzi di siti che scompaiono o che retrocedono in blocco sono motivati anche dalla volonta' di testare il valore di siti concorrenti, oltre al fatto di verificare la bonta' della tarature degli algoritmi.


    La cosa incredibile e' che quando un wm fa un sito nuovo si lamenta che prima di avere un po' di accessi decenti deve aspettare mesi, e si arrabbia con i motori!

    Pero' se lo stesso wm ha un sito vecchio ben messo e poi lo vede di netto mediamente scendere di molte posizioni si lamenta che la cosa non ha senso perche' il sito era anziano, ben fatto, ben lincato ecc ecc.

    In poche parole ogni wm vorrebbe che i suoi siti nuovi guadagnassero posizioni e che i vecchi non ne perdessero...


    Se G trova 2 pagine identiche a lui non importa nulla chi ha scritto prima o dopo l'articolo, chi ne detiene i diritti legali, ecc ecc

    Non e' suo dovere fare queste verifiche, se un testo e' stato duplicato illegalmente sara' il wm titolare del testo ad obbligare chi ha copiato a rimuovere quanto duplicato.

    Pertanto io posso copiare da un buon sito un suo articolo, metterlo su un sito magari anche nuovo o bruttino, o dove mi pare, e poi sperare di superare chi ho copiato.

    Se non mi denuncia il wm e mi va bene (con i motori), magari lo supero!


    Perche' mi potrebbe andare bene? Perche' magari in quel momento c'e' una rotazione delle serp, dei db, una variazione di alcuni parametri dei motori e questo potrebbe avvantaggiarmi.

    Magari G vuole capire se la gente preferisce il mio sito (che copia) rispetto chi e' copiato (magari ho un server + veloce, meno banner, meno link, migliore grafica ecc ecc) perche' per lui non c'e' chi copia e chi ha copiato.

    Ci sono 2 pagine, 2 siti. Un sito vecchio e conosciuto e una marea di siti nuovi o meno che vorrebbero fargli le scarpe.

    E poi c'e' la rotazione ogni tanto.


    Per esempio una mia pagina, una volta ogni due mesi circa, viene messa prima su G per un solo giorno, 24 ore, per una buona key. Quel giorno quella pagina mi rende circa 100$ al giorno, poi il giorno dopo G me la fa scendere di una decina di posizioni... Questo da un anno circa... beh normale, anche se e' assurdo fare un mese si ed uno no 100$ in un giorno con una sola pagina che non rende normalmente manco 3 cent al giorno.

    Stessa cosa per un mio intero sito. Ogni tanto (diciamo una volta ogni 12-15 mesi) G me lo spara per una decina di giorni ai primi posti per centinaia di buone key, poi solita zuppa. Per capirci in quel periodo di up G mi porta circa 100-120k unici al giono. Impressionante... poi solita zuppa, i miei 3k al giorno e pedalare... normale.

    Idem per i siti nuovi, li prende poi li leva, poi li fa ammuffire, poi li rimette, poi li banna... normale.

    O si accetta che il "mondo" wm+motori funziona (e sara' sempre) cosi' o prima o poi si finira' in depressione o nel migliore dei casi con la pressione a palla per le arrabbiature.

    Capito questo diventa un bel mestiere.


  • User Attivo

    agoago non c'è dubbio che quanto dici sia una realtà quotidiana per la quale dopo un po' di mestiere ci si abitua... e di certo non si viene a postare presi dal panico tipico dei neofiti. C'è da dire però che circa sconvolgimenti delle serps più globali e drastiche come questa è sempre meglio discuterne per comprenderne le ragioni ed adeguare il proprio stile di fare seo. Quello che dici circa i contenuti copiati è sacrosanto... se questo è il nuovo trend dobbiamo cominciare a "difenderci"... inserendo nella lista quotidiana di cose da fare anche il controllo di persistenza dell'unicità dei propri contenuti. Magari dobbiamo cominciare ad utilizzare le [url=http://it.wikipedia.org/wiki/Creative_Commons]Creative Commons...


  • User Attivo

    @madai said:

    agoago non c'è dubbio che quanto dici sia una realtà quotidiana per la quale dopo un po' di mestiere ci si abitua... e di certo non si viene a postare presi dal panico tipico dei neofiti. C'è da dire però che circa sconvolgimenti delle serps più globali e drastiche come questa è sempre meglio discuterne per comprenderne le ragioni ed adeguare il proprio stile di fare seo. Quello che dici circa i contenuti copiati è sacrosanto... se questo è il nuovo trend dobbiamo cominciare a "difenderci"... inserendo nella lista quotidiana di cose da fare anche il controllo di persistenza dell'unicità dei propri contenuti. Magari dobbiamo cominciare ad utilizzare le [url=http://it.wikipedia.org/wiki/Creative_Commons]Creative Commons...

    Si e' giusto discuterne sempre, riportavo la mia esperienza personale per far capire che cosi' e' la vita, di non prendersela piu' di tanto, ovvio che e' invece molto importante ragionare ogni volta che una serp cambia parecchio per capire come difendersi o come attaccare.

    Il problema dei contenuti duplicati e' piu' un dramma che un problema. Si dovrebbe trovare una soluzione veramente globale, accettata deontologicamente da tutti i wm.

    Creative Commons e' uno strumento bellissimo di condivisione, spero che abbia il successo che merita.


  • Super User

    @agoago said:

    Stessa cosa per un mio intero sito. Ogni tanto (diciamo una volta ogni 12-15 mesi) G me lo spara per una decina di giorni ai primi posti per centinaia di buone key, poi solita zuppa. Per capirci in quel periodo di up G mi porta circa 100-120k unici al giono. Impressionante... poi solita zuppa, i miei 3k al giorno e pedalare... normale.
    Ehm... Un sito che fa 100-120mila unici/giorno (quando gli va grassa) e 3mila quando gli va magra, e subisce quel genere di oscillazioni nelle SERP ("per una decina di giorni ai primi posti per centinaia di buone key" --sottolineo primi posti, centinaia e buone key), non è esattamente quel che viene comunemente definito un sito "normale". 🙂

    Post molto interessante, comunque. Grazie ago


  • User Attivo

    Vero, e' un sito quasi istituzionale, vecchio di 8 anni ma abbandonato a se stesso...

    Tra l'altro nella pagina Query stats di Google Sitemaps i valori che mi fa vedere G sono quasi tutti sbagliati, mi da tra i primi 10 sempre per decine di key secche letteralmente impossibili, tipo "email" ma poi quando controllo non esisto, un bel baco.


  • Community Manager

    @agoago said:

    Il problema dei contenuti duplicati e' piu' un dramma che un problema. Si dovrebbe trovare una soluzione veramente globale, accettata deontologicamente da tutti i wm.

    Il problema è che i Wm con i contenuti degli altri ci vogliono guadagnare, altrimenti basterebbe un noindex, follow 😉


  • User Newbie

    Io ho sempre saputo che Google presta importanza ai contenuti originali combattendo quelli duplicati. Ora, invece, mi si dice che a Google non gliene frega nulla di distinguere e che dobbiamo convivere con questo andazzo e farcene una ragione.


  • Super User

    @Maurizio42 said:

    Io ho sempre saputo che Google presta importanza ai contenuti originali combattendo quelli duplicati. Ora, invece, mi si dice che a Google non gliene frega nulla di distinguere e che dobbiamo convivere con questo andazzo e farcene una ragione.
    In effetti... 😄


  • User Attivo

    magari ci provano ma non sempre ci riescono


  • User Attivo

    Me uguale, il 26 sera tardi mi son caduti due siti, esattamente come un anno fa.
    Ho la certezza che fare un gran numero di pagine nello spazio di breve tempo ha l'effetto di far cadere il sito. Recentemente in giro per i forum sento di pagine che vengono buttate fuori da google, dai suoi indici...non è che le due cose possano avere una relazione? In quale modo direte: le pagine buttate fuori, rientrando possono essere viste da google come nouve, facendo scattare quindi la classica penalizzazione...un BUG bello e buono!
    Cosa ne pensate?