• Community Manager

    @Maurizio42 said:

    Ciao Giorgio, grazie per la risposta e scusami se ti ho dato l'impressione di essere agitato. Bè, in effetti lo sono ma non ce l'avevo con te, ci mancherebbe. E' stato proprio con il tuo intervento che mi sono accorto che un sito che ci ha duplicato un intero articolo con tanto di foto (le manine che tengono quell'LG sono le mie) si ritrova nelle prime posizioni mentre il nostro sta sparendo.

    Bene 🙂

    Dura lotta a chi copia e ripubblica senza permesso però. Fà piacere si, ma si dovrebbe chiedere il permesso.

    @Maurizio42 said:

    E' la prima volta in 8 anni che mi capita una cosa simile: non hanno mai subito penalizzazioni né i miei siti né quelli dei miei clienti. E ho sempre pensato che tutti quelli che accusavano Google di aver penalizzato un sito "pulito" fossero in errore e, in molti casi, in malafede. Ma ora ci sono capitato io!

    Questa affermazione mi fa capire molte cose, la prima è che primo o poi capiterà anche a me.

    Allora, prima regola di Fradefra, farsi un giro e giù le mani dalla tastiera, continuare a lavorare normalmente.

    @Maurizio42 said:

    Non credo che il problema riguardi la matrice dei link e neppure le ripubblicazioni (fatte da altri senza il nostro permesso) perchè Be-Cool, ad esempio, non ha subito "ripubblicazioni" e i link che ha ottenuto sono di buon livello (recentemente anche da autorevoli blog stranieri). Non riesco a dare nessuna spiegazione per quello che sta accadendo.

    Okey 🙂

    @Maurizio42 said:

    Le ipotesi mie sono tre:

    • l'update non è ancora completato (anche se ormai i dati si stanno spargendo su tutti i data center, compreso questo http://64.233.189.104/, dove per molte keywords siamo ancora in alto, ma col passare del tempo anch'esso viene contaminato dai nuovi impulsi.

    Ipotesi più plausibile a questo punto.

    @Maurizio42 said:

    -siamo finiti in sandbox;

    No, non penso.

    @Maurizio42 said:

    • dato che il problema lo stanno vivendo anche siti che esistono da 5/6 anni, credo si tratti più verosimilmente di un filtro che, a mio modesto parere, presenta qualche difetto.

    Sarà un test, sarebbe bello sapere a cosa. Stuart? Beke? Low? Rinzi? Must? e tutti gli altri?

    @Maurizio42 said:

    Matt Cutt, è finalmente tornato dalle vacanze e, molto probabilmente, lunedì spiegherà attraverso il suo blog quello che sta accadendo.

    Matt Cutts, se non vado errato, è a capo degli Spammer Killer 😄
    Non so come si chiamano, ma credo che diriga il Team di chi combatte lo spam. Quindi potrebbe avere delle informazioni interessanti.

    @Maurizio42 said:

    Ora comprendo benissimo la frustrazione di coloro che si ritrovano di punto in bianco un sito che sparisce dalla SERPs e per il quale hanno lavorato profondendo impegno e, in molti casi, anche energie finanziarie.

    Spero di non comprenderla mai e spero che duri poco.

    Aspettando news da Matt e ipotesi dai nostri forumisti, ti auguro di tornare più forte di prima 😉

    :ciauz:


  • User Attivo

    secondo la mia esperienza queste penalizzazioni sono una cosa ciclica,
    ovvero per il mio sito principale (per il quale ho sempre utilizzate tecnice whiteSEO) online da 5 anni è già successo 2 volte, questa è la terza: il sito sparisce per qualche mese ma poi quando torna su si piazza meglio e con molte più kw di prima.

    Quindi in linea di massima consiglierei di non allarmarsi troppo e di continuare a lavorare sempre con tecnice seo pulite e di ampliare con nuove pagine i propri amati siti.

    :ciauz: :ciauz:


  • Super User

    assolutamente d'accordo con Martin. lascialo finire e vedremo.

    periodicamente siti piú o meno anziani subiscono questa sorte. a volte dura pochi giorni, a volte qualche settimana, a volte qualche mese.

    secondo me, questo avviene perché ciclicamente applica ai siti giá presenti nell'indice nuovi filtri/algoritmi/antani.

    e magari ci puó essere un errore di valutazione, su quale sia il sito da premiare e quale quello da penalizzare.

    l'importante in queste situazioni é fare finta di niente. continua a lavorare pensando ai tuoi utenti.

    e potresti, ad esempio, obbligare chi vuole ripubblicare i tuoi testi, a linkare 3 volte il sito originale: tipo

    [url="tuosito/guida-seo/"]questa guida al posizionamento é rilasciata dalla sezione [url="tuosito/docs/"]documentazione del sito [url="tuosito/"]tuosito.
    

  • User Attivo

    Ciao,
    imho la risposta a tutto questo casino va cercata nel filtro dupe-content e nei contrappesi che gli sono stati assegnati per la canonizzazione della pagina. Passero' per fissato, ma mi sembra la fragilità piu' evidente del dopo BigDaddy.
    Da quello che vedo nelle SERP è da fine marzo che il ballo è in corso, ora su un settore ora su un'altro.
    Il filtro dupe-content è spietato come mai, ma va in confusione spesso, addirittura a volte va in stallo e non riesce a decidere quale pagina mostrare, randomizza.... e GG mantiene nel db il record doppio per mesi, aggiornando entrambi.

    Ipotizzo che la debolezza nella nuova miscela di algoritmi stia nel fatto che ai fini della canonizzazione di pagina il numero di link (non la qualità, il numero) abbia un peso spropositato rispetto ad altri fattori e all'anzianità di pagina, che GG sembra non considerare proprio.

    Per GG non esistono originali, esistono documenti che nel caso siano uguali hanno bisogno di una decisione, e resta in piedi quello che ha la "qualità" migliore. Chiaro che se nella definizione di qualità l'ingrediente numero-di-link pesa troppo, i risultati possono essere paradossali.

    Un contenuto originale in un blog vecchio con pochi link pesanti ha discrete possibilità di venir cassato dalla sua stessa copia su un portale giovane e linkato a muzzo.... ora purtroppo è cosi'.

    E' stano come GG non abbia inventato un tag per il dupe-content equivalente al rel=nofollow dei link.... qualcosa che possa essere incluso nella licenza di riproduzione: "vuoi pubblicarlo nel tuo sito? accomodati, ma ricorda di mettere il tag <nocare> </nocare>, senno' ciccia".

    Ciao.


  • User Attivo

    @pieropan said:

    Da quello che vedo nelle SERP è da fine marzo che il ballo è in corso, ora su un settore ora su un'altro.

    Posso portare la mia piccola esperienza con un sito ( www.baraccadeibuffoni.com ) che aveva pr=4. Due mesi fa inizia a non apparire più nelle SERP... grande tristezza, e vi dirò di più il pr era = 0!!!

    Dopo un mese il sito è ritornato esattamente dov'era e con il PR ristabilito. Non so quanto possa essere di conforto, ma succede anche questo.

    :ciauz:


  • User Attivo

    Anche a me...

    • Il sito in questione è vecchio di almeno 5 anni.
    • Ho trovato altri siti che duplicano un testo della mia home (una decina di pagine)
    • Avevo appena acquisito alcuni link importanti
    • Ero appena giunto in prima pagina, dopo anni di seconda/terza (forse ci sono stato qualche ora.. sigh!)
    • La sparizione è relativa solo ad alcune chiavi molto competitive (con altre chivi esco normalmente)
    • La query "site:" non mi restituisce l'home page ma solo alcune pagine interne (mi ricorda un vecchio bug di google... del 2004 mi sembra... poi fu risolto)
    • Su almeno 3 DCs sono ancora in prima pagina, su altri 4 ci sono ma in sesta.

    Perchè sconsigliate di modificare il sito durante la sparizione?

    Ciao.


  • Super User

    @madai said:

    Perchè sconsigliate di modificare il sito durante la sparizione?

    io personalmente non sconsiglio di modificare il sito durante la sparizione. sconsiglio di modificare il sito a causa della sparizione. se vuoi/devi modificarlo per l'interesse dei tuoi utenti, fai pure senza patemi. sono le pezze da "sono-disperato-perchè-il-sito-è-sparito-dalle-serp" che creano più problemi che altro, solitamente.


  • User Attivo

    Una volta i motori ammodernavano le loro serp con una continua immissione di pagine nuove.

    Questo causava una serie di problemi, innanzitutto che gli utenti non riuscivano a ritrovare nell'arco di una settimana lo stesso sito che avevano identificato pochi giorni prima per una data key, che non davano il tempo agli algoritmi di qualita' di verificare l'efficacia delle serp (cambiavano continuamente), che i wm modificavano sistematicamente le pagine anche parola per parola per ottimizzare le pagine e vedere entro pochi giorni i risultati, che gli spider lavoravano come pazzi, le risorse hardware per gestire i db si sprecavano...

    Allora hanno rallentato il tutto, con il risultato che le serp tendendenzialmente ora sono molto piu' stabili, ma di contro le modifiche che prima avvenivano gradualmente ora, quando avvengono, sono "brutali".

    Pezzi di siti che scompaiono o che retrocedono in blocco sono motivati anche dalla volonta' di testare il valore di siti concorrenti, oltre al fatto di verificare la bonta' della tarature degli algoritmi.


    La cosa incredibile e' che quando un wm fa un sito nuovo si lamenta che prima di avere un po' di accessi decenti deve aspettare mesi, e si arrabbia con i motori!

    Pero' se lo stesso wm ha un sito vecchio ben messo e poi lo vede di netto mediamente scendere di molte posizioni si lamenta che la cosa non ha senso perche' il sito era anziano, ben fatto, ben lincato ecc ecc.

    In poche parole ogni wm vorrebbe che i suoi siti nuovi guadagnassero posizioni e che i vecchi non ne perdessero...


    Se G trova 2 pagine identiche a lui non importa nulla chi ha scritto prima o dopo l'articolo, chi ne detiene i diritti legali, ecc ecc

    Non e' suo dovere fare queste verifiche, se un testo e' stato duplicato illegalmente sara' il wm titolare del testo ad obbligare chi ha copiato a rimuovere quanto duplicato.

    Pertanto io posso copiare da un buon sito un suo articolo, metterlo su un sito magari anche nuovo o bruttino, o dove mi pare, e poi sperare di superare chi ho copiato.

    Se non mi denuncia il wm e mi va bene (con i motori), magari lo supero!


    Perche' mi potrebbe andare bene? Perche' magari in quel momento c'e' una rotazione delle serp, dei db, una variazione di alcuni parametri dei motori e questo potrebbe avvantaggiarmi.

    Magari G vuole capire se la gente preferisce il mio sito (che copia) rispetto chi e' copiato (magari ho un server + veloce, meno banner, meno link, migliore grafica ecc ecc) perche' per lui non c'e' chi copia e chi ha copiato.

    Ci sono 2 pagine, 2 siti. Un sito vecchio e conosciuto e una marea di siti nuovi o meno che vorrebbero fargli le scarpe.

    E poi c'e' la rotazione ogni tanto.


    Per esempio una mia pagina, una volta ogni due mesi circa, viene messa prima su G per un solo giorno, 24 ore, per una buona key. Quel giorno quella pagina mi rende circa 100$ al giorno, poi il giorno dopo G me la fa scendere di una decina di posizioni... Questo da un anno circa... beh normale, anche se e' assurdo fare un mese si ed uno no 100$ in un giorno con una sola pagina che non rende normalmente manco 3 cent al giorno.

    Stessa cosa per un mio intero sito. Ogni tanto (diciamo una volta ogni 12-15 mesi) G me lo spara per una decina di giorni ai primi posti per centinaia di buone key, poi solita zuppa. Per capirci in quel periodo di up G mi porta circa 100-120k unici al giono. Impressionante... poi solita zuppa, i miei 3k al giorno e pedalare... normale.

    Idem per i siti nuovi, li prende poi li leva, poi li fa ammuffire, poi li rimette, poi li banna... normale.

    O si accetta che il "mondo" wm+motori funziona (e sara' sempre) cosi' o prima o poi si finira' in depressione o nel migliore dei casi con la pressione a palla per le arrabbiature.

    Capito questo diventa un bel mestiere.


  • User Attivo

    agoago non c'è dubbio che quanto dici sia una realtà quotidiana per la quale dopo un po' di mestiere ci si abitua... e di certo non si viene a postare presi dal panico tipico dei neofiti. C'è da dire però che circa sconvolgimenti delle serps più globali e drastiche come questa è sempre meglio discuterne per comprenderne le ragioni ed adeguare il proprio stile di fare seo. Quello che dici circa i contenuti copiati è sacrosanto... se questo è il nuovo trend dobbiamo cominciare a "difenderci"... inserendo nella lista quotidiana di cose da fare anche il controllo di persistenza dell'unicità dei propri contenuti. Magari dobbiamo cominciare ad utilizzare le [url=http://it.wikipedia.org/wiki/Creative_Commons]Creative Commons...


  • User Attivo

    @madai said:

    agoago non c'è dubbio che quanto dici sia una realtà quotidiana per la quale dopo un po' di mestiere ci si abitua... e di certo non si viene a postare presi dal panico tipico dei neofiti. C'è da dire però che circa sconvolgimenti delle serps più globali e drastiche come questa è sempre meglio discuterne per comprenderne le ragioni ed adeguare il proprio stile di fare seo. Quello che dici circa i contenuti copiati è sacrosanto... se questo è il nuovo trend dobbiamo cominciare a "difenderci"... inserendo nella lista quotidiana di cose da fare anche il controllo di persistenza dell'unicità dei propri contenuti. Magari dobbiamo cominciare ad utilizzare le [url=http://it.wikipedia.org/wiki/Creative_Commons]Creative Commons...

    Si e' giusto discuterne sempre, riportavo la mia esperienza personale per far capire che cosi' e' la vita, di non prendersela piu' di tanto, ovvio che e' invece molto importante ragionare ogni volta che una serp cambia parecchio per capire come difendersi o come attaccare.

    Il problema dei contenuti duplicati e' piu' un dramma che un problema. Si dovrebbe trovare una soluzione veramente globale, accettata deontologicamente da tutti i wm.

    Creative Commons e' uno strumento bellissimo di condivisione, spero che abbia il successo che merita.


  • Super User

    @agoago said:

    Stessa cosa per un mio intero sito. Ogni tanto (diciamo una volta ogni 12-15 mesi) G me lo spara per una decina di giorni ai primi posti per centinaia di buone key, poi solita zuppa. Per capirci in quel periodo di up G mi porta circa 100-120k unici al giono. Impressionante... poi solita zuppa, i miei 3k al giorno e pedalare... normale.
    Ehm... Un sito che fa 100-120mila unici/giorno (quando gli va grassa) e 3mila quando gli va magra, e subisce quel genere di oscillazioni nelle SERP ("per una decina di giorni ai primi posti per centinaia di buone key" --sottolineo primi posti, centinaia e buone key), non è esattamente quel che viene comunemente definito un sito "normale". 🙂

    Post molto interessante, comunque. Grazie ago


  • User Attivo

    Vero, e' un sito quasi istituzionale, vecchio di 8 anni ma abbandonato a se stesso...

    Tra l'altro nella pagina Query stats di Google Sitemaps i valori che mi fa vedere G sono quasi tutti sbagliati, mi da tra i primi 10 sempre per decine di key secche letteralmente impossibili, tipo "email" ma poi quando controllo non esisto, un bel baco.


  • Community Manager

    @agoago said:

    Il problema dei contenuti duplicati e' piu' un dramma che un problema. Si dovrebbe trovare una soluzione veramente globale, accettata deontologicamente da tutti i wm.

    Il problema è che i Wm con i contenuti degli altri ci vogliono guadagnare, altrimenti basterebbe un noindex, follow 😉


  • User Newbie

    Io ho sempre saputo che Google presta importanza ai contenuti originali combattendo quelli duplicati. Ora, invece, mi si dice che a Google non gliene frega nulla di distinguere e che dobbiamo convivere con questo andazzo e farcene una ragione.


  • Super User

    @Maurizio42 said:

    Io ho sempre saputo che Google presta importanza ai contenuti originali combattendo quelli duplicati. Ora, invece, mi si dice che a Google non gliene frega nulla di distinguere e che dobbiamo convivere con questo andazzo e farcene una ragione.
    In effetti... 😄


  • User Attivo

    magari ci provano ma non sempre ci riescono


  • User Attivo

    Me uguale, il 26 sera tardi mi son caduti due siti, esattamente come un anno fa.
    Ho la certezza che fare un gran numero di pagine nello spazio di breve tempo ha l'effetto di far cadere il sito. Recentemente in giro per i forum sento di pagine che vengono buttate fuori da google, dai suoi indici...non è che le due cose possano avere una relazione? In quale modo direte: le pagine buttate fuori, rientrando possono essere viste da google come nouve, facendo scattare quindi la classica penalizzazione...un BUG bello e buono!
    Cosa ne pensate?


  • User Newbie

    @ZioJo said:

    un BUG bello e buono!
    Cosa ne pensate?
    Se dovessi giudicare in base a quello che è successo a due miei siti e alle pagine spam che sto trovando piazzate nelle prime posizioni dal 27 mattina, sì: per me è un BUG. L'ultimo update, sta premiando siti come questi: www2875.importanti.net, www830.nuovosenso.com, 9.tempomoderno.com , www1691.webattrezzi.com, yizig.itancona.info, viden.itpagina.info ... ce ne sono a bizzeffe, fatevi un giretto e vedrete che hanno intasato gli indici di Google in maniera impressionante. Nella gran parte dei casi si tratta di doorways page...se questo significa combattere lo spam, siamo fritti!! Peraltro si tratta di siti che duplicano in automatico intere pagine di altri siti, blog soprattutto.


  • User

    @Maurizio42 said:

    Se dovessi giudicare in base a quello che è successo a due miei siti e alle pagine spam che sto trovando piazzate nelle prime posizioni dal 27 mattina, sì: per me è un BUG. L'ultimo update, sta premiando siti come questi: www2875.importanti.net, www830.nuovosenso.com, 9.tempomoderno.com , www1691.webattrezzi.com, yizig.itancona.info, viden.itpagina.info ... ce ne sono a bizzeffe, fatevi un giretto e vedrete che hanno intasato gli indici di Google in maniera impressionante. Nella gran parte dei casi si tratta di doorways page...se questo significa combattere lo spam, siamo fritti!! Peraltro si tratta di siti che duplicano in automatico intere pagine di altri siti, blog soprattutto.
    quoto 🙂


  • User Attivo

    Non se avete provato a cercare il testo di "Inventa una poesia" nei 3 principali motori di ricerca.

    La canzone e' bellissima, veramente un piccolo capolavoro, l'ascolto a loop continuamente.

    Beh, se cercate il testo di "Inventa una poesia" nei 3 maggiori motori trovarete uno spammer pesantemente comune a tutti e 3 i motori.

    Questo e' un classico esempio-riprova di alcuni limiti dei motori che gli spammer sfruttano per primeggiare nelle serp.

    --

    Questo post non e' stato scritto per discutere dei limiti dei motori nei confronti di chi spamma, ma unicamente per rendere omaggio ad "Inventa una poesia" e a "Mariele chi e'".

    Per chi non sapesse chi e' Mariele:

    http://it.wikipedia.org/wiki/Mariele_Ventre

    C'e' un gabbiano che plana in montagna ed un cammello che sta al polo nord...

    C'e' un oceano dentro un acquario ed una stella marina nel Po...

    ... inventa una poesia... qualunque cosa sia... la fantasia... inventa una poesia...