• User Attivo

    Ipotesi nuova (posizionamento serp, penalizzazioni)

    Personalmente ho quasi la certezza di un effetto operante nelle serp in presenza di determinate situazioni:
    Quando due pagine di diversi siti con rapporti di link e con contenuto simile si trovano appaiate nella stessa pagina; dopo un periodo di breve coesistenza una butta giu' l'altra.
    Questo potrebbe spiegare le penalizzazioni, ad es. con l'entrata di grossi siti con pagerank alto che indicizzano masse enormi di pagine di molti siti (siti simili a spam engine o portali), numeroso siti minori spariranno dalle posizioni top, venendo sostituiti.
    Google potrebbe utilizzare questo sistema per semplificare il contenuto di una pagina a scopo di rendere facile e varia la ricerca agli utenti. penalizzando pero' i siti a cui vengono sottratti contenuti a proprio scopo pubblicitario.

    La ragione per cui penso questo e' per un esperimento ed alcune cose che ho notato su alcuni miei siti e secondo quello che diceva WebCarlo nelle discussioni di giorni fa' riguardo "siti parassiti".


  • Super User

    Se quello che dici è corretto il bug 302 è niente in confronto a questo!

    Supponiamo che ci sia uno scopo nobile: io sul mio sitino scopiazzo un articolo di repubblica, l'utente cerca e google mostra solo i risultati di Repubblica. Mi fa un po' paura ma fino a qui il discorso fila. Se però incrocio la tua osservazione con il test di Webcarlo allora mi preoccupo perchè:

    1. i siti di cui lui NON ha parlato non sono la repubblica, anzi
    2. di fatto sono loro a prelevare da altri siti e non viceversa
    3. Per un sito nuovo sarà veramente dura (se non impossibile emergere) se il criterio applicato dal fetente per capire chi copia chi sarà il PR, anche se fosse quello vero e non quello della toolbar

    temibile ...


  • User Attivo

    Aggiungo questa nota, che dovrebbe far riflettere come questi siti guadagnano valore:
    attualmente, secondo me e sto facendo un altro test, Google non vuole (o forse non è in grado, e comunque non è chiaro) tirare via dalle proprie SERP i vari spam engine. La potenza di questi spam engine (magari fossero come quelli che avevano impestato la rete circa 5 mesi fa e più) è stata quella di acquisire fiducia dai navigatori e proprietari di siti web (che sicuramente non hanno mai letto questo forum o altri), che ingannati dalle sembianze di un portale (per il 20% lo è) mettono i link a queste risorse.
    L'80% del sito è invece ottenuto dinamicamente (volendo basta solo una pagina 🙂 ) facendo query ad overture ed espotting.

    Il loro punto di forza è proprio nel camuffarsi da portali, quindi non hanno bisogno (come accadeva negli spam engine di creare un network di siti), ma sono in grado di ricevere link spontanei.

    Un sito inzia con PU e l'altro con BE. Io ho già scritto ad entrambi di tirarmi via ma le loro risposte erano imbarazzate e vaghe.
    Per chi non è stato penalizzato, forse questa storia dei parassiti ha un po' del fantasioso, ma lo stesso fenomeno accade anche negli USA e in altri stati. Sto monitorando dei siti statunitensi penalizzati e nel loro caso ci sono altri siti che recano disturbo.

    O Google non vuole, o non è in grado, o come dice ZioJo, non è chiaro. Inoltre il sito BE utilizza adsense e non potrebbe farlo


  • User Attivo

    Se davvero e' come la mia supposizione (originariamente lanciata da WebCarlo) si spiegano molte cose; ad esempio si puo' spiegare la causa del perche' a volte essere linkati puo' essere dannoso, mentre attualmente circolano varie leggende in riguardo.


  • User Attivo

    @pieru said:

    Se quello che dici è corretto il bug 302 è niente in confronto a questo!

    Supponiamo che ci sia uno scopo nobile: io sul mio sitino scopiazzo un articolo di repubblica, l'utente cerca e google mostra solo i risultati di Repubblica. Mi fa un po' paura ma fino a qui il discorso fila. Se però incrocio la tua osservazione con il test di Webcarlo allora mi preoccupo perchè:

    1. i siti di cui lui NON ha parlato non sono la repubblica, anzi
    2. di fatto sono loro a prelevare da altri siti e non viceversa
    3. Per un sito nuovo sarà veramente dura (se non impossibile emergere) se il criterio applicato dal fetente per capire chi copia chi sarà il PR, anche se fosse quello vero e non quello della toolbar

    temibile ...
    Se tu copi un articolo di Repubblica non succedera' niente, anche perche' il giorno dopo Repubblica aggiorna ed ha un pagerank proibitivo, ma se copi un tratto di testo da un altro sito e lo linki, e le pagine dei rispettivi siti hanno valutazione allo stesso livello risultando appaiate nelle serp, allora una va giu' di brutto.
    Facciamo un esperimento se c'e' qualcuno che si presta, se riesce automaticamente si rendera' ufficiale il bug, in caso contrario abbiamo preso un abbaglio e le cose che abbiamo notato (personalmente: "verificato") io e WebCarlo saranno delle coincidenze straordinarie.


  • Super User

    Ok l'esempio della Repubblica non era perfetto ma il succo del discorso fila no? Cioè secondo te il motivo potrebbe essere che GG cerca di non mostrare all'utente dei duplicati? E' chiaro che si tratta di un bug o quanto meno di un algoritmo con vistose imperfeziosi ma se riusciamo a capire cosa ci sta dietro potremmo metterci sulla strada giusta no?

    Una altro dubbio. Tutti i casi che io sono riuscito a tracciare si basano comunque su SERP di overture. Mi confermate?


  • Super User

  • Super User

    Grazie Must! Ora è tutto molto più chiaro.
    Concordi quindi con l'opinione ddi zioJo?