• Super User

    diciamo che non è proprio il mio caso. Ogni pagina ha molti contenuti univoci e ben in tema con i title. Quali possono essere altri fattori per il quale è successo? E soprattutto è una cosa reversibile: come uscire insomma dall'indice dei risultati supplementari rientrando in quello normale? E' una macchia che il sito rischia di portarsi dietro a lungo?

    🙂


  • Super User

    @micky said:

    diciamo che non è proprio il mio caso. Ogni pagina ha molti contenuti univoci e ben in tema con i title. Quali possono essere altri fattori per il quale è successo? E soprattutto è una cosa reversibile: come uscire insomma dall'indice dei risultati supplementari rientrando in quello normale? E' una macchia che il sito rischia di portarsi dietro a lungo?

    🙂
    Io ci sono riuscito con l'aumento notevole di BL e contenuti 😉

    :ciauz:


  • Super User

    @angelweb said:

    Io ci sono riuscito con l'aumento notevole di BL e contenuti 😉

    :ciauz:

    ok grazie :).
    Altre esperienze in merito? Sempre su come uscire dai risultati supplementari di google?


  • Community Manager

    @micky said:

    ok grazie :).
    Altre esperienze in merito? Sempre su come uscire dai risultati supplementari di google?

    Che strano...io ho notato che entravo in questa fase solo se i contenuti interni erano più o meno uguali dopo il body...

    Posso vedere il tuo caso, magari anche in pvt (se non vuoi mostrarlo in pubblico)? Mi interessa studiare perchè per me è nuovo 🙂


  • Super User

    😉
    vi dico cosa ho notato in altri casi riguardo alle cause per le quali pagine di un sito vengono relagate ai risultati supplementari.

    • pagine troppo in profondità rispetto alla index, senza un' adeguata navigazione (ossia senza che sia giustificata la profondità della pagina stessa) (forse anche per un livello di pagerank molto molto basso)
    • pagine, come diceva lo stesso Giorgio del resto, con poco testo unico o pagine vuote (solo uploadate sul server)
    • pagine duplicate (intere sezioni ottenute con i programmi di affiliazione (coockie cutters) bandite del resto anche dalle linee guida di google).
    • pagine duplicate: finiscono nei supplementari le pagine del sito meno autorevole.
    • pagine con stessi titoli e descrizioni (a volte tale situazione può dare luogo al solo filtraggio "Al fine di visualizzare i risultati più rilevanti, sono state omesse alcune voci molto simili alle 141 già visualizzate.
      In alternativa, è possibile ripetere la ricerca includendo i risultati omessi" espandendo quest'ultimo link non necessariamente si osserva che le pagine sono relegate ai supplementari: a volte si a volte no.
    • siti con distonia di navigazione (non l'ho osservato direttamente ma è anche solo logicamente presumibile che sia così)
    • siti con parecchi link morti
    • siti precedentemente bannati e che pur essendo tornati nell'indice stentano a decollare nuovamente
    • siti con errata consistenza di linkaggio (anche qui non osservato direttamente)

    se noto altri casi o mi vengono in mente altri punti osservati, li aggiungo al thread. Nel frattempo, come al solito, critiche e considerazioni sono graditissime.


  • User Attivo

    @angelweb said:

    Io ci sono riuscito con l'aumento notevole di BL e contenuti 😉

    :ciauz:

    E solo con i contenuti è sufficiente ?


  • Super User

    @John Koenig said:

    E solo con i contenuti è sufficiente ?
    No, solo i BL danno maggiore consistenza e credibilità ad un dominio.


  • User Attivo

    @angelweb said:

    No, solo i BL danno maggiore consistenza e credibilità ad un dominio.

    l'aumento dei contenuti sono una causa dell'aumento dei BL, a patto che i siano di qualità


  • Super User

    [LEFT]Matt ha dett..

    Having urls in the supplemental results doesn?t mean that you have some sort of penalty at all; the main determinant of whether a url is in our main web index or in the supplemental index is PageRank. If you used to have pages in our main web index and now they?re in the supplemental results, a good hypothesis is that we might not be counting links to your pages with the same weight as we have in the past. The approach I?d recommend in that case is to use solid white-hat SEO to get high-quality links (e.g. editorially given by other sites on the basis of merit).

    http://www.mattcutts.com/blog/infrastructure-status-january-2007/

    :ciauz:
    [/LEFT]


  • User Attivo

    Ciao,
    ne stiamo parlando in altre discussioni e lo abbiamo già fatto un pò in passato, anche se ancora (parlo per me) non riesco a capire bene il funzionamento di questa cosa:

    I link alle altre discussioni sono questi:

    http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/27562-risultati-supplementari-facciamo-chiarezza.html

    http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/29024-risultati-supplementari.html

    Magari cerchiamo di convogliare tutti post in un solo thread 😉


  • Super User

    La "ratio" del funzionamento è abbastanza semplice ed è questa:

    Per risparmiare tempo di computazione risorse si catalogano i documenti meno autorevoli (quindi con meno link e/o link poco forti, quindi documenti che difficilmente appariranno nelle prime pagine delle serp) in un indice differente che

    1. viene rinfrescato meno spesso

    2. a parte rari casi, quando per esempio non si riescono a trovare risultati rilevanti nell'iondice principale, non viene coinvolto "a query-time", cioè in risposta ad una query.