• User Attivo

    Sottodirectory con 40 pagine max per non entrare nei risultati supplementari

    Allora...
    il mio esperimento per NON mandare le pagine nei risultati supplementari:

    Creare sottodirectory con un unico tema e con max 30-40 pagine ovviamente completamente diverse tra loro title description e meta tags.
    Le pagine sono linkate tutte tra loro in ogni pagina nel menu.

    Per adesso noto che 1 sola su 30 è caduta nei risultati supplementari.

    Il perchè usare le subdirectory e non i sottodomini = no sandbox.

    Qualcuno conferma se la strada è quella giusta? Altri esperimenti? Consigli?


  • Super User

    Ciao Archetipo,

    in questa sezione del forum, come indica il regolamento:

    http://www.giorgiotave.it/forum/penalizzazioni-e-consigli-seo/34637-regole-specifiche-di-sezione.html

    prendiamo in esame solamente casi studio di progetti reali per quanto concerne le penalizzazioni ed i miglioramenti lato seo.

    A tal proposito, ti sposto nella sezione adatta: Posizionamento nei motori di ricerca.

    Ad ogni modo, secondo la mia esperienza, i domini di terzo livello non subiscono effetti di sandbox (sempre che questa esista davvero 🙂 ).

    ciao! 😉


  • User Attivo

    ciao archetipo,

    io suddividerei le due cose, sandbox e risultati supplementari.

    per quanto riguarda la sandbox, in realtà non ho mai affrontato l'argomento e sinceramente non me ne preoccupo.

    per quanto riguarda i risultati supplementari, non sono ne le directory, ne i domini di terzo livello ne tanto meno il numero di pagine che ne influiscono la loro generazione, dipendo solo se title, tag e contenuti sono simili...

    achille


  • User Attivo

    @trancedesigner said:

    per quanto riguarda i risultati supplementari, non sono ne le directory, ne i domini di terzo livello ne tanto meno il numero di pagine che ne influiscono la loro generazione, dipendo solo se title, tag e contenuti sono simili...

    achille

    No...non è così...purtroppo non basta solo differenziare le pagine con diversi title tag e contenuti... ogni sito ha una % di pagine nei supplementari e questa varia in base al numero di pagine totali... dal peso del sito in termini di link pop. ecc.
    Ho notato che inserendo contenuti NUOVI il bot "digerisce" pian piano le pagine e stando sotto un certo numero si evita la caduta nell'oblio.
    Indicizza meglio e totalmente piccole porzioni di sito divise in subdir piuttosto che migliaia di pagine in root... perlomeno è quello che sto sperimentando poi linkare le stesse pagine con stesso tema è un altro modo
    per "ricordarle" tutte.Ah... ho visto che utilizzando i vari cms (anche drupal ottimizzato seo) non si ha lo stesso risultato di codice pulito puro html, più è semplice la pagina con molto testo e poca grafica e quindi leggera da caricare meglio è.


  • Bannato User Attivo

    No...non è così...purtroppo non basta solo differenziare le pagine con diversi title tag e contenuti... ogni sito ha una % di pagine nei supplementari e questa varia in base al numero di pagine totali... dal peso del sito in termini di link pop. ecc.
    Ho notato che inserendo contenuti NUOVI il bot "digerisce" pian piano le pagine e stando sotto un certo numero si evita la caduta nell'oblio.
    Indicizza meglio e totalmente piccole porzioni di sito divise in subdir piuttosto che migliaia di pagine in root... perlomeno è quello che sto sperimentando poi linkare le stesse pagine con stesso tema è un altro modo
    per "ricordarle" tutte.Ah... ho visto che utilizzando i vari cms (anche drupal ottimizzato seo) non si ha lo stesso risultato di codice pulito puro html, più è semplice la pagina con molto testo e poca grafica e quindi leggera da caricare meglio è.

    Posso confermare quanto detto. Io ho notato in passato che Google mi mandava le pagine nei supplementari quando per un dato periodo non trovava nuovi link in entrata per siti ancora deboli... il title e i contenuti centrano ma non basta variarli per evitare i supplementari... e poi noto che i siti entrano ed escono dai supplementari con estrema facilità, più di qualche tempo fa... Pensate che ieri parlavo con un cliente che ha nei supplementari anche la home del sito che vi assicuro ha contenuti unici...

    Rik


  • User Attivo

    mi sa che l'ingippo sta da un'altra parte... differenziendo testo, title e description, non mi mai successo di vedere pagine nei risultati supplementari ne con siti vecchi ne con domini nuovi...

    achille


  • Bannato User Attivo

    mi sa che l'ingippo sta da un'altra parte... differenziendo testo, title e description, non mi mai successo di vedere pagine nei risultati supplementari ne con siti vecchi ne con domini nuovi...

    achille

    Probabilmente perchè gli stavi anche dietro coi backlink... e Google ne trovava sempre di nuovi e importanti... Comunque a me è successo ed anche ad altre persone che conosco... Sarà sfortuna?

    Rik


  • User Attivo

    "mi sa che l'ingippo sta da un'altra parte... differenziendo testo, title e description, non mi mai successo di vedere pagine nei risultati supplementari ne con siti vecchi ne con domini nuovi...

    achille"

    Achille, di quante pagine parli? intendo sito con n pagine =

    • è grosso il sito + ci sono pagine = + probabile cadere nei ris. supp.

    la mia impressione è che Mr. G. tagli apposta sempre e comunque una % di pagine di qualunque sito...
    Stavo giusto guardando un famoso blog italiano sul marketing che ha sempre articoli ben fatti unici ed originali, eppure anche in quello una % è caduta nei ris. supp. vuoi che le pagine erano vecchie (ma i contenuti invecchiano?) o con pochi backlinks.
    E poi con questa storia dei BL... come si fa ad ottenere BL tematici quando si tratta un tema molto particolare? per non parlare poi della "stitichezza" di webmaster che non si azzardano a linkare in uscita altri siti per paura di perdere il "prezioso" pr ! capiranno mai che anche un link out in tema è valido quanto uno in ingresso....boh!