• Moderatore

    Standards e motori

    Allora la mia domanda è questa:
    ho messo un sito online da una settimana, contenuti aggiornati ogni 24 ore e anche di più, quasi 3000 pagine, BL ne ho avuto una decina, sto aggiungendo BL ogni giorno chiedendo qua e là.......

    google e gli altri hanno preso, per ora, solo la homepage e segnano si e no 2-3 BL......

    mi chiedevo, siccome per siti precedenti mi è capitato di essere completamente spiderizzato in 3-4 giorni, se questo può dipendere dal fatto che ho il sito su IP condiviso e ho usato XHTML....

    tempo fa, proprio su questo forum, leggevo che google in particolare tentasse di spiderizzare i siti prima con HTTP 1.0 e HTML e quindi siti con IP dedicato e che sono codificati in HTML.....

    per il futuro mi consigliate di usare HTML al posto di XHTML? e questa cosa può influenzare il ranking o è solo una scocciatura iniziale che allunga i tempi di spidering?


  • Super User

    3000 pagine di contenuto originale o gia' presente sul web?


  • Moderatore

    è contenuto originale


  • Super User

    @paolino said:

    se questo può dipendere dal fatto che ho il sito su IP condiviso e ho usato XHTML....

    XHTML non c'entra, l'IP condiviso in teoria sì. Ma più ottieni "link forti" e meno tempo ci sta lo spider.

    Senza comunque dimenticare che può dipendere da ben altri fattori.

    per il futuro mi consigliate di usare HTML al posto di XHTML?

    No. Non basare queste scelte sui motori di ricerca. Se dai al motore dei buoni motivi per indicizzare il sito, i motori si ingoiano di tutto, basta attendere.


  • Super User

    Ma più ottieni "link forti" e meno tempo ci sta lo spider.

    Low mi spieghi questa frase per favore :mmm:

    grazie :ciauz:


  • Super User

    beh, credo proprio intendesse dire che se un sito nuovo viene trovato tramite un link dalla homepage di yahoo, ci metta molto meno ad andare in profondita'.

    ma gia' lo sapevi anche tu 😉


  • Super User

    @Rinzi said:

    Low mi spieghi questa frase per favore :mmm:

    Intendevo dire che in presenza di una qualunque situazione in cui Google è costretto a stabilire una priorità di analisi per i siti (compreso il caso in cui deve scegliere quali domini su un IP condiviso devono meritare tempi di analisi minori), uno dei principali parametri su cui Google si basa è il PageRank, che ovviamente deriva dai link.

    E' vero che il PageRank ha perso nel corso degli ultimi anni una certa quantità di peso come fattore di ranking, ma viene usato molto spesso per aiutare Google a prendere decisioni del tipo citato.

    Altri esempi sono l'aiuto che ha dato nel risolvere il problema dei redirect 302 o l'aiuto che dà per stabilire la frequenza e la profondità dello spidering.

    Più si ottengono link "forti" e più il valore di importanza assegnato alle pagine aiuta il sito ad essere trattato meglio da Google.


  • Super User

    Ok LOW grazie... naturalmente mi hai detto cose che sapevo, ma la tua frase non era chiarissima e sapendo come spieghi bene certi concetti ho approfittato della tua disponibilità :ciauz:


  • Super User

    Sì, in effetti mi sono spiegato uno schifo. 😄


  • Moderatore

    concordo con Low sul fatto dei link "forti".....è una cosa che ho potuto sperimentare personalmente.....con 4 siti sono riuscito ad ottenere link da siti con PR 6-7 e sono stati spiderizzati e inclusi nelle SERP nel giro di 3 giorni....senza contare che successivamente google ha continuato a spiderizzarli ogni 2-3 giorni....