• Super User

    l'osservazione di webcarlo è corretta,

    nn è un problema spalmare il tutto in orari diversi...

    devo solo decidere come e quanto pubblicare... 😉


  • Super User

    credo anche che la quantita' di contenuto da pubblicare al giorno vada di pari passo con il pagerank che riesci ad ottenere.

    esempio: repubblica.it produce diverse pagine (ipotizzo una cinquantina?) al giorno, e sta tra PR7 e PR8.
    se tu sai che puoi ottenere una potenza di fuoco da PR5, tieniti sulle 15, non di piu' 🙂


  • User Attivo

    Aprire 10 nuovi siti ?


  • Super User

    @uMoR said:

    Aprire 10 nuovi siti ?
    pechè? :mmm:


  • Super User

    @WebCarlo said:

    La domanda che Google si farebbe: come fa questo qui a produrre tot pagine nello stesso momento? Non è un umano, è un db, quindi spam.

    Anche io sono d'accordo sul fatto che sarebbe meglio rendere un po' casuale l'introduzione dei nuovi contenuti, però l'equivalenza "db = spam" mi lascia un po' perplesso.

    Se Google trova contenuti realmente unici (roba che non si trova in nessun altro poso e magari talmente originale che la gente inizia a linkarla), non penso che gli importi molto se i contenuti provengono da un database o se sono stati inseriti a mano.

    Molte riviste online aggiornano ad un preciso orario pubblicando contemporaneamente tutti i nuovi articoli, e non avrebbe senso penalizzare questa tecnica solo perché denota l'esistenza di un meccanismo a tempo.


  • User Attivo

    Bhe, con 10.000 pagine crei 10 siti di 1000.
    Io se non avessi problemi di marchio, farei così.

    Ogni sito il suo valore, i suoi backlink, i suoi contenuti, il suo ip.

    Magari nel complesso fai più accessi ?


  • Community Manager

    Sono d'accordo con Low.

    Se li rendi unici o sono unici non influenza la spiderizzazione e il ban a patto che il sito rientri nei canoni che Google ritiene giusti.

    Per esempio i link come dice Low, quanto sono gradite le pagine agli utenti, la popolarità e affidabilità di un sito e molto molto altro.


  • Super User

    Aggiungo anche il fatto che quando si parla di migliaia di pagine, è improbabile che il sito non faccia uso di un database. Sarebbe strano il contrario, semmai.


  • Super User

    concordo con l'ultimo intervento di low.
    non è tanto l'uso di un db o di una pubblicazione a tempo il problema, eventualmente il problema risiede nei contenuti.

    I siti di informazione come tgcom o publiweb (non lo so, sto andando per ipotesi) potrebbero tranquillamente pubblicare decine di pagine in una data ora perchè i giornalisti preparano i testi, li caricano nel sistema il quale ad una data ora li pubblica ma non per questo deve essere penalizzante.
    non tutti i wm ragionano in funzione dei motori di ricerca ed è questo il caso in cui sono i motori a doversi adattare ai wm e non il contrario.

    se ho un sito scadente sono io wm che devo adattarmi a come pensa un'algoritmo, se ho un sito valido è l'algoritmo che deve preoccuparsi di adattarsi al mio modo di fare.

    Visto che gg è mosso da persone che ragionano per andare a prendere i siti che si occupano degli utenti... probabilmente hanno preso in considerazione sia la gestione di pagine tramite un db che la pubblicazione a tempo.


  • Super User

    stanotte :sonno: mi è venuto in mente che ho tralasciato un aspetto fondamentale

    tutte le pagine key1key2.php saranno precaricate sul server il primo giorno (quindi tutte con una data di modifica identica poichè generate da uno script) ma saranno sganciate a poche per volta

    quindi il discorso della pubblicazione dopo la mezzanotte o a orario fisso nn sussiste perchè le pagine fisicamente esistono fin dal primo giorno (questo può essere un handicap) ma verranno spalmate nel sito nell'arco di un anno senza nessun intervento manuale 😄

    l'idea di Umor può essere buona per sfruttare il vasto numero di contenuti ma nn so se mi metterò a dividere il tutto