- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Pubblicazione xx.000 pagine su nuovo sito
-
@must said:
se per esempio l'homepage linka 100 pagine, io aggiungerei una pagina al giorno per ognuno di questi 100 livelli creati. quindi 100 pagine nuove al giorno.
dalla home saranno linkate solo 5 sezioni e da li il via al resto
io considererei lo sforzo per creare nuovi contenuti.
i contenuti sono tutti nel mio CMS, devo solo decidere con che cadenza liberarli
io pensavo di partire con un 100/150 pagine e sbloccanrne in maniera random 10 o 15 o nulla
-
con 5 sezioni, farei al massimo 3 pagine per sezione (non necessariamente in maniera cosi' equa, ma come media approssimativa, ecco).
-
Falle uscire a random le pagine e come hai detto salta qualche giorno.
Un consiglio:
se tu lavori per data potresti rischiare di fare uscire le nuove pagine tutte di un botto dopo la mezzanotte. Invece cerca di buttare fuori le pagine in diverse ore del giorno.Puoi a priori stabilire quante pagine buttare fuori quel giorno e disseminarle nell'arco delle 24 ore in modo random.
Google si accorgerebbe se vedesse che le nuove pagine vengono pubblicate sempre alla stessa ora, indipendentemenete che sia 1 o più. La domanda che Google si farebbe: come fa questo qui a produrre tot pagine nello stesso momento? Non è un umano, è un db, quindi spam.
-
@WebCarlo said:
La domanda che Google si farebbe: come fa questo qui a produrre tot pagine nello stesso momento? Non è un umano, è un db, quindi spam.
quoto abbestia
:mani:
-
l'osservazione di webcarlo è corretta,
nn è un problema spalmare il tutto in orari diversi...
devo solo decidere come e quanto pubblicare...
-
credo anche che la quantita' di contenuto da pubblicare al giorno vada di pari passo con il pagerank che riesci ad ottenere.
esempio: repubblica.it produce diverse pagine (ipotizzo una cinquantina?) al giorno, e sta tra PR7 e PR8.
se tu sai che puoi ottenere una potenza di fuoco da PR5, tieniti sulle 15, non di piu'
-
Aprire 10 nuovi siti ?
-
@uMoR said:
Aprire 10 nuovi siti ?
pechè?
-
@WebCarlo said:
La domanda che Google si farebbe: come fa questo qui a produrre tot pagine nello stesso momento? Non è un umano, è un db, quindi spam.
Anche io sono d'accordo sul fatto che sarebbe meglio rendere un po' casuale l'introduzione dei nuovi contenuti, però l'equivalenza "db = spam" mi lascia un po' perplesso.
Se Google trova contenuti realmente unici (roba che non si trova in nessun altro poso e magari talmente originale che la gente inizia a linkarla), non penso che gli importi molto se i contenuti provengono da un database o se sono stati inseriti a mano.
Molte riviste online aggiornano ad un preciso orario pubblicando contemporaneamente tutti i nuovi articoli, e non avrebbe senso penalizzare questa tecnica solo perché denota l'esistenza di un meccanismo a tempo.
-
Bhe, con 10.000 pagine crei 10 siti di 1000.
Io se non avessi problemi di marchio, farei così.Ogni sito il suo valore, i suoi backlink, i suoi contenuti, il suo ip.
Magari nel complesso fai più accessi ?
-
Sono d'accordo con Low.
Se li rendi unici o sono unici non influenza la spiderizzazione e il ban a patto che il sito rientri nei canoni che Google ritiene giusti.
Per esempio i link come dice Low, quanto sono gradite le pagine agli utenti, la popolarità e affidabilità di un sito e molto molto altro.
-
Aggiungo anche il fatto che quando si parla di migliaia di pagine, è improbabile che il sito non faccia uso di un database. Sarebbe strano il contrario, semmai.
-
concordo con l'ultimo intervento di low.
non è tanto l'uso di un db o di una pubblicazione a tempo il problema, eventualmente il problema risiede nei contenuti.I siti di informazione come tgcom o publiweb (non lo so, sto andando per ipotesi) potrebbero tranquillamente pubblicare decine di pagine in una data ora perchè i giornalisti preparano i testi, li caricano nel sistema il quale ad una data ora li pubblica ma non per questo deve essere penalizzante.
non tutti i wm ragionano in funzione dei motori di ricerca ed è questo il caso in cui sono i motori a doversi adattare ai wm e non il contrario.se ho un sito scadente sono io wm che devo adattarmi a come pensa un'algoritmo, se ho un sito valido è l'algoritmo che deve preoccuparsi di adattarsi al mio modo di fare.
Visto che gg è mosso da persone che ragionano per andare a prendere i siti che si occupano degli utenti... probabilmente hanno preso in considerazione sia la gestione di pagine tramite un db che la pubblicazione a tempo.
-
stanotte :sonno: mi è venuto in mente che ho tralasciato un aspetto fondamentale
tutte le pagine key1key2.php saranno precaricate sul server il primo giorno (quindi tutte con una data di modifica identica poichè generate da uno script) ma saranno sganciate a poche per volta
quindi il discorso della pubblicazione dopo la mezzanotte o a orario fisso nn sussiste perchè le pagine fisicamente esistono fin dal primo giorno (questo può essere un handicap) ma verranno spalmate nel sito nell'arco di un anno senza nessun intervento manuale
l'idea di Umor può essere buona per sfruttare il vasto numero di contenuti ma nn so se mi metterò a dividere il tutto