- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Nuovi contenuti: meglio un pò alla volta?
-
IMHO è meglio se inserisci gradualmente...
-
Ciao Salatti.
perchè sostieni che è meglio se le inserisci gradualmente?
-
Si concordo anche io con salatti.NET (C# o VB.NET?:)).
Pubblicare gradualmente le pagine fa percepire al motore la crescita del sito pertanto lo spider passerà più frequentemente sul dominio sperando di trovare nuovi contenuti per gli utenti.
-
Ciao Fabri
io credo che ci sia a tutto una logica quando si parla di motori di ricerca e spesso ci focalizziamo troppo nell'effetto e non capiamo la causa.Concordo con il fatto che se pubblichiamo gradatamente le pagine lo spider passa frequentemente, ma passa frequentemente fin tanto che trova contenuto aggiornato.
Quindi se si carica 10 pagine oggi ,10 domani ecc.. e poi ci si ferma nel tempo si avrà il solito risultato di caricarne tutte insieme.
Non faccio polemica, guarda bene, è solo uno strumento di studio.
Ci sono test che confermano che è meglio metterne poco per volta?
-
Scusatemi e se un sito decidesse di assumere 4 giornalisti, cosa deve fare pubblicare solo 4 articoli al giorno ? Altrimenti GG ti penalizza ?
Anche secondo me
"Se non sono spam e il contenuto è orginale e conforme alle linee guida non hai problemi. "
saluti
lino
-
credo che caricarne una al giorno, a colpi di 10 o tutte insieme sia puramente un discorso organizzativo.
è vero che se carico una pagina al giorno, sistemo lo spider per 50 giorni, però alla fine il risultato è il medesimo se non continuo a creare testi originali e di qualità.
se mediamente ci metto molto a creare contenuti, allora abbassa la frequenza di upload, ma se non hai problemi a sfornare testi, non preoccuparti troppo di caricarle, anche tutte in una volta.
ovviamente IMHO
-
Su questo punto ho la mia idea ed è quello che ho visto: caricando 50 pagine su un dominio se vogliamo pensare che Google ragiona come un umano (per me lo è anche ;)), dobbiamo dire che lui a quel punto dovrà riorganizzare le idee per quel sito per capire dove piazzarlo.
Ecco perchè quando si caricano molte pagine si perde nel posizionamento per poi tornare dopo l'assestamento su di colpo, magari più avanti o più indietro di prima.
Se invece se ne caricano poche per volta avrà meno tempo per focalizzarle e stabilizzarle e non ti compromette il posizionamento.Questa è la mia esperienza sia nel caricare un documento che cinquanta.
Personalmente per dirla tutta io carico massimo 1-2 pagine ogni settimana e non mi smuove dalle mie serp e aumenta di volta in volta la position.Se carichi 50/100 documenti con una botta, dovrai attendere il rimescolamento del tuo sito per poi stabilizzarsi di nuovo.
IMHOs'
-
Sì, concordo con angelweb.
Allora è doveroso premettere che se devo pubblicare un sito di 5 o 6 pagine come dice deborahdc non cambia molto.
Sicuramente su un sito di 50 o più pagine l'effetto è differente.
Pubblicandole tutte insieme si ottiene l'effetto descritto da angelweb, passa molto tempo prima che il sito venga posizionato, poi dopo qualche tempo il sito diventa visibile, per la mia esperienza circa dopo 6 mesi, settimana più settimana meno.
Quindi metabolizzando le mie esperienze io farei così: per i siti piccoli non ci penserei nemmeno o tutto insieme o se proprio ho tempo una pagina al giorno anche se l'effetto non credo cambi molto, per i siti di un certo livello (portali, ecc...) io pubblicherei le pagine poco alla volta avendo cura di avere links per ogni pagina del portale (ma questo è un altro discorso).
Ciaooo:D
-
Espongo anche io la mia teoria in questo topic:
Se hai pronte 50 pagine e non pensi di crearne altre a breve allora le puoi mettere tutte insieme o poco alla volta il risultato non cambia.
Se hai pronte 50 pagine ma hai in programma di crearne altre e altre ancora con scadenza temporale, allora agli occhi del motore sarà meglio metterle a poco alla volta.
La mia teoria è questa: lo spider visita il sito con una determinata frequenza. Nelle varie visite successive troverà un certo numero di pagine nuove o modificate. Quindi sarà in grado di determinare la frequenza di aggiornamento del tuo sito (pagine/tempo).
Tale frequenza dovrebbe essere mantenuta più o meno costante (aggiungere x pagine ogni y giorni) in modo che gli spider capiscano che il sito è in costante manutenzione. Se la frequenza di aggiornamento subisce brusche variazioni (negative) allora il sito potrebbe risultare "abbandonato" o comunque non più aggiornato.La teoria potrebbe anche andare bene per il problema sollevato da google-penality: se assumo 4 giornalisti produco 20 pagine al giorni tutti i giorni (frequenza costante) quindi sono ben visto dagli spider. Se tra un anno li licenzio tutti non produco più aggiornamenti ed il sito potrebbe perdere di rilevanza.
Che ne pensate?
-
@davix said:
Espongo anche io la mia teoria in questo topic:
Se hai pronte 50 pagine e non pensi di crearne altre a breve allora le puoi mettere tutte insieme o poco alla volta il risultato non cambia.
Se hai pronte 50 pagine ma hai in programma di crearne altre e altre ancora con scadenza temporale, allora agli occhi del motore sarà meglio metterle a poco alla volta.
La mia teoria è questa: lo spider visita il sito con una determinata frequenza. Nelle varie visite successive troverà un certo numero di pagine nuove o modificate. Quindi sarà in grado di determinare la frequenza di aggiornamento del tuo sito (pagine/tempo).
Tale frequenza dovrebbe essere mantenuta più o meno costante (aggiungere x pagine ogni y giorni) in modo che gli spider capiscano che il sito è in costante manutenzione. Se la frequenza di aggiornamento subisce brusche variazioni (negative) allora il sito potrebbe risultare "abbandonato" o comunque non più aggiornato.La teoria potrebbe anche andare bene per il problema sollevato da google-penality: se assumo 4 giornalisti produco 20 pagine al giorni tutti i giorni (frequenza costante) quindi sono ben visto dagli spider. Se tra un anno li licenzio tutti non produco più aggiornamenti ed il sito potrebbe perdere di rilevanza.
Che ne pensate?
Scusami ma il problema non è lo spider quando passerà o meno con frequenza, ma il posizionamento.
Ho esposto il mio pensiero in base all'obiettivo di tutti che è alla fine "il posizionamento".
Facendo come dici tu ti ripeto che cadrai nelle serp e dovrai aspettare l'assestamento con tutte le nuove pagine.
-
@angelweb said:
Scusami ma il problema non è lo spider quando passerà o meno con frequenza, ma il posizionamento.
Ho esposto il mio pensiero in base all'obiettivo di tutti che è alla fine "il posizionamento".
Ma se lo spider passa con maggiore frequenza sul sito A piuttosto che sul sito B vuol dire che google ritiene importante avere contenuto fresco e questo da maggiore rilevanza (posizionamento) ai siti "aggiornati" con maggiore frequenza.@angelweb said:
Facendo come dici tu ti ripeto che cadrai nelle serp e dovrai aspettare l'assestamento con tutte le nuove pagine.
non sono daccordo. Prendi ad esempio un forum (come questo!). Ogni volta che apriamo un topic o aggiungiamo un post a quelli esistenti aggiungiamo e modifichiamo le pagine contenute su questo sito. Quindi, secondo quanto dici, il forum giorgio tave cade sempre giù nelle serp in attesa di assestamento... o forse non ho capito bene a cosa ti riferisci...
-
@davix said:
Ma se lo spider passa con maggiore frequenza sul sito A piuttosto che sul sito B vuol dire che google ritiene importante avere contenuto fresco e questo da maggiore rilevanza (posizionamento) ai siti "aggiornati" con maggiore frequenza.
Pensi che se lo spider passa frequentemente è perchè cerca nuovi aggiornamenti??
Allora non hai le idee chiare sulle funzioni dei spider.
E il posizionamento con gli spider non c'entra NULLA!
Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.@davix said:
non sono daccordo. Prendi ad esempio un forum (come questo!). Ogni volta che apriamo un topic o aggiungiamo un post a quelli esistenti aggiungiamo e modifichiamo le pagine contenute su questo sito. Quindi, secondo quanto dici, il forum giorgio tave cade sempre giù nelle serp in attesa di assestamento... o forse non ho capito bene a cosa ti riferisci...
Le community dai motori sono viste diversamente dai normali siti web con pagine statiche di 50/100/150 documenti, hanno un'altro algoritmo filtrato di indicizzazione dove vengono contenuti (ma non è qui che se ne può discutere).
Poi cè differenza anche dai portali, blog, siti di newsletter, ecommerce ...Un sito normale come penso quello di Netdream dove vuole aggiungere dei contenuti per ampliarlo cadrà vistosamente aggiungendo 50 pagine nuove.
Poi ognuno è libero di fare e credere a ciò che vuole e sia migliore
Bye bye
-
mi fa piacere che la mia domanda.. abbia animato questa bella discussione, dove i pareri si confrontano
Mi sembra di capire che sia meglio caricare un po alla volta le pagine..se cmq mantengo costante la crezione di pagine nuove.
Per esperienza personale, su un sito ad es, avevo creato molti nuovi contenuti, ed inseriti tutti insieme, il motore in un primo momento..anzichè darmi un vantaggio in termini di posizionamento mi ha penalizzato... Dopo qualche mese... i vantaggi si sono visti e mi ha fatto guadagnare 10-15 posizioni... in un sol colpo..e non solo gradualmente...
Altre esperienze sull'argomento?
-
@netdream said:
Per esperienza personale, su un sito ad es, avevo creato molti nuovi contenuti, ed inseriti tutti insieme, il motore in un primo momento..anzichè darmi un vantaggio in termini di posizionamento mi ha penalizzato... Dopo qualche mese... i vantaggi si sono visti e mi ha fatto guadagnare 10-15 posizioni... in un sol colpo..e non solo gradualmente...
Altre esperienze sull'argomento?Questo volevo dire infatti nelle mie discussioni
-
@angelweb said:
Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.
e la chiave è competitiva?
Se si hai qualche esempio da portarci?
-
@deborahdc said:
e la chiave è competitiva?
Se si hai qualche esempio da portarci?Io navigo molto ma non mi appunto le cose che conosco già
Se tu pensi che aggiornando un sito aiuti il posizionamento beh..
non so cosa risponderti, più di dirti che non è veritiero.
-
@angelweb said:
Pensi che se lo spider passa frequentemente è perchè cerca nuovi aggiornamenti??
Allora non hai le idee chiare sulle funzioni dei spider.
scusa ma allora perchè passa uno spider frequentemente? quali sono le funzioni degli spider oltre a quelle di ricerca di aggiornamenti?@angelweb said:
E il posizionamento con gli spider non c'entra NULLA!
Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.
Beh io mica ho detto che un sito aggiornato esce sicuramente prima di uno non aggiornato o che il posizionamento dipende da quante volte passa lo spider sul sito? ho detto che google da maggiore rilevanza ai siti "aggiornati" con maggiore frequenza. L'aggiornamento delle pagine è uno dei criteri per il posizionamento ma di certo non è l'unico! Se un sito che non viene aggiornato dalla nascita di internet è nelle prime posizioni probabilmente ha tanti di altri criteri per cui google ritiene essere più in tema di altri rispetto alla chiave di ricerca utilizzata (vedi anzianità del dominio, anzianità della pagina, quantità/qualità di BL, trust rank, ecc)@angelweb said:
Le community dai motori sono viste diversamente dai normali siti web con pagine statiche di 50/100/150 documenti, hanno un'altro algoritmo filtrato di indicizzazione dove vengono contenuti (ma non è qui che se ne può discutere).
Poi cè differenza anche dai portali, blog, siti di newsletter, ecommerce ...perchè qui non se ne può discutere?? il motore di ricerca capisce se la pagina che sta indicizzando è un forum, un blog e altro? in base a quali criteri?
@angelweb said:
Un sito normale come penso quello di Netdream dove vuole aggiungere dei contenuti per ampliarlo cadrà vistosamente aggiungendo 50 pagine nuove.
Certo ma poi risalirà. Se inserisce i contenuti poco alla volta comunque impiegherà tempo (10 alla settimana = 5 settimane).. quindi se l'aggiornamento è una tantum non c'è molta differenza... se poi vuole continuare ad inserire argomenti conviene sicuramente inserirli poco alla volta in modo da garantire una certa frequenza di aggiornamento.
@angelweb said:
Poi ognuno è libero di fare e credere a ciò che vuole e sia migliore
certo ognuno applica i consigli secondo quanto ritiene necessario. L'importante è condividere e dare una spiegazione alle proprie intuizioni e cercare di capire tutti insieme le logiche che sono dietro i motori di ricerca.
-
@davix said:
scusa ma allora perchè passa uno spider frequentemente? quali sono le funzioni degli spider oltre a quelle di ricerca di aggiornamenti?
.Lo spider segue i link alla ricerca di nuove informazioni da inserire nel suo DB.
Basta un nuovo link da un sito che lui subito lo segue, poi entra dentro il sito linkato e continua la sua esplorazione e via via ha cercare altre informazioni.
Ho dei siti che Googlebot passa 2 volte al giorno, ma solo perchè io gli aumento la popolarità ed ecco che scatta la corsa verso quell'URL.
Non vengono aggiornati da parecchio, ma non per questo lo spider non deve passare, è solo che segue quel link di un sito che di conseguenza lo riporta a quell'altro e via dicendo. E' tutta una ruota !!@davix said:
Beh io mica ho detto che un sito aggiornato esce sicuramente prima di uno non aggiornato o che il posizionamento dipende da quante volte passa lo spider sul sito? ho detto che google da maggiore rilevanza ai siti "aggiornati" con maggiore frequenza. L'aggiornamento delle pagine è uno dei criteri per il posizionamento ma di certo non è l'unico! Se un sito che non viene aggiornato dalla nascita di internet è nelle prime posizioni probabilmente ha tanti di altri criteri per cui google ritiene essere più in tema di altri rispetto alla chiave di ricerca utilizzata (vedi anzianità del dominio, anzianità della pagina, quantità/qualità di BL, trust rank, ecc).
Quoto le ultime 3 righe che hai scritto.
@davix said:
perchè qui non se ne può discutere?? il motore di ricerca capisce se la pagina che sta indicizzando è un forum, un blog e altro? in base a quali criteri?
.Intendevo che non è il post giusto, bisognerebbe aprirne un'altro.
Google è molto più sveglio di quanto pensi@davix said:
Certo ma poi risalirà. Se inserisce i contenuti poco alla volta comunque impiegherà tempo (10 alla settimana = 5 settimane).. quindi se l'aggiornamento è una tantum non c'è molta differenza... se poi vuole continuare ad inserire argomenti conviene sicuramente inserirli poco alla volta in modo da garantire una certa frequenza di aggiornamento.
.Cè differenza perchè perderà la visibilità che ha in questo momento.
Se vorrà attendere bene altrimenti non si può agire come dici tu, facendo tutti gli aggiornamenti insieme.@davix said:
certo ognuno applica i consigli secondo quanto ritiene necessario. L'importante è condividere e dare una spiegazione alle proprie intuizioni e cercare di capire tutti insieme le logiche che sono dietro i motori di ricerca.
QUOTO !!
-
@angelweb said:
Io navigo molto ma non mi appunto le cose che conosco già
Facciamo cosi, facciamo un test
io ho messo su 40 pagine tutte in una volta il 9 dicembre.
Google me ne ha gia indicizzate una trentinaPremetto non è una gara, è uno strumento di studio.
In questo forum non ci sono bravi e meno bravi ci sono solo tante persone che vogliono capire e migliorarsi.con questa chiave sono in prima pagina. il sito è www. holiday tuscany .it
con questa in seconda
http://www.google.it/search?q=bed+and+breakfast+in+toscana&hl=it&lr=&rls=GGLG,GGLG:2006-12,GGLG:it&start=10&sa=Nla serp è abbastanza affollata 1.700.000
-
@deborahdc said:
Facciamo cosi, facciamo un test
io ho messo su 40 pagine tutte in una volta il 9 dicembre.
Google me ne ha gia indicizzate una trentinaPremetto non è una gara, è uno strumento di studio.
In questo forum non ci sono bravi e meno bravi ci sono solo tante persone che vogliono capire e migliorarsi.con questa chiave sono in prima pagina. il sito è www. holiday tuscany .it
con questa in seconda
http://www.google.it/search?q=bed+and+breakfast+in+toscana&hl=it&lr=&rls=GGLG,GGLG:2006-12,GGLG:it&start=10&sa=Nla serp è abbastanza affollata 1.700.000
Va bene deborah, però il discorso poi si espande anche sulla competitività della key.
Se mi prendi in esempio la "tua" key, non vedo tutta questa concorrenza e il sito più rilevante sembra essere il tuo in questo caso.Non si può dire che le implementazioni di un sito coinvolgono poi per tutte le key al sito stesso nel rimescolamento.