• User

    Espongo anche io la mia teoria in questo topic:

    Se hai pronte 50 pagine e non pensi di crearne altre a breve allora le puoi mettere tutte insieme o poco alla volta il risultato non cambia.

    Se hai pronte 50 pagine ma hai in programma di crearne altre e altre ancora con scadenza temporale, allora agli occhi del motore sarà meglio metterle a poco alla volta.

    La mia teoria è questa: lo spider visita il sito con una determinata frequenza. Nelle varie visite successive troverà un certo numero di pagine nuove o modificate. Quindi sarà in grado di determinare la frequenza di aggiornamento del tuo sito (pagine/tempo).
    Tale frequenza dovrebbe essere mantenuta più o meno costante (aggiungere x pagine ogni y giorni) in modo che gli spider capiscano che il sito è in costante manutenzione. Se la frequenza di aggiornamento subisce brusche variazioni (negative) allora il sito potrebbe risultare "abbandonato" o comunque non più aggiornato.

    La teoria potrebbe anche andare bene per il problema sollevato da google-penality: se assumo 4 giornalisti produco 20 pagine al giorni tutti i giorni (frequenza costante) quindi sono ben visto dagli spider. Se tra un anno li licenzio tutti non produco più aggiornamenti ed il sito potrebbe perdere di rilevanza.

    Che ne pensate?


  • Super User

    @davix said:

    Espongo anche io la mia teoria in questo topic:

    Se hai pronte 50 pagine e non pensi di crearne altre a breve allora le puoi mettere tutte insieme o poco alla volta il risultato non cambia.

    Se hai pronte 50 pagine ma hai in programma di crearne altre e altre ancora con scadenza temporale, allora agli occhi del motore sarà meglio metterle a poco alla volta.

    La mia teoria è questa: lo spider visita il sito con una determinata frequenza. Nelle varie visite successive troverà un certo numero di pagine nuove o modificate. Quindi sarà in grado di determinare la frequenza di aggiornamento del tuo sito (pagine/tempo).
    Tale frequenza dovrebbe essere mantenuta più o meno costante (aggiungere x pagine ogni y giorni) in modo che gli spider capiscano che il sito è in costante manutenzione. Se la frequenza di aggiornamento subisce brusche variazioni (negative) allora il sito potrebbe risultare "abbandonato" o comunque non più aggiornato.

    La teoria potrebbe anche andare bene per il problema sollevato da google-penality: se assumo 4 giornalisti produco 20 pagine al giorni tutti i giorni (frequenza costante) quindi sono ben visto dagli spider. Se tra un anno li licenzio tutti non produco più aggiornamenti ed il sito potrebbe perdere di rilevanza.

    Che ne pensate?

    Scusami ma il problema non è lo spider quando passerà o meno con frequenza, ma il posizionamento.
    Ho esposto il mio pensiero in base all'obiettivo di tutti che è alla fine "il posizionamento".
    Facendo come dici tu ti ripeto che cadrai nelle serp e dovrai aspettare l'assestamento con tutte le nuove pagine.


  • User

    @angelweb said:

    Scusami ma il problema non è lo spider quando passerà o meno con frequenza, ma il posizionamento.
    Ho esposto il mio pensiero in base all'obiettivo di tutti che è alla fine "il posizionamento".
    Ma se lo spider passa con maggiore frequenza sul sito A piuttosto che sul sito B vuol dire che google ritiene importante avere contenuto fresco e questo da maggiore rilevanza (posizionamento) ai siti "aggiornati" con maggiore frequenza.

    @angelweb said:

    Facendo come dici tu ti ripeto che cadrai nelle serp e dovrai aspettare l'assestamento con tutte le nuove pagine.
    non sono daccordo. Prendi ad esempio un forum (come questo!). Ogni volta che apriamo un topic o aggiungiamo un post a quelli esistenti aggiungiamo e modifichiamo le pagine contenute su questo sito. Quindi, secondo quanto dici, il forum giorgio tave cade sempre giù nelle serp in attesa di assestamento... o forse non ho capito bene a cosa ti riferisci...


  • Super User

    @davix said:

    Ma se lo spider passa con maggiore frequenza sul sito A piuttosto che sul sito B vuol dire che google ritiene importante avere contenuto fresco e questo da maggiore rilevanza (posizionamento) ai siti "aggiornati" con maggiore frequenza.

    Pensi che se lo spider passa frequentemente è perchè cerca nuovi aggiornamenti??
    Allora non hai le idee chiare sulle funzioni dei spider.
    E il posizionamento con gli spider non c'entra NULLA!
    Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.

    @davix said:

    non sono daccordo. Prendi ad esempio un forum (come questo!). Ogni volta che apriamo un topic o aggiungiamo un post a quelli esistenti aggiungiamo e modifichiamo le pagine contenute su questo sito. Quindi, secondo quanto dici, il forum giorgio tave cade sempre giù nelle serp in attesa di assestamento... o forse non ho capito bene a cosa ti riferisci...

    Le community dai motori sono viste diversamente dai normali siti web con pagine statiche di 50/100/150 documenti, hanno un'altro algoritmo filtrato di indicizzazione dove vengono contenuti (ma non è qui che se ne può discutere).
    Poi cè differenza anche dai portali, blog, siti di newsletter, ecommerce ...

    Un sito normale come penso quello di Netdream dove vuole aggiungere dei contenuti per ampliarlo cadrà vistosamente aggiungendo 50 pagine nuove.

    Poi ognuno è libero di fare e credere a ciò che vuole e sia migliore 😉

    Bye bye


  • User Attivo

    mi fa piacere che la mia domanda.. abbia animato questa bella discussione, dove i pareri si confrontano 🙂
    Mi sembra di capire che sia meglio caricare un po alla volta le pagine..se cmq mantengo costante la crezione di pagine nuove.
    Per esperienza personale, su un sito ad es, avevo creato molti nuovi contenuti, ed inseriti tutti insieme, il motore in un primo momento..anzichè darmi un vantaggio in termini di posizionamento mi ha penalizzato... Dopo qualche mese... i vantaggi si sono visti e mi ha fatto guadagnare 10-15 posizioni... in un sol colpo..e non solo gradualmente...
    Altre esperienze sull'argomento? :ciauz:


  • Super User

    @netdream said:

    Per esperienza personale, su un sito ad es, avevo creato molti nuovi contenuti, ed inseriti tutti insieme, il motore in un primo momento..anzichè darmi un vantaggio in termini di posizionamento mi ha penalizzato... Dopo qualche mese... i vantaggi si sono visti e mi ha fatto guadagnare 10-15 posizioni... in un sol colpo..e non solo gradualmente...
    Altre esperienze sull'argomento? :ciauz:

    Questo volevo dire infatti nelle mie discussioni 😉


  • Moderatrice

    @angelweb said:

    Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.
    e la chiave è competitiva?
    Se si hai qualche esempio da portarci?


  • Super User

    @deborahdc said:

    e la chiave è competitiva?
    Se si hai qualche esempio da portarci?

    Io navigo molto ma non mi appunto le cose che conosco già 😉
    Se tu pensi che aggiornando un sito aiuti il posizionamento beh..
    non so cosa risponderti, più di dirti che non è veritiero.


  • User

    @angelweb said:

    Pensi che se lo spider passa frequentemente è perchè cerca nuovi aggiornamenti??
    Allora non hai le idee chiare sulle funzioni dei spider.
    scusa ma allora perchè passa uno spider frequentemente? quali sono le funzioni degli spider oltre a quelle di ricerca di aggiornamenti?

    @angelweb said:

    E il posizionamento con gli spider non c'entra NULLA!
    Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.
    Beh io mica ho detto che un sito aggiornato esce sicuramente prima di uno non aggiornato o che il posizionamento dipende da quante volte passa lo spider sul sito? ho detto che google da maggiore rilevanza ai siti "aggiornati" con maggiore frequenza. L'aggiornamento delle pagine è uno dei criteri per il posizionamento ma di certo non è l'unico! Se un sito che non viene aggiornato dalla nascita di internet è nelle prime posizioni probabilmente ha tanti di altri criteri per cui google ritiene essere più in tema di altri rispetto alla chiave di ricerca utilizzata (vedi anzianità del dominio, anzianità della pagina, quantità/qualità di BL, trust rank, ecc)

    @angelweb said:

    Le community dai motori sono viste diversamente dai normali siti web con pagine statiche di 50/100/150 documenti, hanno un'altro algoritmo filtrato di indicizzazione dove vengono contenuti (ma non è qui che se ne può discutere).
    Poi cè differenza anche dai portali, blog, siti di newsletter, ecommerce ...

    perchè qui non se ne può discutere?? il motore di ricerca capisce se la pagina che sta indicizzando è un forum, un blog e altro? in base a quali criteri?

    @angelweb said:

    Un sito normale come penso quello di Netdream dove vuole aggiungere dei contenuti per ampliarlo cadrà vistosamente aggiungendo 50 pagine nuove.

    Certo ma poi risalirà. Se inserisce i contenuti poco alla volta comunque impiegherà tempo (10 alla settimana = 5 settimane).. quindi se l'aggiornamento è una tantum non c'è molta differenza... se poi vuole continuare ad inserire argomenti conviene sicuramente inserirli poco alla volta in modo da garantire una certa frequenza di aggiornamento.

    @angelweb said:

    Poi ognuno è libero di fare e credere a ciò che vuole e sia migliore 😉
    certo ognuno applica i consigli secondo quanto ritiene necessario. L'importante è condividere e dare una spiegazione alle proprie intuizioni e cercare di capire tutti insieme le logiche che sono dietro i motori di ricerca.


  • Super User

    @davix said:

    scusa ma allora perchè passa uno spider frequentemente? quali sono le funzioni degli spider oltre a quelle di ricerca di aggiornamenti?
    .

    Lo spider segue i link alla ricerca di nuove informazioni da inserire nel suo DB.
    Basta un nuovo link da un sito che lui subito lo segue, poi entra dentro il sito linkato e continua la sua esplorazione e via via ha cercare altre informazioni.
    Ho dei siti che Googlebot passa 2 volte al giorno, ma solo perchè io gli aumento la popolarità ed ecco che scatta la corsa verso quell'URL.
    Non vengono aggiornati da parecchio, ma non per questo lo spider non deve passare, è solo che segue quel link di un sito che di conseguenza lo riporta a quell'altro e via dicendo. E' tutta una ruota !!

    @davix said:

    Beh io mica ho detto che un sito aggiornato esce sicuramente prima di uno non aggiornato o che il posizionamento dipende da quante volte passa lo spider sul sito? ho detto che google da maggiore rilevanza ai siti "aggiornati" con maggiore frequenza. L'aggiornamento delle pagine è uno dei criteri per il posizionamento ma di certo non è l'unico! Se un sito che non viene aggiornato dalla nascita di internet è nelle prime posizioni probabilmente ha tanti di altri criteri per cui google ritiene essere più in tema di altri rispetto alla chiave di ricerca utilizzata (vedi anzianità del dominio, anzianità della pagina, quantità/qualità di BL, trust rank, ecc).

    Quoto le ultime 3 righe che hai scritto.

    @davix said:

    perchè qui non se ne può discutere?? il motore di ricerca capisce se la pagina che sta indicizzando è un forum, un blog e altro? in base a quali criteri?
    .

    Intendevo che non è il post giusto, bisognerebbe aprirne un'altro.
    Google è molto più sveglio di quanto pensi 😉

    @davix said:

    Certo ma poi risalirà. Se inserisce i contenuti poco alla volta comunque impiegherà tempo (10 alla settimana = 5 settimane).. quindi se l'aggiornamento è una tantum non c'è molta differenza... se poi vuole continuare ad inserire argomenti conviene sicuramente inserirli poco alla volta in modo da garantire una certa frequenza di aggiornamento.
    .

    Cè differenza perchè perderà la visibilità che ha in questo momento.
    Se vorrà attendere bene altrimenti non si può agire come dici tu, facendo tutti gli aggiornamenti insieme.

    @davix said:

    certo ognuno applica i consigli secondo quanto ritiene necessario. L'importante è condividere e dare una spiegazione alle proprie intuizioni e cercare di capire tutti insieme le logiche che sono dietro i motori di ricerca.

    QUOTO !! 😉


  • Moderatrice

    @angelweb said:

    Io navigo molto ma non mi appunto le cose che conosco già 😉

    Facciamo cosi, facciamo un test
    io ho messo su 40 pagine tutte in una volta il 9 dicembre.
    Google me ne ha gia indicizzate una trentina

    Premetto non è una gara, è uno strumento di studio.
    In questo forum non ci sono bravi e meno bravi ci sono solo tante persone che vogliono capire e migliorarsi.

    http://www.google.it/search?sourceid=navclient&hl=it&ie=UTF-8&rls=GGLG,GGLG:2006-12,GGLG:it&q=last+minute+bed+and+breakfast+in+toscana

    con questa chiave sono in prima pagina. il sito è www. holiday tuscany .it

    con questa in seconda
    http://www.google.it/search?q=bed+and+breakfast+in+toscana&hl=it&lr=&rls=GGLG,GGLG:2006-12,GGLG:it&start=10&sa=N

    la serp è abbastanza affollata 1.700.000


  • Super User

    @deborahdc said:

    Facciamo cosi, facciamo un test
    io ho messo su 40 pagine tutte in una volta il 9 dicembre.
    Google me ne ha gia indicizzate una trentina

    Premetto non è una gara, è uno strumento di studio.
    In questo forum non ci sono bravi e meno bravi ci sono solo tante persone che vogliono capire e migliorarsi.

    http://www.google.it/search?sourceid=navclient&hl=it&ie=UTF-8&rls=GGLG,GGLG:2006-12,GGLG:it&q=last+minute+bed+and+breakfast+in+toscana

    con questa chiave sono in prima pagina. il sito è www. holiday tuscany .it

    con questa in seconda
    http://www.google.it/search?q=bed+and+breakfast+in+toscana&hl=it&lr=&rls=GGLG,GGLG:2006-12,GGLG:it&start=10&sa=N

    la serp è abbastanza affollata 1.700.000

    Va bene deborah, però il discorso poi si espande anche sulla competitività della key.
    Se mi prendi in esempio la "tua" key, non vedo tutta questa concorrenza e il sito più rilevante sembra essere il tuo in questo caso.

    Non si può dire che le implementazioni di un sito coinvolgono poi per tutte le key al sito stesso nel rimescolamento.


  • Bannato Super User

    @angelweb said:

    Lo spider segue i link alla ricerca di nuove informazioni da inserire nel suo DB.

    esatto...nuove informazioni, che possono essere nuove pagine o pagine già esistenti e aggiornate.
    che poi lo spider sia "spinto" a passare perchè viene aumentata la link popularity piuttosto che per l'alto aggiornamento delle pagine è un altro discorso.
    🙂


  • User Attivo

    Riprendo questo thread aperto da me qualche giorno fa per informarvi di un esperimento.
    Ho inserito delle 50 pagine nuove, solo 15.
    Al passaggio dello spider , con la nuova indicizzazione, il sito ha perso mediamente 2-3 posizioni per ogni key.
    Questo conferma quanto sostiene Angelweb e cioè che quando crei nuovi contenuti, il vantaggio che il motore ti da, non è immediato.
    Inizialmente si perde qualche posizione per poi avere dei miglioramenti in seguito.
    A me è successo già due volte..cosi..
    Vi volevo informare di questa cosa :fumato:

    :ciauz:


  • Super User

    @netdream said:

    Riprendo questo thread aperto da me qualche giorno fa per informarvi di un esperimento.
    Ho inserito delle 50 pagine nuove, solo 15.
    Al passaggio dello spider , con la nuova indicizzazione, il sito ha perso mediamente 2-3 posizioni per ogni key.
    Questo conferma quanto sostiene Angelweb e cioè che quando crei nuovi contenuti, il vantaggio che il motore ti da, non è immediato.
    Inizialmente si perde qualche posizione per poi avere dei miglioramenti in seguito.
    A me è successo già due volte..cosi..
    Vi volevo informare di questa cosa :fumato:

    :ciauz:

    Se le mettevi tutte e 50 avresti avuto secondo me un calo più vistoso, anzi che hai perso solo 2-3 posizioni e diciamo che è abbastanza buono, spesso succede anche di una pagina.
    E si sa, quando sei in prima pagina è un conto ma quando sei nella seconda è un'altro.

    :ciauz:


  • Moderatrice

    quale è il sito e quali sono le pagine che hai inserito?


  • User Attivo

    Ho pronte circa 50 pagine nuove, con contenuti a tema con il mio sito...
    Ho letto nel forum, che è meglio non inserirle tutte insieme.. ma gradualmente...
    E' una cosa giusta...o meglio sottoporle subito e tutte insieme al motore?

    50 pagine sono piu' che digeribili dai motori. Le puoi mettere online anche tutte insieme. Non succede nulla tranquillo.


  • Super User

    @scangilli said:

    50 pagine sono piu' che digeribili dai motori. Le puoi mettere online anche tutte insieme. Non succede nulla tranquillo.

    Ma lo hai seguito questo post ??
    Comunque se vuoi puoi provarci a inserire 50 pagine nuove nel tuo sito e poi mi dici cosa succede 😉


  • Moderatrice

    Perdonami Angelweb,
    Ti ricordo che c'è un test riferito a questa discussione nella sezione Laboratorio e le posizioni sono rimaste inalterate.
    **Scangilli **non è certo l'ultimo arrivato. Se ti occupi di SEO sai sicuramente chi è.

    Quando le persone entrano nel forum di Giorgio cercano delle risposte riscontrabili. Non verità assolute, sostenute e non dimostrabili. Perderebbe la credibilità che in tanti anni di lavoro e di studio ha meritatamente ottenuto.

    Siccome siamo qui tutti per imparare, sarebbe più consono capire il motivo della penalizzazione di netdream che può dipendere dal fatto che ha inserito 15 pagine in più ma può anche dipendere da altri motivi.

    Non diamo informazioni assolute, cerchiamo di capire i motivi. Può essere d'aiuto a tutti.

    Non è detto che io Scangilli Cibino e gli altri abbiamo ragione. Magari ci sbagliamo e saremo contentissimi di saperlo. Facciamo questo lavoro di professione, e non c'è niente di più importante che sapere cosa NON si deve fare.
    Quindi aspettiamo di conoscere il sito di Netdream per capire approfonditamente i motivi di tale penalizzazione.
    Deborah


  • Super User

    @deborahdc said:

    Perdonami Angelweb,
    Ti ricordo che c'è un test riferito a questa discussione nella sezione Laboratorio e le posizioni sono rimaste inalterate.
    **Scangilli **non è certo l'ultimo arrivato. Se ti occupi di SEO sai sicuramente chi è.

    Quando le persone entrano nel forum di Giorgio cercano delle risposte riscontrabili. Non verità assolute, sostenute e non dimostrabili. Perderebbe la credibilità che in tanti anni di lavoro e di studio ha meritatamente ottenuto.

    Siccome siamo qui tutti per imparare, sarebbe più consono capire il motivo della penalizzazione di netdream che può dipendere dal fatto che ha inserito 15 pagine in più ma può anche dipendere da altri motivi.

    Non diamo informazioni assolute, cerchiamo di capire i motivi. Può essere d'aiuto a tutti.

    Non è detto che io Scangilli Cibino e gli altri abbiamo ragione. Magari ci sbagliamo e saremo contentissimi di saperlo. Facciamo questo lavoro di professione, e non c'è niente di più importante che sapere cosa NON si deve fare.
    Quindi aspettiamo di conoscere il sito di Netdream per capire approfonditamente i motivi di tale penalizzazione.
    Deborah

    Io non do verità assolute.
    I miei sono consigli basati su test e test.
    Non è una penalizzazione se si scende di posizione quando si inseriscono 50/70/90 pagine nuove in un sito.
    Voi tutti la vedete come penalizzazione ma non è cosi.
    E' normale, è un ricalcolo di tutto il sito ed è giusto ricalcolarne il ranking.

    Non puoi pensare che aggiungendo pagine, si arrichisce il sito e di conseguenza ne guadagni nel posizionamento.
    Se fossi cosi non stavamo qui a discuterne.

    Avviene semplicemente un nuovo conteggio di tutto e dopo qualche giorno si assesta con risultati migliori o peggiori a seconda del lavoro che hai fatto.

    Perchè cercare di capire contro una logica talmente intuibile che anche se non fai questo mestiere ci si arriva al concetto ??

    Non lo dico io che avvengono queste cose, ma solo i fatti dimostrati su decine e decine di siti ho che ho messo a punto.

    Se ci si perde nel cercare la sfumatura che sta all'origine di questo fattore in Google, si finisce per impazzire e non si proggredisce e si migliora.

    Ti ripeto che è un dato di fatto che se si aumentano contenuti notevoli si scende di posizione per poi risalire (forse??) ma cercare il motivo, beh penso sia intuibile a tutti ed è quello che semplicemente avviene un ricalcolo di tutto il site per poi decidere il ranking nuovo.

    P.S. Scangilli chi è ?? Personalmente non lo conosco, forse sarà il nick.

    A presto