• User Attivo

    @must said:

    confermo. praticamente googlebot é sistematicamente il primo utente del sito sul nuovo ip.

    Ciao Must, ma quando google trova il nostro ip nuovo di zecca cosa succede :

    1. ci da un vantaggio?
    2. inizialmenteci penalizza un pochino nelle serp?
    3. ci fa restare nella stessa posizione e magari ci da un vantaggio nel lungo periodo?

    Quale delle 3 opzioni secondo è giusta?
    Te lo chiedo perchè ci ho messo tanto a raggiungere una buona posizione e vorrei cambiare l'ip solo per migliorare...
    La paura di perdere il lavoro fatto sai che a volte è davvero tanta:)


  • Super User
    1. non fa nessuna differenza, in linea di massima.

    questa questa! 🙂


  • User Attivo

    @must said:

    questa questa! 🙂

    🙂 Grazie Must
    :ciauz:


  • User Attivo

    Anche i ho letto recentemente il post di matt cutts...
    per me è vero, google non discrimina, le ipotetiche penalizzazioni derivano da altri fattori correlati ad avere un ip fisso o un host virtuale.

    mettici la probabilità di downtime proprio mentre google ripassa, o timeout particolarmente lunghi, il tutto dovuto alla presenza di siti sullo stesso ip che rallentano particolamente la macchina o addirituttra la fanno cadere.

    C'è un hoster italiano a basso prezzo (10?) che ha subito moltissimo questi problemi negli utlimi 2 anni tra attacchi per siti vulnerabili o roba progettata male, e i downtime sono stati un bel pò.

    C'è anche da dire che il mio blog si trova su un dominio di questo hoster, e, nonostante i downtime e la lentezza non ha mai avuto problemi di posizionamento, anzi 🙂


  • User Attivo

    Il posizionamento è influenzato in generale dall'architettura del server, dalla connessione dal database, e così via. Avere un IP fisso è buona cosa perchè ti mette al riparo dal fatto di condividere il lo spazio con siti eventualmente bannati che ti penalizzerebbero.


  • Super User

    @web.at.work said:

    Il posizionamento è influenzato in generale dall'architettura del server, dalla connessione dal database, e così via.
    Non sono d'accordo: il backend è (quasi totalmente) trasparente per i motori di ricerca, perciò usare questo o quest'altro server, questo o quest'altro database (o non usare affatto un database) è ininfluente sul posizionamento.

    Avere un IP fisso è buona cosa perchè ti mette al riparo dal fatto di condividere il lo spazio con siti eventualmente bannati che ti penalizzerebbero.
    IP fisso ≠ IP dedicato (un IP fisso può essere condiviso, e un IP dedicato può essere variabile).


  • User Attivo

    @Everfluxx said:

    Non sono d'accordo: il backend è (quasi totalmente) trasparente per i motori di ricerca, perciò usare questo o quest'altro server, questo o quest'altro database (o non usare affatto un database) è ininfluente sul posizionamento.
    Insisto nell'affermare che l'architettura del server (velocità, uptime, locazione, banda disponibile, fornitore di servizio, ecc influenzano il lavoro degli spider. Ci sono diversi articoli che ne parlano anche sul web.
    @Everfluxx said:

    IP fisso ≠ IP dedicato (un IP fisso può essere condiviso, e un IP dedicato può essere variabile).
    Sorry per l'impresisione intendevo IP dedicato


  • Super User

    @web.at.work said:

    Insisto nell'affermare che l'architettura del server (velocità, uptime, locazione, banda disponibile, fornitore di servizio, ecc influenzano il lavoro degli spider. Ci sono diversi articoli che ne parlano anche sul web.
    Evidentemente ho frainteso: infatti pensavo che col termine "architettura del server" ti riferissi a cose come il sistema operativo (es. Windows piuttosto che Linux), il web server (es. IIS piuttosto che Apache) e il database server (es. SQL Server piuttosto che MySQL) utilizzati. Sono ovviamente d'accordo sull'influenza di fattori come i tempi di risposta e l'uptime del server, ma ai motori di ricerca non interessa sapere di che marca è il backend.


  • Super User

    anche io avevo frainteso, ma era chiaro che avevo frainteso. altrimenti, come spiegarmi che il db usato potesse influenzare il ranking? 😄


  • Super User

    Tant'è che il "sito ideale" per un motore di ricerca non ce l'ha proprio, un database: il sito ideale per un motore di ricerca è composto da migliaia di pagine .html statiche, tutte diverse, create a manina con tanto amore dal webmaster, al ritmo di una al giorno, da una decina d'anni almeno.

    :fagiano:


  • User Attivo

    x web at work (OT: stesso webatwork di firenze..?)

    Insisto nell'affermare che l'architettura del server (velocità, uptime, locazione, banda disponibile, fornitore di servizio, ecc influenzano il lavoro degli spider. Ci sono diversi articoli che ne parlano anche sul web.

    La cosa è condivisibile solo in parte, esempio :

    tempo di risposta del server e caricamento pagina :
    http://www.mattcutts.com/blog/myth-busting-delays-in-page-loading/

    problemi per l'ip :
    http://www.mattcutts.com/blog/myth-busting-virtual-hosts-vs-dedicated-ip-addresses/

    matt cutts dice, per chi nn vuole leggere english, che caricare una pagina in 1/2 secondo o 5 secondi è ininfluente purchè venga caricata.
    e per ip fix e var. dice che non fa nesusna differenza.

    come dicevo prima l'unico probl "ufficialmente confermato", è l'uptime, gli altri sono stati smentiti da google stessa.