Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. La Community Connect.gt
    4. News Ufficiali da Connect.gt
    5. Molti accessi da parte di spider
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • lupo91
      lupo91 Moderatore • ultima modifica di

      Non credo dovresti preoccuparti.

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • dechigno
        dechigno Super User • ultima modifica di

        Ciao Valent,
        in questa sezione del forum si parla esclusivamente di casi studio reali sia per quanto riguarda penalizzazioni sia consigli sull'ottimizzazione, seguendo questo regolamento specifico:
        http://www.giorgiotave.it/forum/penalizzazioni-e-consigli-seo/34637-regole-specifiche-di-sezione.html

        Pertanto sposto il 3D in posizionamento sui motori di ricerca, la sezione adatta alla tua richiesta 🙂

        Ad ogni modo, vuol dire che il tuo sito "interessa" ai motori... quindi è un bene, l'unica cosa che ti consiglio è di tener sotto controllo slurp, in quanto a volte entra in loop e porta via davvero un sacco di banda! 🙂

        ciao! 😉

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • M
          maricalina User Attivo • ultima modifica di

          Ciao dechigno,
          cosa vuol dire tener sotto controllo slurp?
          Lo si può limitare?

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • P
            pastikka Super User • ultima modifica di

            Tenere sotto controllo vuol dire che (come detto da dechigno) non occupi troppe risorse del server.

            Per limitarlo puoi inserire all'interno del tuo file robots.txt
            User-agent: slurp Inktomi
            Disallow: /

            con questa istruzione eviti che lo spider di Yahoo! visiti le tue pagine.

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • D
              danleo User • ultima modifica di

              Sul mio sito i bot sono scatenati, google mi occupa 4 giga di banda al mese mentre slurp 400mega.
              Ecco l'attività di google:

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • dechigno
                dechigno Super User • ultima modifica di

                Ciao vi consiglio di dominare l'accesso degli spider, nel caso fossero troppo invasivi e vi intasino il server, con questo comando del robots.txt:

                User-agent: Slurp
                Crawl-delay: 600

                Per esempio, in questo modo dite a slurp di non fermarsi oltre 600 secondi sul vostro sito... 😉

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • V
                  valent User Attivo • ultima modifica di

                  Grazie per le vostre risposte.
                  Ora avrei un altro dubbio:

                  Vorrei acquistare un dominio con URL mask ( o url redirect) in modo da "puntare" al mio blog.
                  Es: www.superdominio.it/2007/04/21/pagina/ -> terzo.secondo.ext/2007/04/21/pagina/
                  Facendo questo perderò l'eventuale posizionamento nelle SERP. Le pagine non saranno spostate su un altro dominio, ma ci sarà un redirect.
                  Come posso fare?

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • M
                    maricalina User Attivo • ultima modifica di

                    @dechigno said:

                    Ciao vi consiglio di dominare l'accesso degli spider, nel caso fossero troppo invasivi e vi intasino il server, con questo comando del robots.txt:

                    Per esempio, in questo modo dite a slurp di non fermarsi oltre 600 secondi sul vostro sito... 😉
                    Grazie per le esaustive risposte.;)

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • V
                      valent User Attivo • ultima modifica di

                      Vorrei acquistare un dominio con URL mask ( o url redirect) in modo da "puntare" al mio blog.
                      Es: www.superdominio.it/2007/04/21/pagina/ -> terzo.secondo.ext/2007/04/21/pagina/
                      Facendo questo perderò l'eventuale posizionamento nelle SERP. Le pagine non saranno spostate su un altro dominio, ma ci sarà un redirect.
                      Come posso fare?

                      Grazie

                      EDIT: Ho sbagliato a postare, non è che mi cancellate il post?

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • dechigno
                        dechigno Super User • ultima modifica di

                        Col redirect 301 o il redirect dei poveri (se utilizzi un server windows), trasferisci tutti i backlink (e quindi la popolarità, compreso il PR) dalle pagine vecchie a quelle nuove.

                        Il problema è il TR (trustrank) che non passa dal dominio vecchio a quello nuovo e potresti trovare maggiori difficoltà nel posizionare il sito nuovo.

                        Però, ci vuole tempo, se lavori seriamente e sui contenuti, non sarà poi così difficile recuperare tutte le posizioni.

                        ciao! 😉

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • E
                          everfluxx Super User • ultima modifica di

                          @dechigno said:

                                                    User-agent: Slurp
                          

                          Crawl-delay: 600Per esempio, in questo modo dite a slurp di non fermarsi oltre 600 secondi sul vostro sito... 😉

                          Tutt'altro. La direttiva robots.txt "Crawl-delay" indica l'intervallo minimo in secondi che deve intercorrere fra una richiesta e la successiva da parte di uno stesso bot (in questo caso, Slurp).

                          http://help.yahoo.com/help/us/ysearch/slurp/slurp-03.html

                          La direttiva Crawl-delay è attualmente supportata ufficialmente da Slurp, Teoma e MSNBot, ma non da Googlebot.

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          • N
                            nicemy User Attivo • ultima modifica di

                            scusate..... cosa utilizzate per monitorare gli accessi degli spider? thanks

                            0 Miglior Risposta Ringrazia Cita Rispondi

                              1 Risposta Ultima Risposta
                            • V
                              valent User Attivo • ultima modifica di

                              Un normale programma per le statistiche (script) che riconosca (distingua) gli spider e bot dagli utenti "normali".

                              0 Miglior Risposta Ringrazia Cita Rispondi

                                1 Risposta Ultima Risposta
                              • N
                                nicemy User Attivo • ultima modifica di

                                @valent said:

                                Un normale programma per le statistiche (script) che riconosca (distingua) gli spider e bot dagli utenti "normali".
                                beh questo lo avevo capito! 😉 volevo sapere precisamente quali programmi consigliate!

                                0 Miglior Risposta Ringrazia Cita Rispondi

                                  1 Risposta Ultima Risposta
                                • F
                                  fabioski Bannato User Attivo • ultima modifica di

                                  @Pastikka said:

                                  Tenere sotto controllo vuol dire che (come detto da dechigno) non occupi troppe risorse del server.

                                  Per limitarlo puoi inserire all'interno del tuo file robots.txt
                                  User-agent: slurp Inktomi
                                  Disallow: /

                                  con questa istruzione eviti che lo spider di Yahoo! visiti le tue pagine.
                                  Anche da me oggi ho è continuo avere circa 50 spiderini di yahoo per il forum. Quanto tempo ci mettono per indicizzarmelo tutto?

                                  0 Miglior Risposta Ringrazia Cita Rispondi

                                    1 Risposta Ultima Risposta
                                  Caricamento altri post
                                  Rispondi
                                  • Topic risposta
                                  Effettua l'accesso per rispondere
                                  • Da Vecchi a Nuovi
                                  • Da Nuovi a Vecchi
                                  • Più Voti