Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. La Community Connect.gt
    4. News Ufficiali da Connect.gt
    5. Informazione Metaname Robots
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • B
      beke Super User • ultima modifica di

      A parer mio anche la prima riga ha poco senso.

      Gli spider di default seguono tutto il seguibile (limitatamente alle loro specifiche capacità).

      Se invece vogliamo impedire l'indicizzazione di qualcosa è meglio usare il robots.txt.

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • B
        beke Super User • ultima modifica di

        A parer mio anche la prima riga ha poco senso.

        Gli spider di default seguono tutto il seguibile (limitatamente alle loro specifiche capacità).

        Se invece vogliamo impedire l'indicizzazione di qualcosa è meglio usare il robots.txt.

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • A
          arkanefactors Super User • ultima modifica di

          In effetti pare che Google non faccia molto caso al NOINDEX. 😞

          Nonostante questa pagina dica esattamente il contrario:
          http://www.google.it/intl/it/remove.html#exclude_pages

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • A
            arkanefactors Super User • ultima modifica di

            In effetti pare che Google non faccia molto caso al NOINDEX. 😞

            Nonostante questa pagina dica esattamente il contrario:
            http://www.google.it/intl/it/remove.html#exclude_pages

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • C
              claudioweb Super User • ultima modifica di

              @ArkaneFactors said:

              Solo la prima riga ha senso. Le altre non servono assolutamente a nulla.
              Ha senso ma non serve neppure quella, provare per credere... :ciauz:

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • C
                claudioweb Super User • ultima modifica di

                @ArkaneFactors said:

                Solo la prima riga ha senso. Le altre non servono assolutamente a nulla.
                Ha senso ma non serve neppure quella, provare per credere... :ciauz:

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • B
                  beke Super User • ultima modifica di

                  Nella pagina in lingua inglese, come al solito, sono un pò più precisi.
                  http://www.google.com/webmasters/remove.html#exclude_pages

                  Nonostante lo standard dica che il file robots.txt si possa usare anche per escludere un singolo file ( http://www.robotstxt.org/wc/norobots.html ) Google per questa operazione consiglia di usare il meta tag robots.

                  Io ho sempre effettuato le esclusioni usando il robots.txt , anche per singoli file, ma non ho mai pensato che il meta robots non funzionasse, solo che fosse un'altro modo per effettuare l'operazione.

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • B
                    beke Super User • ultima modifica di

                    Nella pagina in lingua inglese, come al solito, sono un pò più precisi.
                    http://www.google.com/webmasters/remove.html#exclude_pages

                    Nonostante lo standard dica che il file robots.txt si possa usare anche per escludere un singolo file ( http://www.robotstxt.org/wc/norobots.html ) Google per questa operazione consiglia di usare il meta tag robots.

                    Io ho sempre effettuato le esclusioni usando il robots.txt , anche per singoli file, ma non ho mai pensato che il meta robots non funzionasse, solo che fosse un'altro modo per effettuare l'operazione.

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • K
                      kuneo User • ultima modifica di

                      ma più che altro serve specificare tutti quegli spider o no?

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • K
                        kuneo User • ultima modifica di

                        ma più che altro serve specificare tutti quegli spider o no?

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • A
                          arkanefactors Super User • ultima modifica di

                          @kuneo said:

                          ma più che altro serve specificare tutti quegli spider o no?
                          No, non serve a nulla (inoltre, mettere il nome del robot nell'attributo CONTENT è un errore di sintassi).

                          Serve, semmai, specificare (in un file [url=http://www.robotstxt.org/wc/exclusion.html]robots.txt) quali sono gli user-agent esclusi.

                          Come notava giustamente Beke, tutti gli spider di default indicizzano.

                          Perciò <META NAME="ROBOTS" CONTENT="INDEX, FOLLOW"> molto probabilmente non serve a nulla, ma è una di quelle cose che molti di noi mettono ugualmente per abitudine... un po' come la meta keywords. 😉

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          • A
                            arkanefactors Super User • ultima modifica di

                            @kuneo said:

                            ma più che altro serve specificare tutti quegli spider o no?
                            No, non serve a nulla (inoltre, mettere il nome del robot nell'attributo CONTENT è un errore di sintassi).

                            Serve, semmai, specificare (in un file [url=http://www.robotstxt.org/wc/exclusion.html]robots.txt) quali sono gli user-agent esclusi.

                            Come notava giustamente Beke, tutti gli spider di default indicizzano.

                            Perciò <META NAME="ROBOTS" CONTENT="INDEX, FOLLOW"> molto probabilmente non serve a nulla, ma è una di quelle cose che molti di noi mettono ugualmente per abitudine... un po' come la meta keywords. 😉

                            0 Miglior Risposta Ringrazia Cita Rispondi

                              1 Risposta Ultima Risposta
                            • K
                              kuneo User • ultima modifica di

                              ok grazie mille per le info vedo di far scomparire l'elencone dei motori di ricerca 😃

                              0 Miglior Risposta Ringrazia Cita Rispondi

                                1 Risposta Ultima Risposta
                              Caricamento altri post
                              Rispondi
                              • Topic risposta
                              Effettua l'accesso per rispondere
                              • Da Vecchi a Nuovi
                              • Da Nuovi a Vecchi
                              • Più Voti