Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Gli aggiornamenti tecnici di Google e il file robots
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • G
      godweb User • ultima modifica di

      Gli aggiornamenti tecnici di Google e il file robots

      Salve,

      stavo leggendo nell'articolo Updating our technical Webmaster Guidelines, che non riesco a linkare, che **Disallowing crawling of Javascript or CSS files in your site?s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.

      **Usando Visualizza come Google in GWT verifico problemi di rendering su un sito in Joomla in quanto tutti i file .css e .js sono bloccati perchè all'interno della cartella /components, bloccata di default dal file robots.

      Modificare il file robots è un attimo, ma immagino ci sia una ragione se la cartella è bloccata di default. Può essere pericoloso cambiare l'impostazione? Come risolvere questa cosa che immagino riguardi molti siti?

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • giorgiotave
        giorgiotave Community Manager • ultima modifica di

        Ciao GodWeb,

        bella questa. Non credo ci siano problemi 😉

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • G
          godweb User • ultima modifica di

          Ciao Giorgio,

          grazie per l'attenzione. Non ci sono problemi a rendere più flessibile il file robots.txt o non ci sono problemi se Google fa male il rendering? :smile5:

          Sto migliorando il rendering autorizzando l'accesso via robots ai singoli file che Google indica come bloccati, tipo:

          Disallow: /modules/ (di default)
          Allow: /modules/x.css
          Allow: /modules/y.js
          ...

          I file però sono tanti in tante sottocartelle diverse (almeno una sottocartella per modulo, idem per componenti e plugin), e mi sto domandando se non sia meglio aprire l'intera cartella

          Allow: /modules/

          O almeno le sottocartelle dei singoli moduli, componenti e plugin: eviterei un robots chilometrico. :wink3:

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • giorgiotave
            giorgiotave Community Manager • ultima modifica di

            Scusa, hai ragione. Non ci sono problemi a rendere più flessibile il robots.txt 🙂

            Puoi fare l'allow di tutti i file .css o .js! 🙂

            Allow: /modules/*.css

            😄

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • G
              godweb User • ultima modifica di

              Grazie mille e buon anno :ciauz:

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • giorgiotave
                giorgiotave Community Manager • ultima modifica di

                Anche a te! Buon anno!

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                Caricamento altri post
                Rispondi
                • Topic risposta
                Effettua l'accesso per rispondere
                • Da Vecchi a Nuovi
                • Da Nuovi a Vecchi
                • Più Voti