Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Robots.txt ha bloccato URL inviata dalla Sitemap. Come sbloccarla?
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • federico.sasso
      federico.sasso Moderatore • ultima modifica di

      ciao guideitech, benvenuto nel Forum GT

      Visto così non sembra doverlo bloccare (ho controllato anche la sitemap per vedere se il sottodominio dell'url fosse corretto).
      Potrebbe fare riferimento a una vecchia versione della sitemap.

      Prova con "Visualizza come Google" dell'URL incriminato.

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • G
        guideitech User • ultima modifica di

        Ciao, grazie per la disponibilità. Da "visualizza come Google" mi dà come errore "negata da robots.txt".
        PS ieri ho cambiato plugin per gestire la sitemap, che ora ha un nome diverso rispetto alla precedente. Dovrei aggiornare anche il robots.txt oppure sa in automatico dove prendere la nuova sitemap? dovrei eliminare la preceente sitemap?

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • federico.sasso
          federico.sasso Moderatore • ultima modifica di

          @guideitech said:

          PS ieri ho cambiato plugin per gestire la sitemap, che ora ha un nome diverso rispetto alla precedente. Dovrei aggiornare anche il robots.txt oppure sa in automatico dove prendere la nuova sitemap? dovrei eliminare la preceente sitemap?
          Nel robots.txt puoi aggiungere l'URL della sitemap a beneficio degli altri motori di ricerca, ma Google sa già dove pescarla perché glielo dici tramite GWT.
          In GWT elimina dalla lista la vecchia sitemap (io ho esaminato quella in /sitemap.xml, non so se sia la nuova o la vecchia) e aggiungi la nuova e inviala.
          Ciao

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • G
            guideitech User • ultima modifica di

            La nuova sitemap è la seguente: guideitech.com/sitemapindex.xml
            Non c'è nessun modo per evitare che il robots blocchi quell'articolo?

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • federico.sasso
              federico.sasso Moderatore • ultima modifica di

              Il robots.txt mostrato non dovrebbe bloccare l'URL.
              Prova a testare l'URL da GWT -> Url bloccati

              Il sito impostato su GWT è nella versione con o senza www?

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • giorgiotave
                giorgiotave Community Manager • ultima modifica di

                Ciao guideitech e benvenuto sul forum gt 🙂

                Dovrebbe essere correttamente bloccata quell'url dall'istruzione che hai dato qui:

                Disallow: */feed
                

                Se non vado errato, dovrebbe bloccare l'URL che hai indicato:

                 guideitech.com/internet**/feed**ly-sostituto-valido-di-google-reader-che-esce-di-scena/
                

                Se vuoi bloccare solo esclusivamente quell'URL usa questa istruzione

                Disallow: */feed$
                

                Con il $ chiedi ai motori di ricerca di terminare l'istruzione quindi non ti blocca tutto il resto.

                Se invece vuoi lasciare com'è ma dare accesso specifico devi usare questa istruzione:

                
                Allow: /internet/feedly-sostituto-valido-di-google-reader-che-esce-di-scena/
                Disallow: */feed
                

                Mentre Google da precedenza alle istruzioni a seconda della lunghezza del path della URL, tutti gli altri motori di ricerca danno precedenza all'ordine di lettura del Robots.txt partendo ovviamente dall'alto.

                Li chiamano standard....:():

                P.s. corretto il messaggio dopo la segnalazione di Federico Sasso che si può leggere subito dopo questo post.

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • federico.sasso
                  federico.sasso Moderatore • ultima modifica di

                  Giorgio,
                  ho letto la tua risposta e ho pensato... "è sbagliata"... poi l'ho riletta ed ho pensato "cavolo"...
                  La riga che blocca è secondo me quest'altra:

                  Disallow: */feed
                  

                  con l'asterisco.
                  Il robots.txt l'avrò guardato 10 volte e m'era sfuggita!
                  Ti devo una birra 🙂

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • giorgiotave
                    giorgiotave Community Manager • ultima modifica di

                    Ciao Fede,
                    hai ragione! Ho fatto copia incolla del codice in modo errato, comunque si è quella con l'asterisco 😉

                    Modifico il mio post in modo che se da non mandare in confusione nessuno.

                    Grazie della correzione 😄

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • G
                      guideitech User • ultima modifica di

                      Grazie per l'aiuto. Inserendo ```
                      Allow: /internet/feedly-sostituto-valido-di-google-reader-che-esce-di-scena/

                      . Quindi ogni volta che scrivo un articolo e nel titolo è presente la parola "feed" esso verrà bloccato dal robots.txt?
                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • giorgiotave
                        giorgiotave Community Manager • ultima modifica di

                        Si 🙂

                        La cosa migliore sarebbe questa istruzione:

                        Disallow: */feed$

                        Prova togliendo l'Allow e vedi se te lo blocca 🙂

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • G
                          guideitech User • ultima modifica di

                          Con l'istruzione che dici tu mi dà errore "non nel dominio". Lascerò il robots con l'allow di quell'url. Grazie per i consigli.

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          • giorgiotave
                            giorgiotave Community Manager • ultima modifica di

                            Strano...Federico che ne pensi?

                            Comunque sono contento che abbiamo risolto, anche se vorrei trovarti una soluzione migliore per il futuro 😉

                            0 Miglior Risposta Ringrazia Cita Rispondi

                              1 Risposta Ultima Risposta
                            • G
                              guideitech User • ultima modifica di

                              @Giorgiotave said:

                              Strano...Federico che ne pensi?

                              Comunque sono contento che abbiamo risolto, anche se vorrei trovarti una soluzione migliore per il futuro 😉
                              Avevo sbagliato a scrivere qualcosa. Ora con ```
                              *Disallow: */feed$

                              0 Miglior Risposta Ringrazia Cita Rispondi

                                1 Risposta Ultima Risposta
                              • federico.sasso
                                federico.sasso Moderatore • ultima modifica di

                                @Giorgiotave said:

                                Strano...Federico che ne pensi?
                                Intendi l'errore "non nel dominio"?
                                Non ho capito quale strumento di GWT lo segnala, e in seguito a che modifica esattamente.

                                Il motivo per cui avevo chiesto se usasse il profilo GWT con www o senza era per capire se per caso guideitech non usasse la versione senza www : sarebbe visto come un dominio diverso, obbediente a un robots.txt diverso.

                                Un po' di elementi:
                                Gli URL nella sitemap hanno tutte il www (e il sito stesso fa redirect su tale versione); il robots.txt non fa il redirect, ma si presenta apparentemente uguale.

                                Nota: i feed di guideitech mi sembra finiscano tutti con lo slash /, quindi la riga dovrebbe a mio parere essere:

                                Disallow: */feed/$
                                

                                Ciao

                                [UPDATE: leggo solo ora la risposta di guideitech; @guideitech, felice tua abbia risolto]

                                0 Miglior Risposta Ringrazia Cita Rispondi

                                  1 Risposta Ultima Risposta
                                • G
                                  guideitech User • ultima modifica di

                                  ho omesso il www perché altrimenti non riuscivo ad inserire link. Aggiungo lo slash al disallow per farlo diventare Disallow: */feed/$ .
                                  In questo modo non dovrei avere più nessun problema? Perché quando non avevo il file robots.txt, "Strumenti per webmaster" di google mi segnalava che alcuni articoli avevano due url e ricercando questi articoli su google e cliccando su di essi, l'url non era quella classica bensì un'url che rimandava a feedburner.

                                  0 Miglior Risposta Ringrazia Cita Rispondi

                                    1 Risposta Ultima Risposta
                                  • giorgiotave
                                    giorgiotave Community Manager • ultima modifica di

                                    @Federico Sasso said:

                                    [UPDATE: leggo solo ora la risposta di guideitech; @guideitech, felice tua abbia risolto]

                                    Ci ha fregati 😄

                                    @guideitech said:

                                    Aggiungo lo slash al disallow per farlo diventare Disallow: */feed/$ .
                                    In questo modo non dovrei avere più nessun problema?

                                    Perfetto, sono molto contento!

                                    0 Miglior Risposta Ringrazia Cita Rispondi

                                      1 Risposta Ultima Risposta
                                    Caricamento altri post
                                    Rispondi
                                    • Topic risposta
                                    Effettua l'accesso per rispondere
                                    • Da Vecchi a Nuovi
                                    • Da Nuovi a Vecchi
                                    • Più Voti