Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. Google Analytics e Web Analytics
    5. Google non riesce a verificare il mio sito
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • D
      derbai User • ultima modifica di

      Nel mio caso è 404, pagina inesistente. Tra l'altro ho scopeto che la sitemap non mi prende ww.nomedominio.xx dicendomi che è limitato da robot.txt ma non è così.

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • G
        gaiodedu User Attivo • ultima modifica di

        se lo ritieni opportuno mandami il link in PM, se poi il caso è di interesse generale e può aiutare anche altri utenti lo divulghiamo.

        andrea

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • M
          memic4 User Attivo • ultima modifica di

          Ciao,
          qualche giorno fa si è risolto tutto da solo.
          Ho riprovato a fare la verifica del sito ed è andata a buon fine finalmente.
          Credo che si trattava proprio di un errore con la gestione del 404, forse perchè uso una pagina personalizzata per gestire gli errori 404.
          Pero alla fine si è risolto tutto da solo, non so come.

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • G
            gaiodedu User Attivo • ultima modifica di

            ok, faccio il punto sulla situazione.
            Prima di qualsiasi conferma, verificate online con i numerosi tool a disposizione, che ad url inesistenti (inventatele - es- miosito.com/pippoprova ) corrispondano esattamente errori 404 e non un 200 (ok).

            Per i tool cercate "server response header tool".

            Andrea Serravezza

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • M
              mister.jinx ModSenior • ultima modifica di

              I 404 sono segnalati ora su Google Webmaster Tools
              http://www.giorgiotave.it/forum/news-brevi/93389-google-segnala-i-broken-link-verso-le-pagine-del-tuo-sito.html

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • G
                gaiodedu User Attivo • ultima modifica di

                @mister.jinx said:

                I 404 sono segnalati ora su Google Webmaster Tools
                http://www.giorgiotave.it/forum/news-brevi/93389-google-segnala-i-broken-link-verso-le-pagine-del-tuo-sito.html

                ciao Mister, qui si parla di un problema di verifica. La procedura che a mezzo di uplod di un file univoco per ogni utente/account, o meta, permette ad un webmaster di autenticare il proprio sito in GWT.

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • M
                  mister.jinx ModSenior • ultima modifica di

                  Opps.. avevo dall'intervento di Derbai (che parlava di sitemaps) e di memic (che parlava di 404 personalizzate) la discussione sembrava essere andata oltre la verifica del sito 🙂

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • G
                    gaiodedu User Attivo • ultima modifica di

                    @mister.jinx said:

                    Opps.. avevo dall'intervento di Derbai (che parlava di sitemaps) e di memic (che parlava di 404 personalizzate) la discussione sembrava essere andata oltre la verifica del sito 🙂

                    no problem!

                    ragazzi avete risolto?

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • D
                      derbai User • ultima modifica di

                      Sinceramente non me ne sono più preoccupato. A me comunque google non indicizza la root ovvero l'indirizzo www-sito-it/ ma solo la pagina index.
                      Mi dice che è bloccata dal file robot.txt ma non mi risulta.
                      Cosa strana perchè su altri siti me la prende.

                      Per la verifica ho risolto con il meta tag ma comunque strano che non vedesse il file anche perchè se lo linkavo lo vedevo.

                      Comunque grazie per l'interessamento.

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • G
                        gaiodedu User Attivo • ultima modifica di

                        ripeto, il file esisteva....il problema era/è nella gestione dei 404

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • D
                          derbai User • ultima modifica di

                          Quindi come posso risolvere?

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          • G
                            gaiodedu User Attivo • ultima modifica di

                            correggendo la gestione degli errori lato server. a pagine inesistenti deve corrispondere un errore 404.

                            0 Miglior Risposta Ringrazia Cita Rispondi

                              1 Risposta Ultima Risposta
                            • D
                              derbai User • ultima modifica di

                              Ok, approfondirò questo argomento tramite google ma se digitando quell'indirizzo il browser mi visualizza sia il file di google per la verifica sia la home digitado il dominio senza index non capisco cosa centri questa destione lato server.
                              Vorrei capire come percepisce questo errore google se non ci incorre.

                              0 Miglior Risposta Ringrazia Cita Rispondi

                                1 Risposta Ultima Risposta
                              • G
                                gianrudi Moderatore • ultima modifica di

                                @Derbai said:

                                Ok, approfondirò questo argomento tramite google ma se digitando quell'indirizzo il browser mi visualizza sia il file di google per la verifica sia la home digitado il dominio senza index non capisco cosa centri questa destione lato server.
                                Vorrei capire come percepisce questo errore google se non ci incorre.
                                Secondo me, il processo di verifica si compone di due accessi.

                                1. Un accesso al file di verifica, quello di tipo google_XXXXX326426.html, che deve riuscire (codice 200)
                                2. Un tentativo di accesso a un file inesistente, con un nome di tipo noexist_XXXXX326426, che deve fallire (codice 404)
                                  Infatti è frequente trovare nei log tentativi di accesso a file sicuramente inesistenti, costruiti come il file di verifica ma con il prefisso noexist_ invece di google_, vedi giorgiotave.it/forum/google/86928-google-noexist_08943xxxxxxxxx-html.html.
                                  Per completare la verifica deve andare a buon fine l'accesso al file di verifica google_XXXXX326426.html e deve fallire l'accesso al file inesistente noexist_XXXXX326426.html.
                                  Infatti, se una particolare gestione degli errori restituisce un codice valido anche per gli accessi a file inesistenti, allora la riuscita dell'accesso al file di verifica non può essere considerata prova dell'effettiva esistenza del file di verifica sul sito da verificare, e quindi la verifica, giustamente, non va a buon fine.
                                  Naturalmente si tratta di una ricostruzione, ma mi sembra l'unica che possa spiegare i tentativi di accesso a file (certamente inesistenti) di tipo noexist_XXXXX326426 che si ritrovano nei log e il fatto che, effettivamente, in presenza di una gestione degli errori che non restituisce errore 404 sugli accessi a files inesistenti, la verifica del sito tramite file diventa impossibile.
                                0 Miglior Risposta Ringrazia Cita Rispondi

                                  1 Risposta Ultima Risposta
                                • D
                                  derbai User • ultima modifica di

                                  Ok, ma nel mio case se provo ad accedere ad un file inesistente ho una risposta 404 quindi dovrebbe andare bene.

                                  La tua spiegazine potrebbe andarmi bene per la verifica (anche se poi i fatti nel mio caso non confermano) ma per la home senza index? Potrebbero le 2 cose essere collegate?

                                  0 Miglior Risposta Ringrazia Cita Rispondi

                                    1 Risposta Ultima Risposta
                                  • G
                                    gianrudi Moderatore • ultima modifica di

                                    @Derbai said:

                                    Ok, ma nel mio case se provo ad accedere ad un file inesistente ho una risposta 404 quindi dovrebbe andare bene.
                                    Sì, dovrebbe andare bene.

                                    @Derbai said:

                                    La tua spiegazine potrebbe andarmi bene per la verifica (anche se poi i fatti nel mio caso non confermano) ma per la home senza index? Potrebbero le 2 cose essere collegate?
                                    Sembra che interpreti il robot.txt come se l'accesso alla home fosse abilitato solo per certi file specifici, tra cui appunto l'index, e disabilitato per tutti gli altri. Questo potrebbe forse spiegare e collegare i 2 fenomeni.
                                    Hai provato ad analizzare il robot.txt in wmt? Puoi postarlo?

                                    0 Miglior Risposta Ringrazia Cita Rispondi

                                      1 Risposta Ultima Risposta
                                    • D
                                      derbai User • ultima modifica di

                                      Non so cosa sia wmt ma di seguito il mio robots.txt con i dovuti aggiustamenti perchè altimenti non me lo fà inviare:

                                      User-agent: *
                                      Sitemap: http //www-miosito-com/sitemap.xml

                                      Lo spazio prima // ed i - a posto del . non ci sono nel file originale.

                                      0 Miglior Risposta Ringrazia Cita Rispondi

                                        1 Risposta Ultima Risposta
                                      • G
                                        gianrudi Moderatore • ultima modifica di

                                        @Derbai said:

                                        Non so cosa sia wmt
                                        Intendevo il WebMaster Tools. Nella sezione "Strumenti" c'è la funzione "Analizza robots.txt"

                                        @Derbai said:

                                        ma di seguito il mio robots.txt con i dovuti aggiustamenti perchè altimenti non me lo fà inviare:

                                        User-agent: *
                                        Sitemap: http //www-miosito-com/sitemap.xml

                                        Lo spazio prima // ed i - a posto del . non ci sono nel file originale.

                                        Che io sappia, in genere si inserisce anche la riga
                                        Disallow:
                                        per indicare che non ci sono restrizioni, come si spiega per esempio qui: giorgiotave.it/guida_posizionamento_nei_motori_di_ricerca/file_robots.php .
                                        Non è detto che sia quella la causa del duplice problema, ma potrebbe.
                                        Per accertarlo puoi provare ad aggiungere la regola Disallow: in robots.txt e ripetere il tentativo di verifica del sito attraverso il file di verifica.

                                        0 Miglior Risposta Ringrazia Cita Rispondi

                                          1 Risposta Ultima Risposta
                                        • D
                                          derbai User • ultima modifica di

                                          Ho aggiornato il robot ma guardando su WMT 😉 mi consiglia

                                          Allow: /

                                          Metto quello?

                                          0 Miglior Risposta Ringrazia Cita Rispondi

                                            1 Risposta Ultima Risposta
                                          • G
                                            gianrudi Moderatore • ultima modifica di

                                            @Derbai said:

                                            Ho aggiornato il robot ma guardando su WMT 😉 mi consiglia

                                            Allow: /

                                            Metto quello?
                                            Probabilmente ti riferisci al tool di wmt per la generazione del robot.txt, che effettivamente crea un robot.txt con Allow: / .
                                            In teoria le due regole
                                            Disallow:
                                            e
                                            Allow: /
                                            dovrebbero avere lo stesso effetto di consentire l'accesso a tutto il sito, in quanto la prima specifica che non c'è nessun file che non deve essere prelevato e la seconda che tutti i files possono essere prelevati.
                                            Probabilmente il Disallow: riflette meglio lo scopo naturale del robots.txt, che è quello di indicare agli spider i files da non prelevare, e in genere viene consigliato, però questa indicazione di usare Allow: / viene da fonte indubbiamente autorevole.
                                            Non so, io uso Disallow: e mi trovo bene, suppongo che vadano bene tutte e due le forme ma non saprei consigliarti.

                                            0 Miglior Risposta Ringrazia Cita Rispondi

                                              1 Risposta Ultima Risposta
                                            Caricamento altri post
                                            Rispondi
                                            • Topic risposta
                                            Effettua l'accesso per rispondere
                                            • Da Vecchi a Nuovi
                                            • Da Nuovi a Vecchi
                                            • Più Voti