Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Pagine non trovate (357)
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • overclokk
      overclokk Moderatore • ultima modifica di

      Ciao DARKF3D3,
      se usi un cms stile wordpress che crea delle pagine per ogni tag è normale che vengano indicizzati a meno che tu non li abbia bloccati precedentemente, nella situazione che hai descritto la procedura migliore da fare quando si eliminano dei contenuti indicizzati è: prima bloccarli o tramite il file robots.txt con un disallow alla pagina o tramite i tag nofollow noindex all'interno della pagina web e poi puoi lascare così (e con molto tempo google li elimina dal suo indice) o li elimini a mano uno per uno dal GWT (metodo più veloce a eliminare ma meno veloce se hai parecchie pagine).

      Per il calo di visite è possibile che avendo eliminato così tante pagine in poco tempo google stia rivalutando il sito o le pagine stesse (questa è solo una supposizione, non avendo dati alla mano non posso esserne certo)
      Le posizioni in serp sono rimaste invariate o hanno avuto cali?

      Ciao
      Enea

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • D
        darkf3d3 User Attivo • ultima modifica di

        Per quanto riguarda le keyword non c'è stato un vero e proprio calo, le posizioni oscillavano di molto da un giorno all'altro, pero in questi ultimi giorni sembrerebbe si stiano stabilizzando.

        Mentre da GWT come faccio a eliminare manualmente i link delle categorie eliminate?

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • overclokk
          overclokk Moderatore • ultima modifica di

          Dal GWT la procedura è questa:
          Configurazione sito > Accesso crawler > rimuovi url

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • D
            darkf3d3 User Attivo • ultima modifica di

            Grazie per l'aiuto

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • overclokk
              overclokk Moderatore • ultima modifica di

              Di nulla 🙂

              Ciao
              Enea

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • F
                finex User • ultima modifica di

                Potresti anche mettere dei 301 mirati per un po' di mesi.

                Se prima avevi tre tag: "variante1", "variante2" e "variante3", ed ora solo "tag-unica" (che raccoglie gli articoli precedentemente taggati con 1,2,3) puoi impostare dei 301 ad hoc dalle tre vecchie tag alla nuova.

                Ciao!

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • D
                  darkf3d3 User Attivo • ultima modifica di

                  In fatto è che sono sta eliminate all'incirca 500 tag, quindi sarebbe un lavoraccio.
                  Lasciando tutto così com'è, quindi senza 301, senza modifiche da GWT e file robots, in quanto verrebbero eliminate queste pagine?

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • F
                    finex User • ultima modifica di

                    Possono servire anche molti mesi.

                    Comunque puoi velocizzare il lavoro in questo modo: vai nel GWT, scarichi l'elenco dei 404, lo apri con un foglio di calcolo e con un po' di formulette generi dinamicamente tutti i redirect. Poi ti basta soltanto copiare ed incollare nell'.htaccess 🙂

                    Ciao!

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • overclokk
                      overclokk Moderatore • ultima modifica di

                      Non esiste una tempistica predefinita, dipende da vari fattori, l'unica cosa che posso dirti è di avere pazienza che prima o poi verranno eliminate.
                      Cominque con il robots.txt impostato correttamente velocizzi l'eliminazione.

                      Ciao
                      Enea

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • D
                        darkf3d3 User Attivo • ultima modifica di

                        Il file robots è impostato in questo modo:
                        [HTML]#Configurazione wordpress
                        User-agent: *
                        Disallow: /wp-
                        Allow: /wp-content/uploads/
                        Disallow: /trackback/
                        Disallow: /feed/
                        Disallow: /comments/
                        Disallow: */trackback/
                        Disallow: */feed/
                        Disallow: /comments/
                        Disallow: /
                        ?

                        Sitemap: http : // www ... ... ... / sitemap.xml.gz[/HTML]

                        Già che ci sono ne approfitto per chiedere se è corretta questa riga:
                        Disallow: /*?

                        Lo chiedo perché controllando da GWT ora sono presenti parecchi link disattivati di questo tipo:
                        http : // www . dottorgadget.it /?p=8398

                        Il fatto è che quei link, sono link ad articoli del blog... è corretto che sia così?

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • overclokk
                          overclokk Moderatore • ultima modifica di

                          Per quella situazione potrebbe essere sufficiente anche solo:
                          Disallow: /?
                          perchè prima del punto di domanda c'è solo il "/"

                          Se vai a quel link vieni rediretto alla pagina con la frendly url quindi puoi bloccare tranquillamente quell'indirizzo con il robots.txt

                          Ciao
                          Enea

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          • D
                            darkf3d3 User Attivo • ultima modifica di

                            A ok quindi è normale, verranno bloccati gli indirizzi che fanno il redirect mentre quelli principali saranno presenti nell'indice.

                            0 Miglior Risposta Ringrazia Cita Rispondi

                              1 Risposta Ultima Risposta
                            Caricamento altri post
                            Rispondi
                            • Topic risposta
                            Effettua l'accesso per rispondere
                            • Da Vecchi a Nuovi
                            • Da Nuovi a Vecchi
                            • Più Voti