Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Errori 404 cresciuti in maniera esponenziale: Come risolvere?
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • R
      riks User • ultima modifica di

      Non mi ero acorto della tua risposta 😉 Eccomi qui.

      Ti inserisco come screenshot cosa esce guardando dove hai detto te 😉 e del pannello del plugin..intanto gli errori sono aumentati a 2.463

      Gli errori sono iniziati dal 30 Agosto ma quel plugin lo avevo installato anche prima...e da allora non ho installato altri nuovi plugin..

      mediafire.com/?jjbvvugbbj2v1v5

      mediafire.com/?q0h4099gemgr1fj

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • R
        riks User • ultima modifica di

        overclokk** Hai qualche soluzione? ;)**

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • overclokk
          overclokk Moderatore • ultima modifica di

          Da quello che vedo sembra proprio che google abbia indicizzato le url in cache invece di quelle giuste, forse il plugin non funziona a dovere o va in conflitto con qualche altro plugin, soluzioni sono bloccare tramite robots.txt quelle url, disattivare il plugin ed eventualmente sostituirlo con un altro.

          Ciao
          Enea

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • R
            riks User • ultima modifica di

            Il plugin **Hyper Cache **l' ho disattivato da qualche giorno ormai ma gli errori continuano a crescere.. 😞 e non diminuiscono..

            Per l'altra soluzione " bloccare tramite robots.txt quelle url" beh..non ne sono capace..mi sai indicare come devo fare?

            Sei gentilissimo! Grazie!

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • overclokk
              overclokk Moderatore • ultima modifica di

              E' possibile che gli errori aumentino ancora ma questo è normale poiché GWT aggiorna i dati in ritardo.

              Il robots.txt è un file di testo (lo puoi creare anche con notepad di windows) che va messo nella root del sito ( / ).

              Prima devi controllare di non avere delle url con i numeri che andremo a mettere nel file robots (altrimenti blocchiamo pagine buone) e controllare che tutte le url con 404 abbiano la stessa matrice, ovvero comincino con la stessa sequenza.

              Io per esempio metterei questo:

              User-agent: *
              Disallow: /1346
              

              Il numero 1346 è la parte iniziale delle cifre che compongono le url con 404, ho messo 4 cifre poiché difficilmente dovresti avere url buone con quei numeri iniziali. (Ne puoi mettere anche 5 o 6 cifre o solo 3)

              Una volta inserito il file robots dovrai attendere diversi giorni prima di vedere risultati.

              Ciao
              Enea

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • R
                riks User • ultima modifica di

                Ti ringrazio davvero! 🙂

                Le matrici iniziano con 1346 che hai scritto te ma anche 1345 1347

                Intendi questa parte in rosso vero (per esempio)?
                2011/03/07/bada-1-2-ita-per-samsung-wave-disponibile-su-kies/1346343672000/1347312591000
                2012/01/27/lg-la-produzione-delle-tv-oled-55-iniziera-a-luglio/1345292203000/1346662103000

                Per inserire quindi più "numeri da escludere"(scusa il linguaggio ahaha) cosa devo inserire oltre a Disallow: /1346? Una virgola e 1345 e 1347?

                Quel file di testo lo devo inserire nell' "/" quindi dove sono presenti index.php / .htacces / sitemap.xml ?

                Grazie!

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • overclokk
                  overclokk Moderatore • ultima modifica di

                  Esatto, sono quelli in rosso, visto che i primi 3 numeri non cambiano e gli altri si allora metti solo quelli:

                  Disallow: /134

                  Così come l'ho scritto io, non aggiungere nulla.

                  Esatto, lo inserisci li.

                  Ciao
                  Enea

                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • R
                    riks User • ultima modifica di

                    Fatto!
                    Inserito in un file di testo di nome robots.txt il testo:

                    *User-agent: *
                    Disallow: /134
                    *
                    e inserito dove ho scritto prima 🙂

                    Per vedere i primi buoni risultati su Webmaster di Google ora devo aspettare una settimana come minimo..giusto?..poi dovrebbero iniziare a calare gli errori fino ad esaurirsi? (quelli di questo tipo intendo..)

                    Grazie mille davvero!
                    Gentilissimo!

                    Ciao,
                    riki

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • R
                      riks User • ultima modifica di

                      Ho provato a controllare la pagina webmaster e, per ora nessun cambiamento..come mi avevi già detto (ci vuole più tempo) ma il file robots.txt è stato rilevato!

                      www.mediafire.com/?1lgp5ev5pe391vs

                      Tutto ok? Non mi rimane che aspettare?

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • overclokk
                        overclokk Moderatore • ultima modifica di

                        Ok, il file è rilevato correttamente.

                        Probabile che tu debba aspettare anche più di una settimana anche perché se non ricordo male hai molti 404.

                        Ciao
                        Enea

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • R
                          riks User • ultima modifica di

                          Come mai gli errori non spariscono ma addirittura continuano ad aumentare?!? 😞

                          ww**w.mediafire.com/?yrl7rb599v04isj

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          • overclokk
                            overclokk Moderatore • ultima modifica di

                            E' normale, probabilmente quegli errori sono stati trovati prima delle modifiche e te li fa vedere ora, attendi con pazienza ed eventualmente reinvia la sitemap.

                            Ciao Enea

                            0 Miglior Risposta Ringrazia Cita Rispondi

                              1 Risposta Ultima Risposta
                            • R
                              riks User • ultima modifica di

                              Ciao Enea, scusa se ti disturbo ancora 🙂

                              Gli errori si sono bloccati a 3.470 da 18/10 e ad oggi non sono diminuiti, quindi:

                              1- E' un bene che si siano bloccati..grazie!
                              2- Come faccio a far andar via quei 3000 e passa? 🙂

                              Grazie

                              0 Miglior Risposta Ringrazia Cita Rispondi

                                1 Risposta Ultima Risposta
                              • overclokk
                                overclokk Moderatore • ultima modifica di

                                Ciao Riks, nessun disturbo 🙂

                                1 - Direi di si
                                2 - Aspetti 🙂 e ogni tanto cotrolli che gli url abbiano sempre quelle caratteristiche che abbiamo messo nel robots, se dovesse cambiare qualcosa scrivi qui e vediamo il da farsi.

                                Ciao
                                Enea

                                0 Miglior Risposta Ringrazia Cita Rispondi

                                  1 Risposta Ultima Risposta
                                • R
                                  riks User • ultima modifica di

                                  Grazie mille! Speriamo che pian piano spariscano 😉

                                  Controllerò man mano che continuino ad avere quelle caratteristiche e in caso riscrivo qui 🙂 grazie mille!

                                  0 Miglior Risposta Ringrazia Cita Rispondi

                                    1 Risposta Ultima Risposta
                                  Caricamento altri post
                                  Rispondi
                                  • Topic risposta
                                  Effettua l'accesso per rispondere
                                  • Da Vecchi a Nuovi
                                  • Da Nuovi a Vecchi
                                  • Più Voti