Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. Categorie
    3. Digital Marketing
    4. SEO
    5. Errori di Scansione Google Webmaster
    Questa discussione è stata cancellata. Solo gli utenti con diritti di gestione possono vederla.
    • M
      mister.jinx ModSenior • ultima modifica di

      Ciao bgvsan e benvenuto nel Forum GT.

      Secondo me puoi migliorare molto il layout del sito e non è solo un discorso grafico.
      Dagli un occhio con http://browsersize.googlelabs.com/

      Cercherei quanto prima anche di risolvere problemi di questo tipo:
      http://www.google.it/search?q="La+sigaretta+elettronica+di+Aria+è+capace+di+generare+e+ricreare+una+senzazione+unica+per+un+fumatore"&hl=it&safe=off&client=firefox-a&hs=f4l&rlz=1R1GGGL_it___IT344&filter=0

      0 Miglior Risposta Ringrazia Cita Rispondi

        1 Risposta Ultima Risposta
      • B
        bgvsan User Newbie • ultima modifica di

        ciao, e grazie delle risposte.

        in pratica dovrei modificare il template per raggiungere almeno una larghezza di 1024?

        per i duplicati del cerca non so proprio come intervenire perche sono generate con i link della tag cloud, non mi resta altro che disabilitarla.

        cmq oggi molti errori se ne sono andati sono passati da 38 a 10.

        per migliorare l'aspetto della home page cosa mi consigli?
        Ora sto cercando di rimpicciolirela dimensione e il peso delle foto in modo da renderlo piu veloce.

        0 Miglior Risposta Ringrazia Cita Rispondi

          1 Risposta Ultima Risposta
        • M
          mister.jinx ModSenior • ultima modifica di

          Dai un occhio anche a questo:
          http://www.giorgiotave.it/forum/google/115879-penalizzazioni-google-da-tag-excess.html

          (Riguarda WordPress e non Joomla ma i concetti non cambiano).

          0 Miglior Risposta Ringrazia Cita Rispondi

            1 Risposta Ultima Risposta
          • B
            bgvsan User Newbie • ultima modifica di

            grazie!
            Ora ho disabilitato i tag dal Robots e vediamo come và!
            ho controllato il tempo medio di accesso alle pagine siamo intorno a 1500 che dite è troppo alto?

            ho controllato gli strumenti di google ho trovato molte cose duplicate. sono pagine di sezioni e categorie a volte e i tag title e i metatag non sono inappropriati. mi potete dare una mano su come faccio a modificarle?

            gli screen shot li trovate qui:
            TAG TITLE:
            ariaecigarettes.com/tag title.jpg
            DESC:
            ariaecigarettes.com/meta desc.jpg

            0 Miglior Risposta Ringrazia Cita Rispondi

              1 Risposta Ultima Risposta
            • B
              bgvsan User Newbie • ultima modifica di

              nessuno può aiutarmi su come ridurre e eliminare questi tag duplicati?

              0 Miglior Risposta Ringrazia Cita Rispondi

                1 Risposta Ultima Risposta
              • R
                ropa Super User • ultima modifica di

                La maggior parte di quei problemi li risolvi gestendo da robots txt il /component/search/

                Per quanto riguarda i 1500, se sono millisecondi direi che va benissimo.

                P.S.Attenzione alla scrittura dei post, usa sempre maiuscole dopo i punti.;)

                0 Miglior Risposta Ringrazia Cita Rispondi

                  1 Risposta Ultima Risposta
                • B
                  bgvsan User Newbie • ultima modifica di

                  Grazie delle info, cercherò di stare attento alla punteggiatura.

                  Comunque questo è il robots che ho impostato da più di una settimana, evidentemente ci vorranno un paio di settimane affinchè venga ripreso in considerazione.

                  Naturalmente 1500 sono i millisecondi.

                  
                  User-agent: Googlebot
                  Disallow:
                  Disallow: /cgi-bin/
                  Disallow: /images/
                  Disallow: /administrator/
                  Disallow: /cache/
                  Disallow: /components/
                  Disallow: /component/
                  Disallow: /editor/
                  Disallow: /help/
                  Disallow: /includes/
                  Disallow: /language/
                  Disallow: /mambots/
                  Disallow: /media/
                  Disallow: /modules/
                  Disallow: /templates/
                  Disallow: /installation/
                  Disallow: /tag/
                  
                  User-agent: Bullseye/1.0     
                  User-agent: Black Hole
                  User-agent: bot
                  User-agent: bot-
                  User-agent: bot/
                  User-agent: CopyRightCheck    
                  User-agent: CherryPicker
                  User-agent: crawl
                  User-agent: DittoSpyder    
                  User-agent: DISCo Pump 3.1
                  User-agent: EmailCollector
                  User-agent: EmailSiphon
                  User-agent: EmailWolf
                  User-agent: ExtractorPro    
                  User-agent: Googlebot-Image    
                  User-agent: hloader    
                  User-agent: humanlinks
                  User-agent: LexiBot    .
                  User-agent: LinkWalker
                  User-agent: Microsoft URL
                  User-agent: Microsoft URL Control - 5.01.4511
                  User-agent: Microsoft URL Control - 6.00.8169
                  User-agent: NetAttache    
                  User-agent: NetAttache Light 1.1    
                  User-agent: NetMechanic
                  User-agent: Offline Explorer
                  User-agent: robot
                  User-agent: Spider
                  User-agent: SuperBot
                  User-agent: SuperBot/2.6
                  User-agent: Teleport    
                  User-agent: Titan
                  User-agent: Voila
                  User-agent: WebBandit    
                  User-agent: WebCopier
                  User-agent: webcopy
                  User-agent: Web Image Collector
                  User-agent: webmirror
                  User-agent: WebReaper
                  User-agent: website extractor
                  User-agent: WinHTTrack
                  User-agent: Yahoo Slurp
                  User-agent: Slurp
                  User-agent: shinchakubin
                  Disallow: /
                  
                  
                  0 Miglior Risposta Ringrazia Cita Rispondi

                    1 Risposta Ultima Risposta
                  • R
                    ropa Super User • ultima modifica di

                    Beh, ovviamente ci vuole un po' di tempo prima che vengano rimosse le pagine dall'indice (puoi velocizzare enormemente utilizzando l'apposita funzione di rimozione url del webmaster tool) e ancora più tempo prima che il Webmaster tool ne dia riscontro.

                    0 Miglior Risposta Ringrazia Cita Rispondi

                      1 Risposta Ultima Risposta
                    • B
                      bgvsan User Newbie • ultima modifica di

                      Ho provato a fare la rimozione url dall'apposito form di google webmaster.
                      Sono state tutte accettate, il file robots presenta il disallow ma risultano ancora tutti gli errori relativi ai metatag duplicati, ovvero più di 80

                      naturalmente la pagina degli errori risulta aggiornata a ieri!
                      Idee?

                      0 Miglior Risposta Ringrazia Cita Rispondi

                        1 Risposta Ultima Risposta
                      • R
                        ropa Super User • ultima modifica di

                        Viene aggiornata la pagina degli errori, ma spessissimo rimangono indietro tantissimi url. Il fatto che la pagina venga aggiornata in una data non significa che tutte le url contenute vengano verificare in quella data.

                        Se hai seguito bene la procedura, non temere che verranno rimosse correttamente. Eventualmente puoi verificare tu direttamente nelle serp.

                        0 Miglior Risposta Ringrazia Cita Rispondi

                          1 Risposta Ultima Risposta
                        • B
                          bgvsan User Newbie • ultima modifica di

                          0 Miglior Risposta Ringrazia Cita Rispondi

                            1 Risposta Ultima Risposta
                          Caricamento altri post
                          Rispondi
                          • Topic risposta
                          Effettua l'accesso per rispondere
                          • Da Vecchi a Nuovi
                          • Da Nuovi a Vecchi
                          • Più Voti