Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. raffaele80it
    3. Discussioni
    R

    raffaele80it

    @raffaele80it

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 10
    • Post 34
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Località Pachino Età 44
    0
    Reputazione
    34
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    badges

    0
    Bookmarks
    0
    Voti
    0
    Ringraziamenti
    0
    Miglior risposte
    Inizia una nuova discussione
    di cosa vuoi parlare?

    Discussioni create da raffaele80it

    • Topic
      Post
      View
      Votazioni
      Post
      Attività
    • R

      Aiuto per migliorare posizionamento organico
      SEO • • raffaele80it  

      6
      633
      Visualizzazioni
      0
      Votazioni
      6
      Post

      R

      grazie per i consigli. Ho già provveduto a contattare il moderatore

    • R

      recaptcha v2 invisible e mail spazzatura
      Coding • • raffaele80it  

      4
      674
      Visualizzazioni
      0
      Votazioni
      4
      Post

      R

      aggiorno:
      alla fine ho deciso di mettere il recaptcha sono nella pagina contatti (https://www.soluzionivacanze.com/it/contatti) ma sto notando la presenza di più volte la stessa URL su “deferparsing javascript”.
      Come potrei risolvere?

    • R

      analisi di access.log per ottimizzazione del crawl budget
      SEO • • raffaele80it  

      3
      477
      Visualizzazioni
      0
      Votazioni
      3
      Post

      federico.sasso

      Ciao,
      @raffaele80it said:

      Ciao a tutti,
      analizzando access.log mi sono accortogoogle continua a scansionare anche URL non più presenti nel proprioindice.
      Facendo dei test a campione ho vistoche in molte queste URL vi sono dei chain redirect.
      Secondo voi vale la pena di correggerlioppure questa operazione va limitata solo agli URL importanti delsito già indicizzati e posizionati?
      Dò per scontato tu abbia verificato si tratta proprio di googlebot e non di casi di spoofing dello user-agent da parte di bot che seguono link ai vecchi URL.

      Ricordo di aver letto in qualche documento Google che il motore di ricerca controlla per un po' di tempo URL nel proprio indice anche se sono redirezionati (in modo permantente, es. 301) così da essere sicuro i redirect non siano stati impostati erroneamente.
      I vecchi URL in realtà non sono tolti dall'indice, sono solo nascosti alla SERP, così che il grafo dei link possa tenere conto di link che puntano ai vecchi URL.

      Dipende da quanto ti sta a cuore il problema.

      I chain redirect richiedono più tempo a Google per aggiornare il proprio indice perché ogniqualvolta googlebot incontra un redirect, non lo segue direttamente: lo riporta al motore di ricerca che pianificherà una visita al nuovo URL trovato. Ne consegue maggior consumo di crawl budget e tempi maggiori per arrivare all'aggiornamento dell'indice con le pagine di destinazione.

      Va però detto che dopo un po' al risultato ci si arriva. Se i redirect concatenati sono frutto di una migrazione e non sono prodotti di continuo, se il sito non è poi così grosso, e se una semplice regola generica non è sufficiente a risolvere tutto con un redirect unico, potresti anche giudicare non ne valga la pena se giudichi che possa essere solo una situazione transitoria che non prenderà troppo tempo.
      Se però fosse tutto risolvibile con poco sforzo, io lo farei.

      Tieni anche conto che la gran maggioranza dei siti non ha problemi di crawl budget. E' un problema che riguarda solo siti di grosse dimensioni (centinaia di migliaia o millioni di URL) soggetti a frequenti aggiornamenti dei propri contenuti. Es. grossi e-commerce.
      Per siti di poche centinaia di pagine è un non problema. Per dimensioni intermedie va valutato di caso in caso. Di solito non lo è.

      Diverso sarebbe invece il caso in cui non si tratta proprio di Googlebot, ma di user-agent spoofing (lo puoi verificare facendo un reverse-dns dell'indirizzo IP tracciato nei log).
      In quel caso non avresti uno spreco di crawl-budget da parte del motore di ricerca perché del motore di ricerca non si tratta

      Spero d'esserti stato utile.

    • R

      analisi di access.log
      SEO • • raffaele80it  

      8
      1123
      Visualizzazioni
      0
      Votazioni
      8
      Post

      R

      se è per quello non c'è problema: il sito è sempre in continuo aggiornamento

    • R

      Robots.txt e file PDF
      SEO • • raffaele80it  

      5
      548
      Visualizzazioni
      0
      Votazioni
      5
      Post

      R

      grazie Sermatica

    • R

      Riscrittura degli URL a seguito di revisione struttura sito
      SEO • • raffaele80it  

      6
      947
      Visualizzazioni
      0
      Votazioni
      6
      Post

      R

      Ciao, confermo che i nuovi URL hanno rimpiazzato quelli vecchi, acquisendone anche il posizionamento. Tutto okj quindi.
      Grazie e a presto

    • R

      strumenti gratuiti per monitoraggio keyword nelle serp
      SEO • • raffaele80it  

      4
      528
      Visualizzazioni
      0
      Votazioni
      4
      Post

      R

      si, li ho provati ma sto notando che c'è di meglio in giro.
      Sto appena testando questo e sembra molto interessante: monitorank

    • R

      URL anomali rilevati su Search Console
      SEO • • raffaele80it  

      11
      1591
      Visualizzazioni
      0
      Votazioni
      11
      Post

      R

      Ciao Giorgio,
      rispondo solo adesso poiché mi trovavo qui per caso. Non riesco ancora a capire perché non mi arriva la notifica via mail che mi avvisa del nuovo messaggio.
      Sono andato a controllare le impostazioni e sembra sia tutto posto....booo!!!
      Comunque tutto risolto: le URL appartenevano alla vecchia gestione del dominio e non interferiscono più con il mio crawl budget.
      Grazie e auguri di buone feste

    • R

      Favorire il posizionam. di una pag. inserendo NOINDEX nelle pag.dei suoi link interni
      SEO • • raffaele80it  

      3
      729
      Visualizzazioni
      0
      Votazioni
      3
      Post

      altrasoluzione

      Ciao,
      anche per me è poco chiaro.
      È come se su un sito che vende scarpe, volessi essere trovato per la parola chiave "scarpe" che appare in home page ma non per "scarpa da ginnastica XXXXXX", relativa al singolo prodotto.
      A me sembrano utilissime entrambe.
      Ma, come dicevo, probabilmente ho capito male.

    • R

      Problemi con redirect e URL contenenti ?id=3
      SEO • • raffaele80it  

      2
      604
      Visualizzazioni
      0
      Votazioni
      2
      Post

      R

      Trovata la soluzione mettendo ? alla fine della url
      fonte: forum.html.it/forum/showthread.php?threadid=1302461

      Dopo aver inserito ? il redirect funzionava ma la pagina dava un errore di loop di reindirizzamento, problema che si è risolto in questo modo:

      elimando dalle url .html togliendo la direttiva L dal primo rewriterule

      In pratica abbiamo trasformato da così

      RewriteCond %{HTTP_HOST} ^soluzionivacanze.com
      RewriteCond %{QUERY_STRING} ^id=3$
      RewriteRule ^(.*)$myweb.com/test.html [R=301,L]

      a così

      RewriteRule ^chi-siamo /pagine.php?id=3RewriteCond %{REQUEST_URI} ^/pagine.php$RewriteCond %{QUERY_STRING} ^id=3$RewriteRule ^(.*)$ /chi-siamo? [R=301,L]

      Spero possa essere utile a qualcuno