• User

    Errore soft404 su link funzionanti

    Ciao a tutti,
    ho alcune pagine del mio sito web che linkano dei file con estensione ".dwg"
    Tutti questi link vengono cotrassegnare GSC come errori 404.

    Ho provato a mettere il tag rel=nofollow all'interno del link ma non ha funzionato :crying:

    <a href="nomefile.dwg" rel="nofollow"><img src="thumbs/nomefile.jpg"><br>nomefile</a>

    Avete qualche suggerimento per risolvere il problema?

    Grazie in anticipo.

    Tipo:
    Altri


  • User

    Anche il mio sito soffre di alcuni errori soft 404. Ho scoperto che sono link che contengono tag non presenti negli articoli di riferimento. Non credo di averti risolto il problema ma avevo piacere di condividere ugualmente


  • User

    Nel mio caso non è Wordpress ma pagine html statiche.
    Quindi non ho articoli di riferimento o cose simili.
    Sono semplici link.

    Qualche idea?


  • Moderatore

    Ciao
    i file .dwg cosa sono e quanti sono? Da Chrome riesci a renderizzarli o serve Cad? Per risolvere potresti metterli in una cartella a parte e poi metterla in Disallow dal robots.txt


  • User

    @Sermatica said:

    Ciao
    i file .dwg cosa sono e quanti sono? Da Chrome riesci a renderizzarli o serve Cad? Per risolvere potresti metterli in una cartella a parte e poi metterla in Disallow dal robots.txt

    Il file dwg sono disegni CAD che Chrome non riesce ad aprire.
    E' praticamente una libreria di disegni cad.
    La soluzione del robors.txt potrebbe funzionare, ma mi costringe a cambiare la struttura delle cartelle 😞
    oppure è possibile impostare un *Disallow: .dwg ?


  • Moderatore

    Ciao
    il comando corretto è questo
    Disallow: /*.pdf$

    P.s.
    Prima di procedere vai sulla Gsc proprietà dominio, controlla che la Sitemap sia caricata e corretta. Verifica in copertura che le pagine inviate non diano errore e che sia tutto ok. Così in caso di problemi li vedi subito nella sezione copertura.


  • User

    Ciao Sermatica,
    scusa per il ritardo della mia risposta, ma ho avuto molto da fare nell'ultimo periodo.
    Il 20 Aprile ho modificato il file robots.txt come da tue indicazioni.

    Oggi sono rientrato in Google Search Console per verificare la situazione.
    Il numero di pagine segnalate come errore 404soft si è effettivamente ridotto di circa 200, ma continua a segnalare oltre 2000 link con questo problema.
    Ho l'impressione che quando lo spider di google entra a fare la sua verifica, analizzi solo una piccola percentuale di questi link e non tutti.
    Di conseguenza il numero di link segnalati scenderà un per po' per volta ma ci vorranno mesi, prima che lo spider di google analizzi tutti i link, pur entrando di tanto in tanto.

    Domande:

    1. la mia impressione è corretta?
    2. è possibile chiedere a Google di analizzare l'intero sito?

    Grazie.


  • Moderatore

    Ciao
    1. la mia impressione è corretta?
    Solo un analisi dei Log può dirlo.

    2. è possibile chiedere a Google di analizzare l'intero sito?
    Se hai già inviato le Sitemap corrette devi solo attendere.