• User Attivo

    @Daniwebmaster said:

    Grazie, Interessante soluzione, posso farlo sempre da file robots.txt o comunque in modo pratico? Essendo oltre 1000 url star li a creare cose tipo redirect per ogni url sarebbe un'impresa titanica..

    Puoi farlo con .htaccess:

    Redirect 410 /percorso/pagina/rimossa
    

    Oppure, se usi Joomla, c'è l'apposito componente Redirect.


  • User Attivo

    @altraSoluzione said:

    Puoi farlo con .htaccess:

    >Redirect 410 /percorso/pagina/rimossa
    >```
    
    Oppure, se usi Joomla, c'è l'apposito componente Redirect.
    
    Quindi nell'htaccess invece di..
    
    Disallow: /incontri-potenza-basilicata/
    Disallow: /faq-siti-di-incontri/
    Disallow: /tag/chat-donne/
    Disallow: /tag/chat-ragazze/
    ecc..
    
    Devo mettere..
    
    Redirect 410 /incontri-potenza-basilicata/
    Redirect 410 /faq-siti-di-incontri/
    Redirect 410 /tag/chat-donne/
    Redirect 410 /tag/chat-ragazze/
    ecc..
    
    Giusto? Senza i due punti dopo 410.. Potrebbe essere un'ottima soluzione anche per Grifter visto che anche a lui ogni tanto rispuntano..
    
    Grazie!

  • User Attivo

    L'ho già provata ma tornano. Il mio problema però è che quelle url sono linkate da altri siti. Per te potrebbe funzionare.


  • User Attivo

    @Grifter72 said:

    L'ho già provata ma tornano. Il mio problema però è che quelle url sono linkate da altri siti. Per te potrebbe funzionare.

    Esatto, fortunatamente linkate da altri siti avevo solo un paio di url e contattando i proprietari dei siti linkanti sono riuscito a farmeli sostituire. Qualora non ci fossi riuscito avrei pensato a creare dei redirect con qualche plugin, in modo di dirottare i click a pagine funzionanti.. potrebbe essere una soluzione.


  • User Attivo

    No, attenzione che stai confondendo robots.txt con .htaccess
    Il primo contiene le direttive per i motori di ricerca il secondo, invece, contiene le direttive per Apache.

    I redirect 410 devi metterli nel .htaccess ma se non sai come fare lascia perdere perché rischi di bloccare il sito.

    @Daniwebmaster said:

    Quindi nell'htaccess invece di..

    Disallow: /incontri-potenza-basilicata/
    Disallow: /faq-siti-di-incontri/
    Disallow: /tag/chat-donne/
    Disallow: /tag/chat-ragazze/
    ecc..

    Devo mettere..

    Redirect 410 /incontri-potenza-basilicata/
    Redirect 410 /faq-siti-di-incontri/
    Redirect 410 /tag/chat-donne/
    Redirect 410 /tag/chat-ragazze/
    ecc..

    Giusto? Senza i due punti dopo 410.. Potrebbe essere un'ottima soluzione anche per Grifter visto che anche a lui ogni tanto rispuntano..

    Grazie!


  • User Attivo

    @altraSoluzione said:

    No, attenzione che stai confondendo robots.txt con .htaccess
    Il primo contiene le direttive per i motori di ricerca il secondo, invece, contiene le direttive per Apache.

    I redirect 410 devi metterli nel .htaccess ma se non sai come fare lascia perdere perché rischi di bloccare il sito.

    No tranquillo, so lavorare con entrambi è solo che ho fatto confusione (ogni tanto mi capita).. Quindi ok, il redirect 410 va nel file .htaccess ed il disallow nel file robots.txt.. chiarissimo.. e se usassi entrambi i metodi?


  • User Attivo

    @Daniwebmaster said:

    No tranquillo, so lavorare con entrambi è solo che ho fatto confusione (ogni tanto mi capita).. Quindi ok, il redirect 410 va nel file .htaccess ed il disallow nel file robots.txt.. chiarissimo.. e se usassi entrambi i metodi?

    Hanno due scopi diversi.
    Se metti il Disallow, Google non leggerà la pagina, di conseguenza non "prenderà visione" del redirect 410.
    Quindi, o l'uno o l'altro 🙂


  • User Attivo

    @altraSoluzione said:

    Hanno due scopi diversi.
    Se metti il Disallow, Google non leggerà la pagina, di conseguenza non "prenderà visione" del redirect 410.
    Quindi, o l'uno o l'altro 🙂

    Giusta considerazione, quindi, nel mio caso sarebbe meglio fare imparare una volta per tutte a google che queste pagine non esistono più utilizzando il redirect 410..


  • Moderatore

    Ciao a tutti,
    facciamo un attimo di chiarezza 😉

    Mettere le url in disallow nel robots.txt ha un impatto pressochè nullo per il tuo scopo in quanto quelle url son già archiviate e come ti diceva giustamente altrasoluzione inibisci anzi la possibilità al motore di vedere il destino al quale decidi di sottoporle.
    Quello che puoi fare è dare le direttive all'htaccess a seconda dell'utilità delle url.
    L'url è linkata dall'esterno da fonte utile? 301 a nuova pagina
    L'url è linkata dall'esterno da fonte NON utile? 410
    L'url non è linkata dall'esterno ed è inutile? 410
    L'url non è linkata dall'esterno ma in qualche modo fa traffico utile? 301 a pagina attualmente online con contenuto similare migliorativo.
    Da search console invece puoi rimuovere temporaneamente le url per accelerare il processo di eliminazione dagli indici con 410, mentre per eliminare gli errori segnalati devi per forza di cose cancellare gli errori, in modo tale che al prossimo passaggio dello spider potranno ricrearsi gli eventuali "successivi".
    Spero sia tutto chiaro 😉
    Buone Feste


  • User Attivo

    OK Criss, grazie per il tuo intervento di puntualizzazione, nel mio caso quindi, dovendo comunicare a google la definitiva eliminazione di url inutili opterò per un redirect 410 nel file .htaccess. Spero in questo modo che google, dopo aver spuntato come corrette le url in questione nella GWT capisca e non continui a rinfacciarmele come la peperonata.. Grazie ancora e tanti auguri di Buon Natale e felice 2019 a tutti!!!