- Home
- Categorie
- Digital Marketing
- Google Search Console e Altri Strumenti
- Deindicizzare in Search Console: come funziona?
-
@sermatica ciao ti spiego: sono state erroneanente create delle copie di url (doppioni degli originali quindi da rimuovere) tutti sotto la cartella "creme solari"). Pensavo di mettere la cartella in disallow ed in seguito richiederne la rimozione in Search Console (www.cremebiologiche.it/creme-solari). Mi chiedo, è corretto? In questo modo sono sicura che la SC toglie SOLO i doppioni e non tocca nulla del mio sito originale?
3 Risposte -
@kyle46 non posso usare "Rimuovi solo questo url" perché gli url da eliminare sono tanti, per far prima dovrei rimuovere l'intera cartellina, sempre che l'operazione sia corretta..
-
@panebianco3d grazie per la risposta, perché dici di fare noindex e non invece disallow su tutta la cartella?
1 Risposta -
@tally Penso che sia possibile farlo tramite una modifica del file "Robots.txt", se non vado errato. Ma questi, poi, devono comunque essere eliminati in futuro. Ora, la domanda da un milione di dollari è: come mai questi url doppioni? Malware o cosa? - Erano due le domande!
T 1 Risposta -
@tally scusami in questi giorni ero un po' impegneto... dicevo no-index perchè (se ho capito bene...) dicevi che hai creato molti url che non servono, ma mi immagino che tra questi - all'interno della cartella che vorresti "disalloware" - alcuni siano "buoni".
Io non procederei "annullando tutta l'indicizzazione della cartella" e successivamente "reindicizzando solo alcuni url di quella cartella".
Cercherei di annullare solo gli url che consideri non validi, mantenendo indicizzati i buoni, anche se questo può essere un po' più lungo da realizzare.
Per far questo puoi approcciarti in diversi modi:- metti un no-index nelle pagine che vorresti non indicizzare;
- metti un tag canonical nelle pagine doppione e le fai puntare a quelle buone (quindi non le cancelli fisicamente);
- vai di htaccess con un 301 (moved permanently) sulle pagine che vuoi non indicizzare;
- vai di file robots.txt più strutturato inserendo un disallow non sulla cartella completa ma sulla lista di files da non indicizzare
Su quest'ultimo punto, ti riporto un interessante articolo:
https://www.semrush.com/blog/beginners-guide-robots-txt/A parte quello che c'è scritto nell'articolo, io personalmente eviterei l'ultimo punto, ma ovviamente dipende anche da come è stato realizzato il sito e le tue competenze tecniche. Ho provato ad accedere al tuo sito ma non si apre più ("impossibile accedere").
T 1 Risposta -
@kyle46 non erano stati creati da me, probabilmente un errore della precedente gestione del sito!
-
@panebianco3d grazie per la tua risposta sempre molto completa e precisa, ti confermo che sono tutti url "clone" che mi creano problemi a livello di indicizzazione degli originali, per questo volevo rimuovere l'intera cartella. Tu perché dici che non faresti la deindicizzazione dell'intera cartella? Ps Grazie per l'articolo!
-
@tally ha detto in Deindicizzare in Search Console: come funziona?:
@sermatica ciao ti spiego: sono state erroneanente create delle copie di url (doppioni degli originali quindi da rimuovere) tutti sotto la cartella "creme solari"). Pensavo di mettere la cartella in disallow ed in seguito richiederne la rimozione in Search Console (www.cremebiologiche.it/creme-solari). Mi chiedo, è corretto? In questo modo sono sicura che la SC toglie SOLO i doppioni e non tocca nulla del mio sito originale?
Ciao,
ti conviene creare un redirect 301 dai doppioni che vuoi eliminare alle pagine giuste.
In questo modo non solo Google le de-indicizzerà ma se un utente dovesse cliccare eventuali link presenti su web (su altri siti o nelle SERP di Google) sarà automaticamente reindirizzato alla nuova pagina in modo del tutto trasparente e, inoltre, non perderai "link juice".
T 1 Risposta -
@tally ha detto in Deindicizzare in Search Console: come funziona?:
Mi chiedo, è corretto? In questo modo sono sicura che la SC toglie SOLO i doppioni e non tocca nulla del mio sito originale?
Ciao
allora non devi usare quello strumento ma cancellare le url duplicate e fare 301. Nel caso che non puoi cancellarle usa il canonical e il noindex. Prima di fare questo analizza il posizionamento delle singole url.
T 1 Risposta -
@sermatica il redirect c'è già, volevo cancellarle per non sprecare crawl budget.. Volevo giusto sapere se a livello concettuale è corretto deindicizzare la cartella.. Perché suggerisci il noindex?
-
@altrasoluzione il redirect c'è già.. Pensavo che impedire l'accesso al crawler con il disallow e deindicizzarle in Search Console fosse la soluzione migliore.. sei d'accordo?
1 Risposta -
@tally ha detto in Deindicizzare in Search Console: come funziona?:
@altrasoluzione il redirect c'è già.. Pensavo che impedire l'accesso al crawler con il disallow e deindicizzarle in Search Console fosse la soluzione migliore.. sei d'accordo?
No perché se impedisci l'accesso al crawler, Google non vedrà mai il redirect mentre deve vederlo per correggere il problema.
Se c'è il 301 che dalla pagina "vecchia" punta a quella "nuova" sei a posto, non devi fare altro, solo attendere i tempi di Google ma nel frattempo sei cautelato dal redirect che manda eventuali visitatori nel posto giusto.