- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Deindicizzazione Con Più Redirect 301 Successivi
-
Ciao Porretz,
Non preoccuparti, puoi fare tranquillamente due redirect 301 "consecutivi" ;).
-
Ce ne vuole più tempo di soli due settimane per svuotare i cache di google.
Sei hai fatto i redirect 301, non ti devi preoccupare dei possibili contenuti duplicati.
-
Comunque ho velocizzato la procedura indicando a Google che il sito è stato trasferito su... Da Webmastertools..
Ora perde 10 pagine al giorno..
-
E invece era una cazzata..
A oggi controllo e pur avendo Redirect 301 il sito continua a indicizzare..Le pagine sono addirittura cresciute..Il motivo potrebbe essere il fatto che sia presente un redirect di aruba? E' un dominio con solo redirect, eppure ho verificato con strumento che è un Redirect 301..
Ci sono spiegazioni? E' passato più di un mese!
Sto impazzendo
-
Up Again!..
Ragazzi alla data odierna quel dominio, dopo 1mese e mezzo ha 100 pagine in più di quando è stato messo il redirect..Eppure si tratta di pagine vecchie, che non capisco come possano crescere visto che ora il sito è un semplice forwarding/redirect..
Credete che avendo fatto tutto correttamente non debba preoccuparmi veramente? Non lo guardo per 6 mesi e me ne frego?..E' la prima volta che dopo quasi 2 mesi non c'è nessun calo sull'indice..
-
Ciao Porretz,
Hai controllato che le pagine con il redirect non siano bloccate da robots?
Immagino che il redirect 301 sia impostato in modo corretto.
-
@Gibbo89 said:
[...]
Il redirect è corretto testato più volte..
Quello che mi preoccupa è effettivamente il dominio in redirect generico..
In particolare qualsiasi URL digitata su .net, redireziona in 301 sul .com..Questo porta per esempio a cose del tipo:
www .xxx. com/robots.txt
E' raggiungibile anche digitando www .xxx. net/robots.txt
Ovviamente questo robots va in 301 su quello del .comDa webmastertools sono riuscito ad agganciare il dominio .net verificando il codice analytics, e se guardo la sezione robots, trovo che robots del .com è segnato come robots del .net.
Effettivamente alcune pagine del .com sono bloccate da robots, e non vengono deindicizzate nel .net..
Pero' questa cosa è assurda..Devo per forza comprare hosting per risolvere il problema?
-
E aggiungo anche..
Considerando che le pagine sul dominio .net sono vecchie duplicazioni e che sono sicuro che non ricevano backlinks..Per tagliare la testa al toro..Mi conviene parcheggiare il dominio? (in questo modo andrebbero tutte il 404 sparendo poi dall'indice naturalmente)
-
Se non hanno link puoi anche mettere il 404.
Per il dominio però ti consiglio comunque il redirect 301 ;).
-
Ciao a tutti, mi accodo alla discussione su un dubbio che mi è venuto riguardo alla conservazione dell'indicizzazione delle pagine di un sito che è in fase di migrazione.
Per questioni legate alla piattaforma devo per forza di cose effettuare due redirect 301 e mi chiedevo quale fosse la reazione di Google a questo doppio reindirizzamento.
Devo reindirizzare circa 30000 url e mi aiuto con l'id prodotto. Nel file htaccess è stata inserita la tipologia di url che potrebbe richiedere l'utente. La url viene rediretta ad un file php che individua la nuova url ed effettua un redirect 301 su quest ultima. Il tutto funziona perfettamente, ma analizzando con ScreamingFrog e **Visual Seo Studio **viene giustamente evidenziato il doppio redirect.
Esempio:
Url iniziale (primo 301)
Script php (secondo 301)
Nuova Url
Avete esperienze in merito? Google considera questa situazione come un redirect 301 normalmente?
Grazie mille a chi parteciperà