- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Problema con il file robots e more
-
Va bene, grazie.
Perché allora viene consigliato di disabilitare tramite file robots i tag e le categorie, per evitare contenuti duplicati?
Non sono anche quelli link interni?
-
E' un estremo rimedio che personalmente sconsiglio, ci sono altre soluzioni ben meno "costose" per il posizionamento.
[/OT]In ogni caso non c'entra con le ancore interne. Il termine "interna" si riferisce alla pagina, non al sito.
Un pagina tag di un blog contiene testi presenti in altre pagine.
Invece la pagina *sito.com/pagina.html#post873536 *è la stessa identica pagina di *sito.com/pagina.html *e pure Google lo sa.
Nelle SERP mostrerà sempre solo la seconda URL (con una sola eccezzione, che non sto a dire per non confondere).L'unica differenza è che quando clicco su un link contenente la prima URL, all'apertura della pagina il browser la scrolla fino ad un punto ben preciso.
-
Va bene, ho capito.
Grazie per l'informazione.
-
Prego ;), ciao.
-
Chi mi aiuta a capire?
Nel robot txt scrivo questo codice:
Disallow: /member/*
prima era senza asterisco adesso ho pensato di aggiugere l'asterisco.
Il mio problema è che pur essendonci il codice sopra, google va avanti a tenere nell'index la lista dei membri!
Come è possibile? Cambia qualcosa aggiungendo l'asterisco?
Come faccio a fare in modo di non far vedere i member?
Non si tratta neppure di un problema tempo poiche **Disallow: /member/ **è presente da almeno 5 mesi in robot txt e i membri vanno avanti ad essere elencati!
-
Ciao atlantotec.
Disallow: /member/*
è equivalente a
Disallow: /member/
perché è come se alla fine ci fosse sempre un asterisco (a meno che non si usi $ per indicare il termine riga).
Sei sicuro che la directory si chiami member e non invece members?
E attenzione anche al nome del file si chiama "robots.txt", non "robot.txt".
-
Il link da bloccare è per esempio questo:
forumgesund.ch/member/puschififi/non si tratta di una directory ma di un link che genera il Seo url rewriter
-
Alcune (e forse anche molte) pagine rimaranno a lungo, soprattutto se continui a linkarle. Il Disallow dice ai motori di non visitare la pagina, ma loro se conoscono la URL a volte, e sempre più spesso, la mostrano lo stesso.
La ricetta del diserbante per eliminare le URLacce dalle SERP è questa:
- Aggiungi questo codice in quelle pagine:
<meta name="robots" content="noindex, follow" /> - TOGLI dal robots.txt il Disallow: /member/
- Attendere prego
Attenzione: pure il passaggio 2 è fondamentale, anche se controintuitivo.
- Aggiungi questo codice in quelle pagine:
-
Si tratta di un forum phpbb3 non saprei come introdurre codici...
-
Nemmeno io, non uso phpbb3, e lavoro in ambiente windows.