• User Attivo

    Pagine duplicate?

    Ciao, ragazzi.

    Su una pagina con url dinamica, del tipo:

    ele_prod.php?cid=23

    che contiene una lista di articoli, ho dei filtri, per ordinarne il contenuto in base per esempio al prezzo.

    Questi filtri aprono una nuova pagina, del tipo:

    ele_prod.php?cid=23&order=prezzo.

    Siccome però cambia l'ordine (e a volte nemmeno quello) ma il contenuto resta sempre quello, rischio una penalizzazione,per contenuti duplicati?

    Inoltre, adesso ho riscritto le URL con mod_rewrite, e le nuove URL sono del tipo:

    /Computer/scheda-madre-asus-ele20.html&ordina-per=prezzo

    In questo caso rischi di avere 2 pagine con contenuto duplicato?

    Eventualmente, come posso risolvere?

    Grazie!


  • Super User

    Ciao,
    se crei contenuti duplicati, non vieni penalizzato nel vero senso SEO della parola (ciò che perdi ranking)... ma significa che uno dei due contenuti duplicati non verrà considerato all'interno delle SERP.

    Il problema sorge, nel senso di decidere quale contenuto (cioè pagina) preferiamo visualizzare nelle SERP nel momento in cui un utente compie una ricerca.

    L'ideale sarebbe creare pagine con contenuti unici... ma questo non è sempre fattibile (specialmente per siti dinamici con svariati parametri di ordinamento).

    Il mio suggerimento è: scegli le pagine che vuoi spingere in serp e blocca (con il file robots o i metatag) quelle che reputi possano essere duplicate a quella che vuoi spingere, in modo tale da non incappare nell'errore di spingere una pagina che risulta "penalizzata" nei risultati duplicati...

    Spero di averti aiutato 😉
    ciao


  • User Attivo

    @dechigno said:

    Ciao,
    se crei contenuti duplicati, non vieni penalizzato nel vero senso SEO della parola (ciò che perdi ranking)... ma significa che uno dei due contenuti duplicati non verrà considerato all'interno delle SERP.

    Il problema sorge, nel senso di decidere quale contenuto (cioè pagina) preferiamo visualizzare nelle SERP nel momento in cui un utente compie una ricerca.

    L'ideale sarebbe creare pagine con contenuti unici... ma questo non è sempre fattibile (specialmente per siti dinamici con svariati parametri di ordinamento).

    Il mio suggerimento è: scegli le pagine che vuoi spingere in serp e blocca (con il file robots o i metatag) quelle che reputi possano essere duplicate a quella che vuoi spingere, in modo tale da non incappare nell'errore di spingere una pagina che risulta "penalizzata" nei risultati duplicati...

    Spero di averti aiutato 😉
    ciao

    Si, sei stato chiarissimo, e rassicurante... 🙂

    solo una piccola precisazione...
    Se blocco via robot l'accesso alla pagina a tutti gli spider, risolvo.

    E se inserisco rel="nofolllow" sui links? Va bene anche così?


  • Super User

    @kru said:

    E se inserisco rel="nofolllow" sui links? Va bene anche così?

    Così impedisci allo spider di passare il PR (pagerank) da una pagina all'altra, ma potresti non evitare l'indicizzazione della pagina linkata (in quanto i motori la possono indicizzare comunque oppure qualcuno potrebbe linkarla da altri siti).

    Quindi forse ti conviene mettere il NOINDEX, NOFOLLOW... (sempre se non vuoi scriverti il robots.txt)

    ciao 🙂