• User

    @sottomare said:

    Questa tecnica è considerata legale o può portare ad un ulteriore penalizzazione\ban?

    Non so se sia considerata legale oppure no, stà di fatto che ha me ha causato una specie di penalty -30 (o anche 50 ... 60...) per tutte quelle pagine che ce l'avevano e la cosa va avanti da Ottobre


  • Super User

    @LowLevel said:

    Se il motore se ne accorge (o se un utente informa il motore del tentativo di spam), il sito viene bandito dall'archivio.

    Quoto Low, questa tecnica se scoperta porta dritta al BAN... 🙂


  • User

    Grazie a tutti.

    x Low
    Di cose buone ce ne sono molte. Il problema è che le descrizioni dei prodotti provvengono da altri siti (ovvero chi vende il prodotto), ma secondo qualche test che sto facendo non dipende tanto da quello (contenuti duplicati) (anche perchè per il momento non mi sembra che funzioni molto bene l'antiduplicazione di google).

    Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.

    In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).

    Però a quanto pare, mi sconsigliato anche questo.
    Ovverò è cloaking, al contrario? :arrabbiato:

    Ciao
    elle


  • Bannato Super User

    Sono di corsa e non escludo di aver travisato tutto...

    Partendo dal presupposto che concordo con la breve analisi fatta da Low e Dechigno, ti consiglio:

    Perchè non includi le pagine degli affiliati in un iframe ? E' un tecnica consentita... l'unico problema potrebbero nascere da un eventuale uso dei cookie, nel caso ne facessi uso... per il resto il sistema potrebbe aiutarti sensibilmente, ti faccio presente che i motori non leggono iframe ma quanto gli gravità intorno si...

    Scusate se sono stato poco chiaro e nel caso avessi capito roma per toma per la fretta.


  • Super User

    @sottomare said:

    Il problema è che le descrizioni dei prodotti provvengono da altri siti (ovvero chi vende il prodotto), ma secondo qualche test che sto facendo non dipende tanto da quello (contenuti duplicati) (anche perchè per il momento non mi sembra che funzioni molto bene l'antiduplicazione di google).

    Non è una questione di contenuti duplicati, è una questione di contenuti unici. Ce ne sono? Quanti?

    Io non sottovaluterei questo punto; la qualità globale di un sito si vede anche da quanta informazione "nuova" ha creato sul Web e propone ai propri utenti.

    Nel momento in cui crei pagine il cui contenuto unico è basso, rischi di trasformare il sito in un "uno tra i tanti". E a quel punto sei alla mercè dei fattori esterni, visto che quelli interni non sono sufficientemente curati e distintivi.

    Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.

    Quanto differenti? Puoi fare un esempio?

    In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).

    Allora devo aver frainteso: se hai disabilitato quelle pagine col robots.txt, perché fai un cloaking sullo spider, visto che lo spider non effettuerà accessi a quelle pagine?


  • User Attivo

    Sono molto interessata alla vicenda che stai vivendo sottomare.

    Ho appena lanciato un comparatore prezzi e vorrei capire in che modo sei stato penalizzato.

    Il tuo sito presentava i vari prodotti per categorie con i link dei prodotti in chiaro o usi uno script per mascherare il link in uscita?

    il redirect di cui parli è in javascript o è fatto via server (asp, php)?

    in pratica l'utente clicca su un link per raggiungere una pagina sul tuo sito e
    viene invece inviato alla pagina prodotto del merchant in automatico?

    oppure il link affiliato è in chiaro nel codice html della pagina?


  • User

    Ciao a tutti,
    mi fa piacere che l'argomento sia di vostro interesse.

    Citazione:
    [quote]Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.
    Quanto differenti? Puoi fare un esempio?[/quote]

    Per ogni tipologia di prodotto, esempio Schede Madri c'è sia la versione singolare e plurale, inoltre sempre nel tag, vendono introdotti i nomi dei prodotti in questo modo:

    <title>Schede Madri - Prezzi Scheda Madre da [NomePrimoProdotto] a [NomeUltimeProdotto]</title>

    key: prezzi schede madri, scelta scheda madre, [nomeprimoprodotto], [nomeSecondoProdotto], [nomeTerzoPordotto]

    descr: Guida alla scelta delle Schede Madri a partire da [Nomeprimoprodotto] a [nomeultimoprodotto]

    (questo è veramente il massimo che si può fare, al max andrebbe inserita una descrizione a mano di ciascuna tipologia di prodotto, ma son circa 5000)

    [quote]Citazione:
    In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).
    Allora devo aver frainteso: se hai disabilitato quelle pagine col robots.txt, perché fai un cloaking sullo spider, visto che lo spider non effettuerà accessi a quelle pagine?[/quote]

    In realtà non è vero.
    Per offrire un servizio serio ho dovuto realizzare un sistema anti click-froud che comprendeva anche l'eliminazione dei "click" generati dallo spider.

    Dopo, solo a Gennaio, ho introdotto il robots.txt per eliminare direttamente i click dai motori. In realtà Google continua ad accedere a quelle pagine, che non vengono più indicizzate (a volte infatti succedeve che venissero indicizzate), però ci passa sopra.

    Non è una questione di contenuti duplicati, è una questione di contenuti unici. Ce ne sono? Quanti?

    Io non sottovaluterei questo punto; la qualità globale di un sito si vede anche da quanta informazione "nuova" ha creato sul Web e propone ai propri utenti.

    Nel momento in cui crei pagine il cui contenuto unico è basso, rischi di trasformare il sito in un "uno tra i tanti". E a quel punto sei alla mercè dei fattori esterni, visto che quelli interni non sono sufficientemente curati e distintivi.

    Contenuti unici non ce sono, almeno non molti, rispetto alla quantità di contenuto duplicato proveniente dalla descrizione dei prodotti dei singoli merchant.

    Però il sito è stato trattato sempre bene, ottime posizioni sui motori, traffico di circa 5mila accessi al giorno (quasi tutto da google) da molti mesi ormai...

    Il problema secondo me non è sui contenuti, ma sui link di affiliazione... ovvero Google ha deciso che un sito che contiene molti link di affiliazione non è un buon sito pertanto viene penalizzato. Tale teoria secondo me è reale in quanto è successo mesi fa anche in Germania e Francia (ho analizzato solo questi due paesi, ma penso sia più esteso il fenomeno).

    Come comportamento, da parte di google, lo reputo anche giusto, perchè un sito di sola comparazione, magari non è effettivamente utilissimo.
    Però il progetto di comparazione nostro era molto più grande, e stavamo proprio per abbandonare (entro qualche mese) l'attuale filosofia di sito di comparazione, per creare un sistema molto web 2.0 e quindi anche poco simpatico ai motori, per creare una esperienza utente, che in questo settore non si era mai vista (oltre alla possibilità di inserire commenti ai prodotti alla ciao.it) ... ma con gli attuali accessi ormai è quasi inutile.
    (ricordo che tutti i comparatori hanno avuto questa penalizzazione, soprattutto quelli "classici").

    Pertanto volevo sapere se c'erano alternative white per non far proprio leggere quelle pagine al motore, in modo tale da generare traffico e quindi poter riprendere l'idea di differenzazione dagli altri comporatori ed essere quindi giudicati successivamente da Google come sito di qualità, da un quality rater o automaticamente.

    AGGIUNGO (modificato successivamente)

    x Truzzo.com
    Il redirect è con asp e non è in chiaro l'url

    Grazie
    elle


  • Super User

    @sottomare said:

    (questo è veramente il massimo che si può fare, al max andrebbe inserita una descrizione a mano di ciascuna tipologia di prodotto, ma son circa 5000)

    Personalmente investirei in un lavoro di copywriting. In più punti dei tuoi post mi è sembrato di capire che tu sia perfettamente conscio della necessità di distinguersi.

    Se sei consapevole di ciò, allora dovresti anche essere spinto a credere che distinguersi con testi unici ed originali dovrebbe essere un buon modo per migliorare le cose.

    Certo, il copywriting delle sole description non basta e ha senso solo se accompagnato da interventi di altro tipo.

    Dopo, solo a Gennaio, ho introdotto il robots.txt per eliminare direttamente i click dai motori. In realtà Google continua ad accedere a quelle pagine, che non vengono più indicizzate (a volte infatti succedeve che venissero indicizzate), però ci passa sopra.

    Qui bisognerebbe analizzare un po' di roba. Sono indiscreto se ti chiedo di vedere il file robots.txt, le righe del file di log in cui Googlebot accede alle risorse in disallow e possibilmente gli host degli spider?

    Il problema secondo me non è sui contenuti, ma sui link di affiliazione... ovvero Google ha deciso che un sito che contiene molti link di affiliazione non è un buon sito pertanto viene penalizzato.

    Lo ritengo un criterio troppo semplicistico per essere usato da Google. I comparatori di prezzi non condividono tra di loro solo la caratteristica dei link di affiliazione. Ed in genere è un errore ritenere che il problema sia identificabile in un singolo elemento: nella pratica non è mai così.

    Però il progetto di comparazione nostro era molto più grande, e stavamo proprio per abbandonare (entro qualche mese) l'attuale filosofia di sito di comparazione, per creare un sistema molto web 2.0 e quindi anche poco simpatico ai motori, per creare una esperienza utente, che in questo settore non si era mai vista (oltre alla possibilità di inserire commenti ai prodotti alla ciao.it) ... ma con gli attuali accessi ormai è quasi inutile.
    (ricordo che tutti i comparatori hanno avuto questa penalizzazione, soprattutto quelli "classici").

    Beh, allora scusa se insisto sul fatto che la soluzione è nell'essere meno "classici". Nel momento in cui un quality rater di un motore ha tra le proprie direttive quella di favorire una certa eterogeneità dei risultati, aumenta la probabilità che in cima restino i comparatori che si distinguono dagli altri per qualche merito (interfaccia, strumenti, funzioni, autorevolezza, popolarità, ecc.).

    Secondo me stai correndo il rischio di scambiare la causa con l'effetto. Tu dici "ma con gli attuali accessi ormai è quasi inutile" mentre io sostengo che quelle modifiche sarebbero utili per ottenere accessi. E' un investimento.


  • User

    Ciao LowLevel,
    prima di tutto grazie per l'interesse.

    Qui bisognerebbe analizzare un po' di roba. Sono indiscreto se ti chiedo di vedere il file robots.txt, le righe del file di log in cui Googlebot accede alle risorse in disallow e possibilmente gli host degli spider?

    Se vuoi mi scarico i log file e faccio una ricerca completa, ma è uguale, in quanto questo è quanto traccio nelle statistiche dei click:

    mozilla/5.0 (compatible; googlebot/2.1; +http://www.google.com/bot.html)

    con ip: 66.249.65.209

    Il robots.txt è corretto, l'ho provato anche a validare con i webmaster tools di google ed è corretto.

    Comunque la stringa è questa:
    User-agent: *
    Disallow: /[nomecartella]/

    dove [nomecartella] è la cartella che contiene il file di redirect.

    Personalmente investirei in un lavoro di copywriting. In più punti dei tuoi post mi è sembrato di capire che tu sia perfettamente conscio della necessità di distinguersi.

    Se sei consapevole di ciò, allora dovresti anche essere spinto a credere che distinguersi con testi unici ed originali dovrebbe essere un buon modo per migliorare le cose.

    Certo, il copywriting delle sole description non basta e ha senso solo se accompagnato da interventi di altro tipo.

    Hai pienamente ragione, in siti web normali.
    Ho fatto anche dei test creando pagine con contenuti scritti di sana pianta, e la pagina sale abbastanza bene (visto anche che è poco tempo che sono online) solo se contiene max 5 prodotti con link esterni.
    Sinceramente è presto, sono solo un 6 giorni che sono su... però sembra proprio così...
    sto facendo diversi test in tal senso e se volete vi tengo aggiornati.

    Capisci bene che con solo 5 prodotti x pagina non offro un servizio di qualità nè per gli utenti nè per i merchant.

    Ciao
    elle


  • Super User

    @sottomare said:

    mozilla/5.0 (compatible; googlebot/2.1; +http://www.google.com/bot.html)

    con ip: 66.249.65.209

    Hai per caso AdSense sul sito? Oppure usi le tue pagine come landing per pubblicità AdWords?


  • User

    Ho AdSense,
    e NON ho AdWords.

    Non ci sono landing page di alcun genere...

    ora sto testando anche ad eliminare parecchie pagine (con cautela) diciamo più inutili (come tutte quelle che ordinavano i prodotti per nome crescente e decrescente).

    Ciao
    elle