• Super User

    @kerouac3001 said:

    certo tutto questo potrebbe essere velocizzato andando a leggere il js, ma il js lo si può mettere esterno e si può addirittura fare un cloacking nel js (non l'ho testato, ma in teoria è possibile) in modo che il js esterno eegua il nostro codice solo se la pagina è diversa dall'url dello script stesso (quindi quando il quality rater va a scaricarsi il js non vede niente)

    A quel punto abbiamo raggiunto la perfezione e non c'è + nulla da temere, perché l'individuazione dell'errore diventa estremamente complessa.
    Credo che basti la web developer toolbar di Firefox per vedere quel sorgente JavaScript, anche usando cloaking lato server basato su HTTP_REFERER (non sono sicuro al 100%, ma se vuoi possiamo fare una prova).

    In tal caso, l'individuazione sarebbe tutt'altro che complessa per un operatore. 😉

    <edit>Sostituito "quality rater" con "operatore" (thanks Stuart).</edit>


  • Super User

    @Everfluxx said:

    Credo che basti la web developer toolbar di Firefox per vedere quel sorgente JavaScript, anche usando cloaking lato server basato su HTTP_REFERER (non sono sicuro al 100%, ma se vuoi possiamo fare una prova).

    In tal caso, l'individuazione sarebbe tutt'altro che complessa per un quality rater. 😉

    intendi dire visualizzando la pagina con e senza js e prendendo nota delle differenze?


  • Super User

    @kerouac3001 said:

    intendi dire visualizzando la pagina con e senza js e prendendo nota delle differenze?
    No, intendo dire che con la web dev toolbar secondo me si può vedere facilmente il sorgente JS anche se fai cloaking basato su HTTP_REFERER (se è questo che avevi in mente).


  • Bannato Super User

    Mentre scrivevo il post pensavo... Alla fine devo ricordarmi di pregare kerouac di non intervenire (conoscendolo bene so che è il più ferrato del forum in materia 😄 ), però mi sono dimenticato ed egli mi ha anticipato !!! Il sistema concettualmente è lo stesso.

    Ora però ragazzi cerchiamo di "valorizzare" questo post, con qualche cosa di serio.

    La domanda, vi va di studiare insieme un sistema per fare delle landing page "posizionabili" ? Come fare ? E' possibile utilizzando del testo nascosto per i motori ? Ritenete ci sia del testo nascosto su cui i quality rater non interverebbero ?

    🙂


  • Super User

    Fabio, hai provato a fare un controllo sul primo sito che hai in firma con lo [url=http://tool.motoricerca.info/spam-detector/index-ita.pcgi]spamalyzer di LowLevel?


  • Super User

    Secondo me ogni tipo di violazione del regolamento è rintracciabile e la sicurezza in materia non esiste. Ciò che possiamo fare è rendere difficile la vita ai quality rater permettendogli di individuare l'inganno solo dopo una lunga analisi. Cosa che si possono permettere solo se sentono puzza di imbrogli


  • Super User

    Senza entrare nel merito dell'etica o meno dei testi nascosti nei modi più impensabili (NON è etico, ma è un bel giochetto per stimolare un brainstorming collettivo) , non è dei quality rater che bisogna tener conto.

    I quality rater segnalano lo spam solo quando è marchiano (keyword stuffing, testo nascosto con i caratteri stesso colore sfondo); per il resto non è il loro lavoro. Devono valutare la qualità generale della serp e la coerenza dei siti che la popolano.
    In questo sono più simili ad editor ODP (valutano i contenuti offerti da un sito).

    Chi nasconde i testi deve temere, e cercare di fregare:

    1. I competitor, specie quelli sostenuti da seo agency. Che hanno tutto l'interesse a vedere se spammate per farvi il riportino.
    2. Il web spam team, che becca facilmente ogni tipo di spam (div, css protetti da robots.txt e non, javascript ecc ecc...)

    Cordialmente,
    Stuart


  • Super User

    @Stuart said:

    I quality rater segnalano lo spam solo quando è marchiano (keyword stuffing, testo nascosto con i caratteri stesso colore sfondo); per il resto non è il loro lavoro. Devono valutare la qualità generale della serp e la coerenza dei siti che la popolano.
    In questo sono più simili ad editor ODP (valutano i contenuti offerti da un sito).

    Chi nasconde i testi deve temere, e cercare di fregare:

    1. I competitor, specie quelli sostenuti da seo agency. Che hanno tutto l'interesse a vedere se spammate per farvi il riportino.
    2. Il web spam team, che becca facilmente ogni tipo di spam (div, css protetti da robots.txt e non, javascript ecc ecc...)
      Sì, hai ragione: ho scritto "quality rater" ma intendevo proprio dire "operatore" (della DIA, Direzione Investigativa Antiwebspam, che fa capo a [url=http://mattcutts.com/blog/my-name-is-inigo/]Inigo Montoya :D). Correggo il post. 😉

  • Super User

    @Dell'Orto Fabio said:

    La domanda, vi va di studiare insieme un sistema per fare delle landing page "posizionabili" ? Come fare ? E' possibile utilizzando del testo nascosto per i motori ? Ritenete ci sia del testo nascosto su cui i quality rater non interverebbero ?
    🙂

    Ma perchè è sempre impossibile creare delle landing con del seo organico che posizionino bene? Io non ci credo.
    Però mi piace studiare. 🙂


  • Super User

    @Catone said:

    Ma perchè è sempre impossibile creare delle landing con del seo organico che posizionino bene?
    Se per "SEO organica" intendi quella che non contempla l'uso di tecniche come il testo nascosto, è sicuramente possibile. Il problema è che per alcuni SEO, evidentemente, risulta difficile posizionare bene una pagina senza fare ricorso a certi trucchetti.


  • Super User

    @Catone said:

    Ma perchè è sempre impossibile creare delle landing con del seo organico che posizionino bene? Io non ci credo.
    Però mi piace studiare. 🙂
    Nascondere i testi parte dall'assunto che se scrivo venti volte "Agriturismo Paperopoli" in un documento, esso sarà più rilevante di un documento che contiene "solo" 19 occorrenze della keyword, solo che gli utenti mi sputeranno in un occhio.
    Il che, con moltissimi se e moltissimi ma, talvolta è anche vero. Ma altre volte è falsissimo (vedi wdg-doopcircus).
    Un bravo seo, o quantomeno il seo che capisce che non c'è un solo metodo valevole sempre e in qualsiasi caso, capirà quando è necessario 'pompare' alcune keyword, e quando bisogna scriverle il meno possibile.
    In entrambi i casi è possibile farlo 'in chiaro'.

    OPPURE

    Nascondere i testi è un tentativo di creare i siti in Flash, Photoshop, Fireworks E fornire al motore quei necessari contenuti testuali utili al motore per valutarne gli effettivi contenuti e assegnare una rilevanza.

    Inutile dire che in questi casi, un minimo di tolleranza a riguardo (vedi noembed, div Flashcontent...) esiste.

    La cosa migliore è trovare un compromesso strutturale: la versione "alternativa", linkare direttamente l'SWF dalla mappa (strano come gli spammer-wannabe sottovalutino la possibilità di inserire decine di link e testi nascosti nei file di Flash.. () ), o rendersi conto che i siti in Flash sono fatti per i flasher e basta, non sono usabili e generano infinite meno conversioni di un sito in html testuale facile da navigare.

    Cordialmente,
    Stuart


  • Bannato Super User

    Everfluxx; il primo sito che ho in firma è quello con cui circa quattro anni fa per gioco, mi sono avvicinato a quello che poi è diventato un secondo lavoro.

    E' il sito con cui ho imparato ed è il sito dell'azienda presso cui svolgo il mio lavoro di analista/programmatore in ambito gestionale offline.

    E' una sorta di palestra nella quale ho fatto un po' di tutto. L'Azienda ne era consapevole e fino a quando abbiamo potuto unitamente abbiamo beneficiato dei grandi numeri che la visibilità del sito ci ha portato in termini di fatturato.

    Tre settimane fa il sito è stato bannato, però eravamo consapevoli che prima o poi sarebbe successo. In verità lo ero soprattutto io, vuoi per il fatto che ero consapevole della robaccia con cui l'avevo infarcito e con cui mi ero esercitato... per imparare e testare.

    A loro; dico sbagliando secondo il mio punto di vista, andava bene così ! Non conto le volte che ho chiesto all'azienda un budget per sviluppare un nuovo progetto,gli dicevo.... Il nostro sito è nato per gioco una mia iniziativa, ora è diventato una parte importante dell'azienda, datemi un budget per un nuovo progetto !!

    Ma loro facevano questo ragionamento, fin che dura non vogliamo investirci dei soldi... vi sembrera' pazzesco, ma vi giuro che è la santa verità !

    E' la tipica mentalità della maggior parte dei ceo delle medie aziende italiane, quando ci sono da spendere per esempio 5000 ? si analizza la cifra esclusivamente come voce passiva di cassa, tralasciando tutto il resto.

    Ragazzi credetemi... ho 45 anni sono 25 anni che sono nel mondo del lavoro e ho lavorato a stretto contatto con aziende importanti, soprattutto nel mondo della moda, non faccio nomi, sappiate comunque che per mia esperienza tutti quanti ragionano "inversamente" !

    Per loro curare è meglio che prevenire, ora Bianchi si sta curando 🙂 Intanto però in attesa che le cure abbiano effetto, soffre terribilmente !!! Vi garantisco che sono dolori molto forti !

    Se vi interessa saperlo non ho ricevuto comunicazioni da GG, il pr come i backlinks per il momento sono tutti attivi e funzionanti, la cache viene aggiornata.

    Potrebbe anche essere uno sbaglio, lo pulirò e chiederò presto la reinclusione, ma a questo punto un nuovo progetto sarà imprescindibile.

    🙂


  • Super User

    @Stuart said:

    Nascondere i testi parte dall'assunto che se scrivo venti volte "Agriturismo Paperopoli" in un documento, esso sarà più rilevante di un documento che contiene "solo" 19 occorrenze della keyword, solo che gli utenti mi sputeranno in un occhio.
    L'assunto è corretto; è la conclusione che è errata. 🙂

    Perché se scrivo 20 volte di seguito "Agriturismo Paperopoli", l'utente fa benissimo a sputarmi in un occhio. Questa non è SEO. Perlomeno, non è quello che io considero buona SEO. Così come non è "buona SEO" (sempre IMHO) un layer nascosto con la parola chiave "Agriturismo Paperopoli" ripetuta 20 volte di seguito all'interno di un tag <H1>.

    Una pagina ottimizzata è una pagina che presenta 20 occorrenze di "Agriturismo Paperopoli" all'interno di un testo naturale e ben scritto, tale da risultare non solo efficace ai fini del posizionamento, ma anche interessante/utile per l'utente.

    Ma questo (importanza del copywriting ecc.) lo sai meglio di me. 😉

    @Dell'Orto Fabio: non volevo spostare il topic sul ban di GB, ma solo segnalarti che lo spam detector di motoricerca.info riconosce il testo nascosto sulla home di quel sito (mi sembrava utile/interessante ai fini della discussione). Per il resto ti rinnovo l'in bocca al lupo che t'ho già fatto in privato. 😉


  • Super User

    @Everfluxx said:

    Una pagina ottimizzata è una pagina che presenta 20 occorrenze di "Agriturismo Paperopoli" all'interno di un testo naturale e ben scritto, tale da risultare non solo efficace ai fini del posizionamento, ma anche interessante/utile per l'utente.
    Assolutamente d'accordo con te 🙂

    Cordialmente,
    Stuart


  • Super User

    @Stuart said:

    Assolutamente d'accordo con te 🙂
    I know. 🙂


  • Super User

    @Everfluxx said:

    lo spam detector di motoricerca.info riconosce il testo nascosto sulla home di quel sito
    Uhm, a quanto pare si tratta di un falso positivo: ho controllato il sorgente, e io di testo nascosto su quella pagina non ne vedo proprio => le ragioni del (presunto) ban sono probabilmente da ricercarsi altrove.


  • User Attivo

    ha quasi ragione stuart quando dice che i qr non hanno il compito PRINCIPALE di cercare lo spam. lo dice il nome stesso, sono valutatori della qualità dei siti e delle SERP. ma il rating della qualità è indipendente dall'uso di tecniche non valide, quindi si può benissimo avere un ottimo sito, valutato rel o usf, ma se usa tecniche non valide è OBBLIGATORIO flaggarlo spam.

    diciamo che i qr più smart fanno più o meno così, quando sentono puzza di bruciato:

    1. ctrl + a
    2. tool di low
    3. si smazzano il codice

    e basta che 1 qr segnali lo spam che quel sito venga ri-controllato

    mio consiglio: evitate qualsiasi forma (anche leggera) di testo nascosto keywords & link stuffing.


  • Super User

    @Matteo said:

    ha quasi ragione stuart quando dice che i qr non hanno il compito PRINCIPALE di cercare lo spam. lo dice il nome stesso, sono valutatori della qualità dei siti e delle SERP. ma il rating della qualità è indipendente dall'uso di tecniche non valide, quindi si può benissimo avere un ottimo sito, valutato rel o usf, ma se usa tecniche non valide è OBBLIGATORIO flaggarlo spam.

    diciamo che i qr più smart fanno più o meno così, quando sentono puzza di bruciato:

    1. ctrl + a
    2. tool di low
    3. si smazzano il codice

    e basta che 1 qr segnali lo spam che quel sito venga ri-controllato

    mio consiglio: evitate qualsiasi forma (anche leggera) di testo nascosto keywords & link stuffing.

    Ti ringrazio per il tuo intervento, Matteo
    E grazie per le precisazioni a riguardo 🙂

    Cordialmente,
    Stuart


  • Super User

    @Matteo said:

    1. ctrl + a
    2. tool di low
    3. si smazzano il codice
      Non sapevo che i quality rater di Google usassero il tool di Low. 😄 😄 😄

    Seriously: m'associo al ringraziamento di Stuart per le info e i consigli.


  • Super User

    @Dell'Orto Fabio said:

    Tre settimane fa il sito è stato bannato

    ...

    Se vi interessa saperlo non ho ricevuto comunicazioni da GG, il pr come i backlinks per il momento sono tutti attivi e funzionanti, la cache viene aggiornata.

    Potrebbe anche essere uno sbaglio, lo pulirò e chiederò presto la reinclusione, ma a questo punto un nuovo progetto sarà imprescindibile.

    🙂

    OT: ripeto a tutti quelli che pensano di essere stati bannati, ma si ritrovano ancora cache aggiornata e bls: [url=http://www.platinax.co.uk/news/19-06-2006/google-admits-bad-data-push-error/]leggete qui

    Aggiungo: tra massimo 2 settimane il tuo sito tornerà e in meno di 4 o 5 giorni oltre a riprendersi le vecchie posizioni, migliorerà il suo posizionamento. Questa è una mia teoria campata in'aria basata su un'esperienza personale (mi è capitato con 4 siti negli ultimi 2 mesi).

    Fine OT

    Oggi sono un pò occupato, ma appena ho 5 minuti faccio un codice che si basi su quanto ho detto prima e analizziamo pro e contro trovando soluzioni possibili.