• Community Manager

    Grazie Matteo, molto interessante quanto hai scritto 🙂


  • Bannato Super User

    Al momento del ban il testo nascosto nella home di Bianchi era presente, ora non lo vede te più perchè sto pulendo il sito e l'ho tolto, chiederò comunque la reinclusione anche se sto preparando un nuovo progetto, fortunatamente questa volta sarà molto serio, sono finiti i tempi degli esperimenti, per me lo erano già da almeno un paio d'anni.

    Per quanto asserisce Keruoc, non escludo che egli possa aver ragione, anche se in verità sono scettico e alla fine mi interessa poco se non che per un paio di links che ricambierò in altro modo in caso di uffializzazione
    del ban.

    I domini di terzo livello con finti blog, sono stati forse l'ultimo tra i miei estremi tentativi/esperimenti ... e potrebbero aver inciso definitivamente alla pena capitale 🙂

    Su quel dominio c'è di tutto, molto adesso non lo trovate più perchè lo sto togliendo, door mascherate da welcome, cloacking, markov chain, tecniche borderline.... se state studiando da spammer dove affrettarvi a controllare perchè la dieta sta cominciando a fare i suoi effetti !!!


  • Super User

    @Everfluxx said:

    <OT>Come ti avevo fatto notare in [url=http://www.giorgiotave.it/forum/viewtopic.php?p=103764#103764]questo post (che evidentemente dev'esserti sfuggito), esistono però casi che smentiscono la correlazione da te osservata: ad esempio il sito dei fattori arcani di Mamilu è [url=http://www.giorgiotave.it/forum/viewtopic.php?t=10445]bannato da ormai due mesi (gli operatori [url=http://www.google.it/search?hl=it&q=info%3Awww.fattori-arcani.mamilu.it]info: e [url=http://www.google.it/search?hl=it&q=site%3Awww.fattori-arcani.mamilu.it]site: restituiscono zero risultati), nonostante Google restituisca ancora oltre un centinaio di back link (operatore [url=http://www.google.it/search?hl=it&q=link%3Afattori-arcani.mamilu.it]link:dominio -- nota: fino a una decina di giorni fa li restituiva anche con [url=http://www.google.it/search?hl=it&q=link%3Awww.fattori-arcani.mamilu.it]link:www.dominio, ora non più; mi pare anche di ricordare che inizialmente la toolbar mostrasse ancora un PageRank sulla home page, mentre ora dà PR0). Perciò probabilmente le cose sono un po' più complicate di quanto potrebbero sembrare.</OT>

    OT:

    Si potrebbe dipendere anche dalla similirità di testo e di network ([url=http://66.249.93.104/search?hl=it&q=cache%3Afattori-arcani.mamilu.it&btnG=Cerca+con+Google&meta=]sitodimamilu, [url=http://66.249.93.104/search?q=cache:Rxw5iHp1joQJ:fattoriandarcani.altervista.org/famami.html+I+maghi+del+posizionamento,+cos%C3%AC+assorti+nei+loro+reconditi+pensieri+e+vaghi+nelle&hl=it&gl=it&ct=clnk&cd=2]sitoclone), ma scommetto che non si tratta di un ban 🙂 anzi per chi volesse sono pure interessato a comprarmi i siti :lol:

    Qualcuno s-vende?

    Fine OT (se l'argomento secondo voi richiede un ulteriore approfondimento, facciamo splittare e continuiamo lì)


  • Super User

    @kerouac3001 said:

    scommetto che non si tratta di un ban [...]

    Fine OT (se l'argomento secondo voi richiede un ulteriore approfondimento, facciamo splittare e continuiamo lì)
    Io sarei interessato a sapere in base a quali considerazioni sei convinto che non si tratti di ban. Continuiamo [url=http://www.giorgiotave.it/forum/viewtopic.php?t=10445]qui?


  • Super User

    @Matteo said:

    diciamo che i qr più smart fanno più o meno così, quando sentono puzza di bruciato:

    1. ctrl + a
    2. tool di low
    3. si smazzano il codice

    Matteo, rispondo adesso perché solo oggi son venuto a sapere di questo tuo post (grazie Must!).

    Io spero davvero che quel mio tool venga usato cum grano salis, perché un uso "leggero" porterebbe a decisioni errate.

    Le cose stanno così: il tool becca attualmente solo le forme di spamming più semplici e banali e la situazione non migliorerà di una virgola fino a quando non mi deciderò a modificarlo un po'.

    Lo spam detector è stato sviluppato solo come un "proof of concept", perché i forum erano pieni di gente che sosteneva che un software non potesse rendersi conto del testo nascosto, nemmeno nel caso di un banale testo bianco su sfondo bianco ottenuto con il semplice tag FONT.

    E' solo un giocattolo, un esercizio di programmazione. Io non lo userei mai per fare un'analisi seria. Le analisi serie si fanno a mano.

    Il consiglio che do a tutti i QR, e a maggior ragione ai QR "più smart", è: analizzate sempre e solo il codice a mano.


  • User Attivo

    ciao low,

    diciamo che il 99% delle volte nel testo nascoto si trovano keywords o links stuffing, e il tuo tool da una grossa mano in questo senso (tramite il tuo "indice di naturalezza"). es. un keywords staffing nascosto tramite css, viene segnalato dal tuo tool come "indice di naturalezza del 0.7%" ma non dice dov'è questo testo nascosto. quindi l'occhiata al codice è necessaria e i qr smart lo sanno.

    per forme più avanzate di spam, non individuabili ad occhio si guarda direttamente il codice, o si salva la pagina e la si apre con dw.

    quindi diciamo che il tuo tool è usato come scorciatoia, non come succedaneo all'analisi del codice.

    ma il problema comunque non sussiste, perchè tanto basta che uno solo segnali spam, che il sito vada rivalutato. e come già detto i qr sono abb bravi a trovare spam.

    un po' meno invece con i malvare, ma quello è causa degli antivirus di ognuno, ad esempio kaspersky individua moooolti trojan/malvare in più di nod 32, quindi la cosa è più soggettiva.


  • Super User

    @Matteo said:

    es. un keywords staffing nascosto tramite css, viene segnalato dal tuo tool come "indice di naturalezza del 0.7%" ma non dice dov'è questo testo nascosto. quindi l'occhiata al codice è necessaria e i qr smart lo sanno.

    Questo mi rincuora. Ottimo. 🙂

    Ciao.


  • Super User

    @Matteo said:

    per forme più avanzate di spam, non individuabili ad occhio si guarda direttamente il codice, o si salva la pagina e la si apre con dw.
    (Ovviamente si spera che i quality rater "smart", oltre a Dreamweaver, abbiano anche Firefox con la [url=https://addons.mozilla.org/firefox/60/]Web Developer Extension installata). 😉

    Un altro toolino molto utile (da usare con IE) è [url=http://www.fiddlertool.com/]Fiddler.


  • User

    Ciao ragazzi, purtroppo ho visto solo ora questa discussione e l'argomento mi interessa molto.
    Nel mio sito in firma utilizzo livelli nascosti a comparsa in diverse pagine per motivi esclusivamente estetici. Leggendo questa discussione mi sta venendo voglia di inserire qualche livello nascosto con del testo ottimizzato (ma proponibile ad un umano).
    Visto che è un sito di fotografia le occasioni per inserire del testo sono davvero rare così pensavo di scrivere una breve descrizione per ogni galleria fotografica che compaia tramite css (a:hover). In questo caso il testo nascosto sarebbe moralmente giustificato, no?
    Voi che ne dite? Pareri, consigli?
    Qualcuno sta facendo altri test?


  • Super User

    @Ghigo said:

    Leggendo questa discussione mi sta venendo voglia di inserire qualche livello nascosto con del testo ottimizzato
    Non cessa di sorprendermi come persone diverse possano trarre conclusioni opposte a partire dalle stesse informazioni. :rollo:


  • User

    @Everfluxx said:

    Non cessa di sorprendermi come persone diverse possano trarre conclusioni opposte a partire dalle stesse informazioni. :rollo:
    La mia è solo voglia di provare e sperimentare!
    Se va male non ci perdo nulla ed ho imparato qualcosa!


  • User Attivo

    @Everfluxx said:

    (Ovviamente si spera che i quality rater "smart", oltre a Dreamweaver, abbiano anche Firefox con la [url=https://addons.mozilla.org/firefox/60/]Web Developer Extension installata). 😉

    Un altro toolino molto utile (da usare con IE) è [url=http://www.fiddlertool.com/]Fiddler.

    ciao,

    diciamo che firefox va usato in certe situazioni, nelle altre si cerca di impersonare l'utente tipo e quindi si usa IE.


  • Super User

    @Ghigo said:

    Visto che è un sito di fotografia le occasioni per inserire del testo sono davvero rare così pensavo di scrivere una breve descrizione per ogni galleria fotografica che compaia tramite css (a:hover). In questo caso il testo nascosto sarebbe moralmente giustificato, no?
    Voi che ne dite? Pareri, consigli?
    Qualcuno sta facendo altri test?

    Non c'è bisogno di test per poterti dire, con ragionevole certezza, che la discriminante non è la tecnica in sè, ma l'utilizzo che se ne fa.

    Se usi un DIV nascosto (che rimane sempre tale) e lo infarcisci di keyword, variazioni di keyword, unrelated links e altre forme di seotrash stai spammando.

    Se usi un DIV nascosto perchè solo nascondendolo (inizialmente) puoi realizzare un bel drop down menu, un tooltip che appare su una foto quando ci passi il mouse, uno slideshow, sei un bravo grafico.

    Ogni qualvolta pensi a qualche implementazione del tuo sito che implichi l'offuscamento di qualche testo, fai questo personale quiz psicoattitudinale, cercando di essere onesto:

    1. Lo sto facendo solo per i motori?
    2. Lo sto facendo per i miei utenti?
    3. Lo sto facendo per i motori e per i miei utenti?

    Se rispondi 1, probabilmente sei uno spammer
    Se rispondi 2, non sei uno spammer
    Se rispondi 3, non sei uno spammer, vedi di non diventarlo

    Cordialmente,
    Stuart


  • User Attivo

    @Ghigo said:

    Ciao ragazzi, purtroppo ho visto solo ora questa discussione e l'argomento mi interessa molto.
    Nel mio sito in firma utilizzo livelli nascosti a comparsa in diverse pagine per motivi esclusivamente estetici. Leggendo questa discussione mi sta venendo voglia di inserire qualche livello nascosto con del testo ottimizzato (ma proponibile ad un umano).
    Visto che è un sito di fotografia le occasioni per inserire del testo sono davvero rare così pensavo di scrivere una breve descrizione per ogni galleria fotografica che compaia tramite css (a:hover). In questo caso il testo nascosto sarebbe moralmente giustificato, no?
    Voi che ne dite? Pareri, consigli?
    Qualcuno sta facendo altri test?

    se non c'è keywords stuffing potrebbe passare. ma comunque è molto rischioso. diciamo che G ragione così: tu nascondi qualcosa all'utente? e io ti penalizzo, magari non ti banno, perchè non spammi, ma preferisco mettere prima siti più "trasparenti".

    mio consiglio: studia un buon design e inserisci il testo in maniera naturale, meglio per lo spider, l'utente, e i qr.

    mat.


  • Super User

    @Matteo said:

    diciamo che G ragione così: tu nascondi qualcosa all'utente? e io ti penalizzo, magari non ti banno, perchè non spammi, ma preferisco mettere prima siti più "trasparenti".
    A tuo parere, quindi, questo [url=http://www.adobe.com/]sito, che usa un drop down menu in CSS (i sottomenu testuali sono nascosti, inizialmente) potrebbe essere penalizzato da un momento all'altro?...
    Forse no dai, non me lo vedo proprio Google che penalizza quel sito 😉

    Ma se lo implementassi io su un sito di 3 giorni?

    Non è forse meglio (e più giusto) dire che una penalizzazione può scattare quando c'è un diretto nesso causa-effetto tra una tecnica impiegata e il posizionamento del sito?...

    Chiedo eh? Senza provocazione (se non approfitto quando sei online) 😄

    Cordialmente,
    Stuart


  • Super User

    @Ghigo said:

    La mia è solo voglia di provare e sperimentare!
    Se va male non ci perdo nulla ed ho imparato qualcosa!
    Se ti va male ci guadagni un ban, e impari cosa è meglio non fare... Ne vale la pena, quando le stesse cose potresti impararle leggendo le [url=http://www.google.com/intl/it//webmasters/guidelines.html]guideline e fidandoti dei consigli di Matteo, Stuart e -perché no- Everfluxx?
    Sperimentare è fondamentale, ma va fatto cum grano salis: c'è modo di sperimentare anche senza farsi male...

    @Matteo said:

    diciamo che firefox va usato in certe situazioni, nelle altre si cerca di impersonare l'utente tipo e quindi si usa IE.
    Quando segnalo pagine con redirezioni ingannevoli o contenuti nascosti, nel campo "Commenti" dello spam report form indico solitamente "View page with JavaScript [o CSS] support disabled, or check out text-only cache". La web dev toolbar è comoda proprio perché permette di disabilitare il supporto JavaScript e CSS con un solo click (oltre ad avere tante altre funzioni che possono risultare utili a un QR per smascherare facilmente alcune delle tecniche più diffuse).

    @Stuart said:

    A tuo parere, quindi, questo [url=http://www.adobe.com/]sito, che usa un drop down menu in CSS (i sottomenu testuali sono nascosti, inizialmente) potrebbe essere penalizzato da un momento all'altro?...
    Il menù animato sul sito di Adobe/MM è un esempio direi da manuale di uso (corretto) di markup strutturale + CSS + JavaScript. Non c'è alcun contenuto nascosto su quella pagina (un menù che appare onMouseOver non è propriamente un "contenuto nascosto"), e perciò non esiste alcuna ragione per penalizzarla. Anche il codice HTML è bellissimo nella sua pulizia ed eleganza: per le voci del menù hanno usato una definition list (tag <DL>), delegando a CSS+JS la presentazione. Un motore di ricerca la "vede" più o meno così, che è poi lo stesso modo in cui la vede un client che non supporta CSS: http://66.249.93.104/search?q=cache:http://www.adobe.com/&hl=it&lr=&strip=1


  • Super User

    @Everfluxx said:

    Il menù animato sul sito di Adobe/MM è un esempio direi da manuale di uso (corretto) di markup strutturale + CSS + JavaScript. Non c'è alcun contenuto nascosto su quella pagina (un menù che appare onMouseOver non è propriamente un "contenuto nascosto")
    Infatti. L'esempio era appunto a supporto dell'obiezione fatta:

    @Matteo said:

    diciamo che G ragione così: tu nascondi qualcosa all'utente? e io ti penalizzo, magari non ti banno, perchè non spammi, ma preferisco mettere prima siti più "trasparenti".

    In uno stato "di partenza", ipotizziamo che ti si spezzi il filo del mouse, i contenuti del menu sono nascosti, nel vero senso della parola.

    <dt>Industries</dt>
    						<dd>[url="/go/gntray_ind_education"]Education</dd>
    
    						<dd>[url="/go/gntray_ind_finance"]Financial Services</dd>
    						<dd>[url="/go/gntray_ind_govt"]Government</dd>
    						<dd>[url="/go/gntray_ind_manufacturing"]Manufacturing</dd>
    						<dd>[url="/go/gntray_ind_telecommunications"]Telecommunications</dd>
    						<dt class="divide">Solutions</dt>
    						<dd>[url="/go/gntray_sol_digital_imaging"]Digital Imaging</dd>
    
    						<dd>[url="/go/gntray_sol_document_services"]Document Services</dd>
    						<dd>[url="/go/gntray_sol_mobile"]Mobile</dd>
    						<dd>[url="/go/gntray_sol_print_publishing"]Print Publishing</dd>
    						<dd>[url="/go/gntray_sol_ria"]Rich Internet Applications</dd>
    						<dd>[url="/go/gntray_sol_elearning"]Training and eLearning</dd>
    						<dd>[url="/go/gntray_sol_video_audio"]Video and Audio</dd>
    
    						<dd>[url="/go/gntray_sol_web_conferencing"]Web Conferencing</dd>
    						<dd>[url="/go/gntray_sol_web_publishing"]Web Publishing</dd>
    						<dt class="divide">[url="/go/gntray_sol_more"]All Industries &amp; Solutions &#8250;</dt>
    

    La mia obiezione all'ottimo Matteo, si basava sull'assunto che per motivi grafici ed estetici, kilometri lontano da ogni tentativo di spam, un div nascosto "ci può stare".

    Sillogismo: se i QR non fossero attenti a ciò che è nascosto per motivi illeciti e cosa no, non userebbero INTERNET EXPLORER no?... Userebbero Lynx 😉

    Con Internet Explorer, css e js abilitati, il menu di Adobe è perfettamente usabile e whitehat.
    E credo che una valutazione simile, potrebbe farsi se quel menu fosse installato sul sito dell'Agriturismo Brambilla o dell'Officina meccanica Spanò

    Cordialmente,
    Stuart


  • Super User

    @Stuart said:

    Con Internet Explorer, css e js abilitati, il menu di Adobe è perfettamente usabile e whitehat.
    E credo che una valutazione simile, potrebbe farsi se quel menu fosse installato sul sito dell'Agriturismo Brambilla o dell'Officina meccanica Spanò
    Quoto.


  • User

    Grazie mille per le risposte!

    1. Lo sto facendo solo per i motori?
    1. Lo sto facendo per i miei utenti?
    2. Lo sto facendo per i motori e per i miei utenti?
      Se al passaggio del mouse su un pulsante facessi comparire alcune righe di testo scritte in modo naturale in cui parlo delle foto contenute in quella galleria, dei luoghi in cui sono state scattate, ecc. non faccio di certo spam. Al massimo rischio che in futuro qualche mdr si possa insospettire ma niente di più (correggetemi se sbaglio). Il 90% degli utenti probabilmente non saranno molto interessati al testo ma non verrebbero infastiditi mentre i mdr vedrebbero molti più contenuti.
      Potrei inserire il testo in una pagina a parte o renderlo sempre visibile modificando la grafica. Con questa soluzione forse potrei ottenere il doppio risultato di non modificare la grafica e avere comunque il testo nella stessa pagina delle foto.

    Sperimentare è fondamentale, ma va fatto cum grano salis
    Forse mi sono espresso male: il mio intento non è certo quello di spammare cercando di farla franca!


  • User Attivo

    @Stuart said:

    A tuo parere, quindi, questo [url=http://www.adobe.com/]sito, che usa un drop down menu in CSS (i sottomenu testuali sono nascosti, inizialmente) potrebbe essere penalizzato da un momento all'altro?...
    Forse no dai, non me lo vedo proprio Google che penalizza quel sito 😉

    Ma se lo implementassi io su un sito di 3 giorni?

    Non è forse meglio (e più giusto) dire che una penalizzazione può scattare quando c'è un diretto nesso causa-effetto tra una tecnica impiegata e il posizionamento del sito?...

    Chiedo eh? Senza provocazione (se non approfitto quando sei online) 😄

    Cordialmente,
    Stuart

    premetto che indendo per penalizzazione un qualcosa a livello dell'avere un sito su un ip condiviso con altri 200 siti... magari perdi qualche posizione o comunque, se credi nel tuo sito gli dai un ip dedicato, G è sicuramente più contento.

    Stuart per me tu hai pienamente ragione, anche io infatti non credo che google penalizzi una tecnica del genere (quella di adobe), ma penso:

    ormai è da un po' che gli spammer mettono keywords stuffing in div nascosti, css visibility hidden etc.. etc... o G non è in grado di valutare bene testo naturale da testo spammoso autogenerato, o non si fida abbastanza del suo algo. fatto sta che nelle SERP è ancora pieno di siti ben posizionati grazie a queste tecniche. è probabile che g si stuferà, e penalizzerà (qualche posizione, non ban) o terrà sott'occhio siti che usano queste tecniche, anche se magari a scopo stra-lecito. questo parlando di algo.

    per quanto riguarda il controllo umano: operatori, o raters, il problema non sussiste perchè si da per scontato la capacità di riconoscere testo naturale da quello spammoso, e l'applicazione di queste tecniche per esigenze stilistiche.

    l'esempio che hai fatto sulla possibilità di penalizzazione per un sito giovane secondo me calza. a me è successo in un sito di test, di provare una tecnica rock solid, stupidissima, ma che per anni è stata posizionata in parecchie serp non troppo competive. l'ho usata su questo sito di test, e ho provato ad effettuare varie modifiche ravvicinate a title e contenuto, per vedere se scattava qualche tipo di filtro di "alert". bhe il sito è stato bannato.

    quindi penso:

    • usi una tecnica "a rischio" nel senso che viene usata dagli spammer, ma tu la usi in maniera lecita
    • lavori sul sito in maniera assolutamente normale, senza nessun SEO pesante
    • è probabile che tu sia sott'occhio, ma comportandoti bene, no prob, al limite sei leggermente penalizzato (vedi definizione sopra)

    ma penso anche:

    • usi una tecnica "a rischio" nel senso che viene usata dagli spammer, in maniera lecita
    • incominci ad ottimizzare ed esageri
    • essendo sott'occhio rischi di più

    mi rendo conto che però sto parlando di supposizioni o idee. ma per adesso ho solo quello e qualche test. mi limito a riportarle quì, perchè so che poi nascono discussioni interessanti.

    mat.