• User Attivo

    Ho dato un occhio al whois di quei domini e non credo proprio che il nostro [url=http://www.gigigalli.com/]Gigi Galli (per chi non lo sapeste un rallysta italiano) si sia messo a fare spam 😄

    Di certo però è un italiano e questo spam è molto ben fatto!


  • Super User

    Ecco un'altra serie di siti su domini di terzo livello che puntano a uno spamengine: http://www.google.it/search?q=site%3Ab6ln017z.info [url=http://whois.domaintools.com/b6ln017z.info][WHOIS]

    Uno di quei siti monopagina è nella top-10 su Google per "[url=http://www.google.it/search?q=spamengine]spamengine" (di certo non si può non definire un risultato rilevante!). Al #1 per la stessa query c'è questo forum. 😄

    Redirigono tutti a key2info.com [url=http://whois.domaintools.com/key2info.com][WHOIS]. Esempio di SERP: key2info.com/search.php?qq=motori+di+ricerca

    Rispetto a clearsearch.info cambia l'interfaccia, i contenuti sono sostanzialmente gli stessi: annunci PPC Overture/Y!SM camuffati da risultati organici (notare l'assenza della dicitura "Collegamenti sponsorizzati", o di una qualsivoglia forma di disclosure della natura pubblicitaria di quei contenuti).


  • User Attivo

    Sti qua hanno aperto un network di spam engine con 50mila sottodomini per dominio spammando su blog e simili e aprendone 100-150..

    Morale staranno facendo io dico 1000 euro al giorno 😄


  • User

    @uMoR said:

    Sti qua hanno aperto un network di spam engine con 50mila sottodomini per dominio spammando su blog e simili e aprendone 100-150..

    Morale staranno facendo io dico 1000 euro al giorno 😄

    Allora, si tratta di una grossa organizzazione a livello internazionale. Tutto parte, si dice su WMW, da un ex dipendente di Google che ha lavorato sull'infrastruttura di "Bi(u)gDaddy". Le pagine che Google ha catturato con l'ultimo update del 27 giugno sono oltre 5 miliardi. Però il filtro antispam di Google ha fatto di tutta l'erba un fascio: ciò ha comportato che molti siti onesti (soprattutto quelli di terzo livello) si sono ritrovati molte pagine depositate nei risultati supplementari. Quindi, una sorta di penalizzazione, diciamo involontaria o comunque errata. Questo è successo a tutti quei siti che avevano (fino al 26 giugno) un'alta visibilità per SERPs molto competitive e che sono finite dentro questo pagine con i loro testi duplicati. Ora è un vero macello perchè Google deve iniziare a spulciare i siti buoni in mezzo a quelli cattivi. Il guaio è che tutto parte da una grossa falla del BigDaddy che questi signori conoscevano. Ora, molti dicono, ci vorrano mesi per risolvere il problema e saranno tanti i webmaster che soffriranno ingiustamente per questa situazione. Se solo Google cambiasse atteggiamento e iniziasse a comprendere che non è il momento per fornire RISPOSTE AUTOMATICHE. devono rimboccarsi le maniche, altrimenti tanti webmaster onesti, presi dalla disperazione per le loro pagine penalizzate, inizieranno a trasformarsi in spammer e il circolo diventa più vizioso che mai. Considerate che sono coinvoli MILIONI di siti , quindi MILIONI di webmaster!!

    http://www.webmasterworld.com/forum30/35053.htm

    http://www.webmasterworld.com/forum30/35100.htm

    http://www.webmasterworld.com/forum30/34982.htm

    tanto per citarne alcuni.

    In questi giorni, comunque, Google sta fornendo i peggiori risultati della sua storia, e se non corre ai ripari questa cosa peserà moltissimo a tutte le sue inziative in corso. Loro pensavano di fare i furbi bannando alla cieca, ma nn hanno considerato che i siti penalizzati sono qualche decina di migliaia, mentre le pagine catturate nelle scorse settimane, prima dell'ultimo data-refresh, erano oltre 5 miliardi. Quindi cosa è successo? Sono sparite molte pagine che prima incontravate durante le ricerche, e sono EMERSE quelle spam. Il signorino che ha fatto partire tutta l'iniziativa sapeva che Google avrebbe adottato questa soluzione (pagine supplementari) perchè essa è una procedura prevista proprio dal BigDaddy una delle più grandi cagate della storia di Google. Ok?


  • User

    @uMoR said:

    Sti qua hanno aperto un network di spam engine con 50mila sottodomini per dominio spammando su blog e simili e aprendone 100-150..

    Morale staranno facendo io dico 1000 euro al giorno 😄

    E un'altra cosa: qui nn si tratta di soldi e comunque sono molti di più, alcuni ipotizzano anche centinaia di migliaia di dollari al giorno. L'iniziativa avrebbe altri scopi, ben più importanti: mettere in cattiva luce Google! La cosa non è uno scherzo, nn stiamo parlando di spammer da 4 soldi. Le SERPs di Google sono intasate da oltre una settimana. Ecco perchè molti siti sono spariti nei risultati. Qui non contano, le ottimizzazioni, gli h1, ecc...


  • Super User

    @Everfluxx said:

    Vorrei far notare che le finte SERP di questi spamengine sono in realtà costituite da annunci Sponsored Search Overture/Yahoo! Search Marketing, hostati su cleansearch.info [...]. I click sugli annunci vengono rediretti da peakc.com [...] su Overture.
    Confermo quanto sopra, anche se il percorso completo è in realtà un pochiiino più tortuoso.
    Per la precisione:

    [click sulla SERP di cleansearch.info]

    [Redirect JavaScript a http: //peakc.com/c.php?...]

    GET /c.php?...

    HTTP/1.1 302 Found
    Location: http ://64.111.196.114/c.php?...

    GET /c.php?...

    HTTP/1.1 302 Found
    Location: http ://66.250.74.152/click.php?...

    GET /click.php?...

    HTTP/1.1 302 Found
    Location: http ://66.250.74.152/click_second_new3.php?...

    GET /click_second_new3.php?...

    HTTP/1.1 302 Found
    Location: http ://64.5.219.20/yz/Monitor?...

    GET /yz/Monitor?...

    HTTP/1.1 302 Moved Temporarily
    Location: http ://www24.overture.com/d/sr/?...

    GET /d/sr/?...

    HTTP/1.1 302 Found
    Location: [landing page del nostro cliente]


  • User Attivo

    Beh comunque son dei grandi 😄


  • Super User

    Vi segnalo un (lunghissimo) [url=http://forums.digitalpoint.com/showthread.php?t=97090]thread su DigitalPoint Forums, cominciato in occasione del "bad data push" di giugno (citato da outsider63). L'autore del network ha risposto a una mail dell'amministratore del forum (nickname "Nintendo") dicendo:

    Don't worry
    this is just bug in google.
    there is no billions subdomains.

    e quindi è intervenuto nel thread (a pagina 20, nick "francox1") con questo post:

    Hello there.

    I'm the owner of these domains.
    You can ask whatever you want.

    By the way: there was only 10k pages.
    "site:" was wrong. 🙂

    Nell stesso thread viene menzionato anche il network in esame in questo topic (da pagina 16 in poi).


  • User Attivo

    @Everfluxx said:

    Vi segnalo un (lunghissimo) [url=http://forums.digitalpoint.com/showthread.php?t=97090]thread su DigitalPoint Forums, cominciato in occasione del "bad data push" di giugno (citato da outsider63). L'autore del network ha risposto a una mail dell'amministratore del forum (nickname "Nintendo") dicendo:

    Don't worry
    this is just bug in google.
    there is no billions subdomains.

    e quindi è intervenuto nel thread (a pagina 20, nick "francox1") con questo post:

    Hello there.

    I'm the owner of these domains.
    You can ask whatever you want.

    By the way: there was only 10k pages.
    "site:" was wrong. 🙂

    Nell stesso thread viene menzionato anche il network in esame in questo topic (da pagina 16 in poi).

    Si ma insomma alla fine 'sto Francox1 è sparito?!
    Dai BigG, assumilo e toglietevi dalle scatole.......... 😄

    Cmq scherzi a parte volevo chiedervi: ma non ci sono dichiarazioni ufficiali?


  • Super User

    @Piratazzurro said:

    Cmq scherzi a parte volevo chiedervi: ma non ci sono dichiarazioni ufficiali?
    No. Gli unici commenti (ufficiosi) sull'accaduto sono quelli fatti da Matt Cutts su ThreadWatch (trovi i link ai suoi post nel thread su DigitalPoint Forums o cercando "bad data push" su Google), commenti che appaiono perfettamente coerenti con le dichiarazioni rese su DPF dall'autore del network da "5 miliardi di pagine", così sintetizzabili: non ci sono mai stati 5 miliardi di pagine di spam nell'indice di Google; si è trattato di un bug che ha prodotto un errore di alcuni ordini di grandezza nel result count restituito dall'operatore "site:" per alcune query. L'episodio ha comunque evidenziato l'esistenza di un problema (perché qualche migliaio di pagine di spam su domini di 3° livello c'erano, nell'indice) al quale gli ingegneri di Google stanno ponendo rimedio per evitare il ripetersi di simili oops in futuro (dice Matt Cutts, sempre su TW).


  • Super User

    Mi correggo: non si tratta di Matt Cutts, ma di Adam Lasnik (collega di Cutts), intervenuto su ThreadWatch, Digg e John Battelle's Searchblog mentre Cutts era ancora in ferie.
    Ecco i link ai suoi commenti:

    http://www.threadwatch.org/node/6999#comment-40714
    http://www.threadwatch.org/node/6999#comment-40718
    http://www.threadwatch.org/node/6999#comment-40722
    http://www.threadwatch.org/node/6999#comment-40799
    http://digg.com/tech_news/How_One_Spammer_Got_BILLIONS_of_Pages_into_Google_in_3_Weeks#c1998177
    http://digg.com/tech_news/How_One_Spammer_Got_BILLIONS_of_Pages_into_Google_in_3_Weeks#c1998271
    http://battellemedia.com/archives/002661.php#comment_35013

    @Adam Lasnik said:

    I've long been a lurker / occasional commenter for quite some time here, and I figured I might as well offer a few clarifications on the "5 billion" issue :-).

    I work with Matt Cutts and other engineers in the Search Quality Team at Google. And yes, we noticed that lots of subdomains got indexed last week -- and sometimes listed in search results -- that shouldn't have been. Compounding the issue, our result count estimates in these contexts was MANY orders of magnitude off. For example, the one site that supposedly had 5.5 billion pages in the index actually had under 1/100,000th of that.

    So how did this happen? We pushed some corrupted data with our index. Once we diagnosed the problem, we started rolling the data back and pushed something better... and we've been putting in place checks so that this kind of thing doesn't happen again.

    Vi segnalo anche questo articolo su BBC News (intervista a Douglas Merrill, ingegnere di Google):
    [url=http://news.bbc.co.uk/2/hi/technology/5140066.stm]google to stay focused on search

    "Spam is an arms race," said Mr Merrill, adding it was a multi-million dollar industry which was trying to fool search engines.

    Unlike spam e-mail, web spam tries to trick search engines into featuring websites selling products such as drugs high up on a list of search results.

    The spammers exploit the way search engines work by bombarding blogs and comments pages with links to their websites.

    Google prioritises websites in their search results if a particular page is linked to by other sites.

    Mr Merrill said: "Spammers are highly motivated. There is a lot of money at stake."

    http://news.bbc.co.uk/2/hi/technology/5140066.stm


  • Super User

    @Everfluxx said:

    Ecco un'altra serie di siti su domini di terzo livello che puntano a uno spamengine: http://www.google.it/search?q=site%3Ab6ln017z.info
    Oplà: spariti. 🙂


  • User Attivo

    @ecoweb said:

    ciao a tutti....non so se è la sezione giusta...guardate questi indirizzi...questo e oltre lo spamming. Guardate anche la parte in basso della pagina
    ...voi cosa dite?????

    //980.5nccp.info/
    //688.5nccp.info/

    ciao

    Scusate la mia ignoranza in materia, ma non mi sono chiare alcune cose. Innanzitutto questo spam engine è l'indirizzo del primo sito? O il primo indirizzo (ovviamente con l'http davanti) è solo una Serp? (ma se così fosse che razza di serp...)
    Poi non ho capito bene come fa a guadagnare soldi: se anche ricevesse un grandissimo numero di visite, chi vuoi che vada a cliccare sugli annunci adsense? Fa i soldi solo con annunci pay per impression? :bho:


  • Super User

    @Furious said:

    non mi sono chiare alcune cose. Innanzitutto questo spam engine è l'indirizzo del primo sito? O il primo indirizzo (ovviamente con l'http davanti) è solo una Serp?
    Quei siti monopagina su domini di 3° livello sono in realtà un network di doorway verso lo spamengine vero e proprio (cleansearch.info) che fornisce le SERP con annunci PPC che vedi nella parte alta della pagina (che sta dentro un iframe). Cleansearch.info ha un robots.txt con Disallow: / perché se ne frega del posizionamento (a pompargli traffico dai motori ci pensano le doorway su siti esterni, appunto).

    Poi non ho capito bene come fa a guadagnare soldi: se anche ricevesse un grandissimo numero di visite, chi vuoi che vada a cliccare sugli annunci adsense? Fa i soldi solo con annunci pay per impression?
    No, si tratta di annunci PPC. Il fatto è che anche considerando una CTR molto bassa, quando hai decine o centinaia di migliaia di pagine posizionate discretamente per query a bassa competitività che fanno complessivamente un elevato volume di ricerca, la quantità di traffico che riesci ad attrarre dai motori di ricerca risulta comunque redditizia. Chi fa uno spamengine sfrutta i grandi numeri (un grande numero di visitatori x un grande numero di keyword = un grande ricavo).


  • User Attivo

    Qualcosa in più ho capito, anche se il funzionamento delle doorway no... (dovrò iniziare a testare un pò anke io!) perchè io da quelle pagine monosito nn vengo rediretto mica a cleansearch.info! Cmq grazie della spiegazione 😉


  • Super User

    @Furious said:

    perchè io da quelle pagine monosito nn vengo rediretto mica a cleansearch.info!
    Non vieni rediretto perché non ce n'è bisogno: la SERP di cleansearch viene infatti incorporata direttamente nella pagina per mezzo di un iframe:

    <body topmargin="0" leftmargin="0" bgcolor=#FFFFFF link=#0E074E vlink=#0E074E alink=#400B04 text="#000000">
    <iframe src="http://cleansearch.info/index.php?&submit=search&q=castagna&aff=24&subaff=3" width="100%" height="3000" frameborder="0" scrolling="NO"></iframe>
    

  • User

    Il problema è che Google non risolverà a breve il problema. Purtroppo, se lo trascinerà per mesi. E a furia di lanciare i data-refresh (come li chiama Cutts), prima o poi soffriranno un po' tutti i siti. D'altronde hanno già messo le mani avanti...

    "In the meantime, should anyone find their own website similarly affected with disappearing from Google without reason, the recommendation can only be to sit tight, change nothing, and hope that Google can fix the problem sooner rather than later".

    Ma in Italia, ancora ci si rende conto della dimensione del problema: miracoli a parte, prima o poi questa cosa farà parlare molto.


  • Super User

    @outsider63 said:

    "In the meantime, should anyone find their own website similarly affected with disappearing from Google without reason, the recommendation can only be to sit tight, change nothing, and hope that Google can fix the problem sooner rather than later".
    Mi piacerebbe molto che, quando si fanno citazioni di questo tipo in thread di questo tipo, se ne indicasse almeno [url=http://www.platinax.co.uk/news/19-06-2006/google-admits-bad-data-push-error/]la fonte, cosicché ciascuno possa giudicarne l'attendibilità/autorevolezza: buttata lì così, fra virgolette e dopo la frase "D'altronde hanno già messo le mani avanti...", sembrava provenire direttamente dalla bocca di Matt Cutts, e invece si tratta di una raccomandazione che l'anonimo autore dell'articolo su platinax.co.uk fa a mo' di commento delle [url=http://www.giorgiotave.it/forum/viewtopic.php?p=108807#108807]dichiarazioni di Adam Lasnik che ho riportato sopra.


  • Super User

    @Everfluxx said:

    Mi piacerebbe molto che quando si fanno citazioni di questo tipo in thread di questo tipo, se ne indicasse la fonte....
    Quoto.
    Anche e soprattutto a beneficio di un più elevato livello di discussione , è preferibile segnalare la fonte quando si riprende l'affermazione di terzi, al fine di contestualizzare meglio le citazioni.

    Cordialmente,
    Stuart


  • User Attivo

    ragazzi volevo farvi notare qst notizia (già citata da Everfluxx):

    http://www.platinax.co.uk/news/19-06-2006/google-admits-bad-data-push-error/

    ma risale al 19 giugno!
    L'errore non era del 26/27?!?!? :mmm: