• User Attivo

    Geniale.

    In passato mi è capitato una situazione simile in seguito ad un "buco" sul forum, che permise di far inserire link a centinaia di spammer.

    Poco tempo dopo il sito iniziò a calare di molto nelle serp....ecco scovato il perchè.

    Peccato che abbia piallato tutto, altrimenti sarebbe stato un ottimo test di conferma.

    Grazie comunque! 🙂


  • User Attivo

    Scusate ma voglio vedere se ho capito bene 😛

    Se io da una mia pagina linko un sito d "dubbia argomentazione" che magari contiene affiliazioni a siti spam e che Google ritiene un sito negativo (quindi BadRank) ho effetti "peggiori" che essere linkata IO da questo sito?

    Non so se mi sono spiegata...Io linko dal sito A il sito B che è ritenuto da Google un sito SPAM e quindi mi viene trasmesso inversamente il BadRank.
    Se il sito B linka il mio sito A ha lo stesso effetto di passaggio di BadRank?


  • ModSenior

    Si hai capito bene,

    se una nostra pagina linka **incidentalmente **un sito spam noi rischiamo penalizzazione. Google premia link pagine con link aggiornati e di qualità.


  • User Attivo

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.


  • Moderatore

    @JennyM said:

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.

    il criterio è molto semplice....

    essere linkati da siti spam non è un problema, a meno che i link da siti spam non rappresentino la stragrande maggioranza, nel qual caso è probabile che sia in atto un tentativo di manipolare le SERP e quindi vengono allertati i quality raters

    nel caso invece tu linki siti spam subisce una penalizzazione, ovviamente viene tolto un tot del rank per ogni link verso un sito spam

    questo perchè i link vengono usati da Google per misurare la distanza di una risorsa ( pagina web per esempio ) rispetto ad un blocco di altre risorse.....

    linkando siti spam ti avvicini man mano sempre più alla "nuvola di siti come un rank negativo" e il tuo rank ne soffre

    il ragionamento dietro questo algoritmo è che umanamente non puoi costringere gli spammer a non linkarti, tuttavia puoi determinare quali link escono dal tuo sito


  • User Attivo

    Grazie Paolino, ora ho capito 😄


  • User

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?


  • ModSenior

    @Obeah Man said:

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?

    esattamente.


  • User Attivo

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea

    per un motivo semplicissimo e cioè il fatto che questo forum viene spiderizzato varie volte al giorno.....

    l'attuale sistema di spidering di Google assegna una frequenza di spidering ad ogni risorsa presente sul web, a seconda della velocità con cui la risorsa stessa aggiorna e a seconda del punteggio globale dato da Google ad un sito web....

    per taluni siti lo spidering è continuo e lo stesso vale per il ranking


  • User Attivo

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.


  • Moderatore

    @gaiodedu said:

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.

    in che senso? la frequenza dello spider influenza il ranking, tuttavia è inutile cercare di manipolarla soprattutto perchè non si può andare oltre un dato limite e comunque questo comportamento è stato visto solo in settori particolari, quindi con particolari keyword legati ad argomenti in cui la news fresca è importante


  • User Attivo

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea

    un attimo, io non mi riferivo ad una dichiarazione esplicita della frequenza di aggiornamento....

    la frequenza la deduce Google in base all'effettiva frequenza di aggiornamento dei contenuti e non c'è modo per influenzarne il comportamento

    questo sistema di "everflux" è stato implementato qualche anno fa ed è applicato a tutti i settori dove le notizie evolvono rapidamente e si tratta del maggior parte dei topic, per esempio il turismo, il gambling, l'IT e moltissimi altri....

    ci sono pochissime nicchie, per esempio determinati ambiti scientifici, in cui la frequenza di aggiornamento viene trattata come un parametro trascurabile....

    in sostanza la frequenza di aggiornamento è un parametro da tenere in considerazione per la stragrande maggioranza dei topic ed è un parametro che influenza parecchio le SERP


  • User Attivo

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:


  • Moderatore

    @pessoa said:

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando


  • Super User

    @paolino said:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?


  • Moderatore

    @micky said:

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?

    in linea di massima valutando i posizionamenti che hanno su Google puoi sapere se sono o meno siti nettamente "bad"

    da notare che le penalizzazioni non sono una pratica usata di rado da Google, per esempio tempo fa Agoago illustrava le penalizzazioni dovute a sovraottimizzazione, quindi un'anima "bad" ce l'hanno tutti

    l'unica "prova del 9" possibile è appunto valutare i posizionamenti che un sito ha, analizzare la politica di backlinking che mette in pratica ( es: se trovi 10.000 blog spammati da parte del sito X tramite i trackback o i commenti, sei certo di trovarti di fronte ad un sito che prima o poi verrà fortemente penalizzato o bannato da Google )

    il Pagerank potrebbe essere un altro metodo ma non è affidabile per le ragioni che tutti sappiamo

    quindi in sostanza la cosa più ovvia è verificare se e quali posizionamenti il sito X ha rispetto alle key che lo riguardano, che tipo di contenuti ha ( sono reali, user generated, creati con Markov o altri metodi simili ) e che tipo di link ha


  • Super User

    @paolino said:

    in linea di massima valutando i posizionamenti che hanno su Google puoi sapere se sono o meno siti nettamente "bad"

    da notare che le penalizzazioni non sono una pratica usata di rado da Google, per esempio tempo fa Agoago illustrava le penalizzazioni dovute a sovraottimizzazione, quindi un'anima "bad" ce l'hanno tutti

    Interessante. Se non ti crea troppo sforzo sapresti indicarmi il link di Agoago?

    es: se trovi 10.000 blog spammati da parte del sito X tramite i trackback o i commenti, sei certo di trovarti di fronte ad un sito che prima o poi verrà fortemente penalizzato o bannato da Google

    Quindi tu opti per "penalizzazioni statistiche" da parte di Google? Ad esempio i concorrenti possono penalizzarmi in questo modo però nel 99% dei casi si tratta di chi vuol favorire il proprio sito. Quindi considero sacrificabile quell'1% di onesti per salvaguardare le serp?
    Oppure più probabilmente Google salva anche quell'1% vedendo riuscendo a tracciare gli spammer da altri parametri?


  • Moderatore

    @micky said:

    Interessante. Se non ti crea troppo sforzo sapresti indicarmi il link di Agoago?

    non è mica facile trovarlo, è una cosa successa l'anno scorso 😄

    Quindi tu opti per "penalizzazioni statistiche" da parte di Google? Ad esempio i concorrenti possono penalizzarmi in questo modo però nel 99% dei casi si tratta di chi vuol favorire il proprio sito. Quindi considero sacrificabile quell'1% di onesti per salvaguardare le serp?
    Oppure più probabilmente Google salva anche quell'1% vedendo riuscendo a tracciare gli spammer da altri parametri?

    no direi che piuttosto la statistica ha a che fare col calcolo dei vari parametri.....il punto è che Google avendo a disposizione un DB di miliardi di pagine può tracciare dei profili ( uno o più di uno a seconda dei casi ) e in base all'andamento medio di determinati parametri riesce a capire chi fa il furbo

    un sito che ha 1000 link ( e solo quelli ) tutti con lo stesso anchor, nati magari nello stesso momento o giù di lì, puntano tutti alla homepage, ecc... sono tutti indicatori che qualcosa non va e Google lo sa perchè analizza il comportamento di tutti i siti/pagine di cui ha conoscenza

    così facendo è in grado di tracciare un profilo che identifica il sito onesto