• ModSenior

    Si hai capito bene,

    se una nostra pagina linka **incidentalmente **un sito spam noi rischiamo penalizzazione. Google premia link pagine con link aggiornati e di qualità.


  • User Attivo

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.


  • Moderatore

    @JennyM said:

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.

    il criterio è molto semplice....

    essere linkati da siti spam non è un problema, a meno che i link da siti spam non rappresentino la stragrande maggioranza, nel qual caso è probabile che sia in atto un tentativo di manipolare le SERP e quindi vengono allertati i quality raters

    nel caso invece tu linki siti spam subisce una penalizzazione, ovviamente viene tolto un tot del rank per ogni link verso un sito spam

    questo perchè i link vengono usati da Google per misurare la distanza di una risorsa ( pagina web per esempio ) rispetto ad un blocco di altre risorse.....

    linkando siti spam ti avvicini man mano sempre più alla "nuvola di siti come un rank negativo" e il tuo rank ne soffre

    il ragionamento dietro questo algoritmo è che umanamente non puoi costringere gli spammer a non linkarti, tuttavia puoi determinare quali link escono dal tuo sito


  • User Attivo

    Grazie Paolino, ora ho capito 😄


  • User

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?


  • ModSenior

    @Obeah Man said:

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?

    esattamente.


  • User Attivo

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea

    per un motivo semplicissimo e cioè il fatto che questo forum viene spiderizzato varie volte al giorno.....

    l'attuale sistema di spidering di Google assegna una frequenza di spidering ad ogni risorsa presente sul web, a seconda della velocità con cui la risorsa stessa aggiorna e a seconda del punteggio globale dato da Google ad un sito web....

    per taluni siti lo spidering è continuo e lo stesso vale per il ranking


  • User Attivo

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.


  • Moderatore

    @gaiodedu said:

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.

    in che senso? la frequenza dello spider influenza il ranking, tuttavia è inutile cercare di manipolarla soprattutto perchè non si può andare oltre un dato limite e comunque questo comportamento è stato visto solo in settori particolari, quindi con particolari keyword legati ad argomenti in cui la news fresca è importante


  • User Attivo

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea

    un attimo, io non mi riferivo ad una dichiarazione esplicita della frequenza di aggiornamento....

    la frequenza la deduce Google in base all'effettiva frequenza di aggiornamento dei contenuti e non c'è modo per influenzarne il comportamento

    questo sistema di "everflux" è stato implementato qualche anno fa ed è applicato a tutti i settori dove le notizie evolvono rapidamente e si tratta del maggior parte dei topic, per esempio il turismo, il gambling, l'IT e moltissimi altri....

    ci sono pochissime nicchie, per esempio determinati ambiti scientifici, in cui la frequenza di aggiornamento viene trattata come un parametro trascurabile....

    in sostanza la frequenza di aggiornamento è un parametro da tenere in considerazione per la stragrande maggioranza dei topic ed è un parametro che influenza parecchio le SERP


  • User Attivo

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:


  • Moderatore

    @pessoa said:

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando


  • Super User

    @paolino said:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?


  • Moderatore

    @micky said:

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?

    in linea di massima valutando i posizionamenti che hanno su Google puoi sapere se sono o meno siti nettamente "bad"

    da notare che le penalizzazioni non sono una pratica usata di rado da Google, per esempio tempo fa Agoago illustrava le penalizzazioni dovute a sovraottimizzazione, quindi un'anima "bad" ce l'hanno tutti

    l'unica "prova del 9" possibile è appunto valutare i posizionamenti che un sito ha, analizzare la politica di backlinking che mette in pratica ( es: se trovi 10.000 blog spammati da parte del sito X tramite i trackback o i commenti, sei certo di trovarti di fronte ad un sito che prima o poi verrà fortemente penalizzato o bannato da Google )

    il Pagerank potrebbe essere un altro metodo ma non è affidabile per le ragioni che tutti sappiamo

    quindi in sostanza la cosa più ovvia è verificare se e quali posizionamenti il sito X ha rispetto alle key che lo riguardano, che tipo di contenuti ha ( sono reali, user generated, creati con Markov o altri metodi simili ) e che tipo di link ha


  • Super User

    @paolino said:

    in linea di massima valutando i posizionamenti che hanno su Google puoi sapere se sono o meno siti nettamente "bad"

    da notare che le penalizzazioni non sono una pratica usata di rado da Google, per esempio tempo fa Agoago illustrava le penalizzazioni dovute a sovraottimizzazione, quindi un'anima "bad" ce l'hanno tutti

    Interessante. Se non ti crea troppo sforzo sapresti indicarmi il link di Agoago?

    es: se trovi 10.000 blog spammati da parte del sito X tramite i trackback o i commenti, sei certo di trovarti di fronte ad un sito che prima o poi verrà fortemente penalizzato o bannato da Google

    Quindi tu opti per "penalizzazioni statistiche" da parte di Google? Ad esempio i concorrenti possono penalizzarmi in questo modo però nel 99% dei casi si tratta di chi vuol favorire il proprio sito. Quindi considero sacrificabile quell'1% di onesti per salvaguardare le serp?
    Oppure più probabilmente Google salva anche quell'1% vedendo riuscendo a tracciare gli spammer da altri parametri?


  • Moderatore

    @micky said:

    Interessante. Se non ti crea troppo sforzo sapresti indicarmi il link di Agoago?

    non è mica facile trovarlo, è una cosa successa l'anno scorso 😄

    Quindi tu opti per "penalizzazioni statistiche" da parte di Google? Ad esempio i concorrenti possono penalizzarmi in questo modo però nel 99% dei casi si tratta di chi vuol favorire il proprio sito. Quindi considero sacrificabile quell'1% di onesti per salvaguardare le serp?
    Oppure più probabilmente Google salva anche quell'1% vedendo riuscendo a tracciare gli spammer da altri parametri?

    no direi che piuttosto la statistica ha a che fare col calcolo dei vari parametri.....il punto è che Google avendo a disposizione un DB di miliardi di pagine può tracciare dei profili ( uno o più di uno a seconda dei casi ) e in base all'andamento medio di determinati parametri riesce a capire chi fa il furbo

    un sito che ha 1000 link ( e solo quelli ) tutti con lo stesso anchor, nati magari nello stesso momento o giù di lì, puntano tutti alla homepage, ecc... sono tutti indicatori che qualcosa non va e Google lo sa perchè analizza il comportamento di tutti i siti/pagine di cui ha conoscenza

    così facendo è in grado di tracciare un profilo che identifica il sito onesto


  • User Newbie

    siteadvisor.com è un "buon" modo per analizzare il proprio sito.
    Ha nel suo database centinaia di migliaia di siti e quando fa l'analisi del proprio sito mostra i link ( purtroppo da quel che vedo solo della home ) e dice se sono buoni, neutri o cattivi. Poi ti informa se hai troppi pop up, se i file scaricabili sono "cattivi" o meno .. insomma, uno strumento da provare, ma non bisogna certamente fidarsi solo di quello!


  • User Attivo

    Aggiungo un mio parere: non può essere così automatico che, per esempio, se un sito linka un sito spam il primo venga penalizzato, poniamo il caso di un sito ricchissimo di contenuto, in cima alle serp, per sbaglio linka un sito che solo dopo un certo periodo di tempo inizia ad adottare tecniche spam, seguendo questa logica fredda e rigida, Google dovrebbe penalizzare di brutto il primo sito che ha linkato quello di spam, ma in questo caso, sarebbero penalizzati anche gli utenti, privati di un contenuto ottimo. A mio avviso ci sono due pesi e due misure da parte di Google: siti autorevoli, ad elevato trust, presenti da anni, possono anche linkare qualche sito spam senza correre rischi, poichè offrono molto agli utenti e Google non se la sente di penalizzarli, altrimenti rischierebbe un esodo verso altri motori di ricerca... diverso il discorso di siti nuovi e a basso trust, loro devono stare molto attenti a chi linkano, perchè non hanno ancora la dovuta autorevolezza agli occhi di Google... grossi portali con molte risorse non potranno mai stare dietro a tutti i siti che linkano, il no-follow non è la cura giusta, perchè può far perdere di credibilità... non dimenticate, che il pagerank non lo fa Google, ma noi stessi webmaster, siamo noi che diaciamo a Google: "vedi, linko questo sito perchè lo considero utile agli utenti" e zio Gugl lo fa salire.. penso che un sito con centinaia di link in uscita con tutti il no-follow valga poco e potrebbe essere anche mal visto, si potrebbe pensare che stia vendendo questi link, e quindi che valore ha un sito del genere per gli utenti?