• Community Manager

    Secondo il mio parere non è perchè sono siti porno, ma perchè sono siti spam.

    E non ho idea del comportamento con il nofollow 😞


  • Super User

    Bhe, visto che con il robot si va sul sicuro, da tua esperienza, lo si setta e si sta tranquilli 😉

    Grazie per questa dritta!


  • User Attivo

    Beh... questa è una conferma.
    Il tema penalizzazioni è uno dei più interessanti del momento.
    Certo, non è una novità: i link in uscita sono sempre stati considerati dall'algoritmo come certamente imputabili all'owner del sito. Come potrebbe essere diversamente? Di quelli che ti arrivano che ne sai? ma di quelli che partono ne sai, eccome!
    Quindi le penalizzazioni si propagano tramite i link in uscita, mai tramite quelli in entrata (entro certi limiti).
    Sul tema però una "novità" c'è, ed è che la penalizzazione non è più secca (-30, -950, -XXX sul dominio) ma molto più subdola: riguarda le chiavi importanti e trascura quelle irrilevanti.
    In pratica se non percepisci la penalizzazione tenderai a incaprettarti da solo, sovraccaricando il seo delle pagine e delle kw scese e inguaiandoti ancora di piu', in un contesto dove le misurazioni per verificare la penalizzazione sono difficili e non automatizzabili.

    Direi quasi malvagia come mossa 🙂 ma efficace.
    Non è questione di porno, ma di flag spam.
    Linkare un sito flaggato è più che rischioso anche se imho (e a naso) il nofollow dovrebbe ancora funzionare per il momento.

    Ciao


  • User Attivo

    Geniale.

    In passato mi è capitato una situazione simile in seguito ad un "buco" sul forum, che permise di far inserire link a centinaia di spammer.

    Poco tempo dopo il sito iniziò a calare di molto nelle serp....ecco scovato il perchè.

    Peccato che abbia piallato tutto, altrimenti sarebbe stato un ottimo test di conferma.

    Grazie comunque! 🙂


  • User Attivo

    Scusate ma voglio vedere se ho capito bene 😛

    Se io da una mia pagina linko un sito d "dubbia argomentazione" che magari contiene affiliazioni a siti spam e che Google ritiene un sito negativo (quindi BadRank) ho effetti "peggiori" che essere linkata IO da questo sito?

    Non so se mi sono spiegata...Io linko dal sito A il sito B che è ritenuto da Google un sito SPAM e quindi mi viene trasmesso inversamente il BadRank.
    Se il sito B linka il mio sito A ha lo stesso effetto di passaggio di BadRank?


  • ModSenior

    Si hai capito bene,

    se una nostra pagina linka **incidentalmente **un sito spam noi rischiamo penalizzazione. Google premia link pagine con link aggiornati e di qualità.


  • User Attivo

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.


  • Moderatore

    @JennyM said:

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.

    il criterio è molto semplice....

    essere linkati da siti spam non è un problema, a meno che i link da siti spam non rappresentino la stragrande maggioranza, nel qual caso è probabile che sia in atto un tentativo di manipolare le SERP e quindi vengono allertati i quality raters

    nel caso invece tu linki siti spam subisce una penalizzazione, ovviamente viene tolto un tot del rank per ogni link verso un sito spam

    questo perchè i link vengono usati da Google per misurare la distanza di una risorsa ( pagina web per esempio ) rispetto ad un blocco di altre risorse.....

    linkando siti spam ti avvicini man mano sempre più alla "nuvola di siti come un rank negativo" e il tuo rank ne soffre

    il ragionamento dietro questo algoritmo è che umanamente non puoi costringere gli spammer a non linkarti, tuttavia puoi determinare quali link escono dal tuo sito


  • User Attivo

    Grazie Paolino, ora ho capito 😄


  • User

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?


  • ModSenior

    @Obeah Man said:

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?

    esattamente.


  • User Attivo

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea

    per un motivo semplicissimo e cioè il fatto che questo forum viene spiderizzato varie volte al giorno.....

    l'attuale sistema di spidering di Google assegna una frequenza di spidering ad ogni risorsa presente sul web, a seconda della velocità con cui la risorsa stessa aggiorna e a seconda del punteggio globale dato da Google ad un sito web....

    per taluni siti lo spidering è continuo e lo stesso vale per il ranking


  • User Attivo

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.


  • Moderatore

    @gaiodedu said:

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.

    in che senso? la frequenza dello spider influenza il ranking, tuttavia è inutile cercare di manipolarla soprattutto perchè non si può andare oltre un dato limite e comunque questo comportamento è stato visto solo in settori particolari, quindi con particolari keyword legati ad argomenti in cui la news fresca è importante


  • User Attivo

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea

    un attimo, io non mi riferivo ad una dichiarazione esplicita della frequenza di aggiornamento....

    la frequenza la deduce Google in base all'effettiva frequenza di aggiornamento dei contenuti e non c'è modo per influenzarne il comportamento

    questo sistema di "everflux" è stato implementato qualche anno fa ed è applicato a tutti i settori dove le notizie evolvono rapidamente e si tratta del maggior parte dei topic, per esempio il turismo, il gambling, l'IT e moltissimi altri....

    ci sono pochissime nicchie, per esempio determinati ambiti scientifici, in cui la frequenza di aggiornamento viene trattata come un parametro trascurabile....

    in sostanza la frequenza di aggiornamento è un parametro da tenere in considerazione per la stragrande maggioranza dei topic ed è un parametro che influenza parecchio le SERP


  • User Attivo

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:


  • Moderatore

    @pessoa said:

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando


  • Super User

    @paolino said:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?