• User Attivo

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea

    un attimo, io non mi riferivo ad una dichiarazione esplicita della frequenza di aggiornamento....

    la frequenza la deduce Google in base all'effettiva frequenza di aggiornamento dei contenuti e non c'è modo per influenzarne il comportamento

    questo sistema di "everflux" è stato implementato qualche anno fa ed è applicato a tutti i settori dove le notizie evolvono rapidamente e si tratta del maggior parte dei topic, per esempio il turismo, il gambling, l'IT e moltissimi altri....

    ci sono pochissime nicchie, per esempio determinati ambiti scientifici, in cui la frequenza di aggiornamento viene trattata come un parametro trascurabile....

    in sostanza la frequenza di aggiornamento è un parametro da tenere in considerazione per la stragrande maggioranza dei topic ed è un parametro che influenza parecchio le SERP


  • User Attivo

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:


  • Moderatore

    @pessoa said:

    Alla fine di questo confronto vi pongo una domanda da neofita:
    come faccio a sapere che un sito è considerato come spam da google?

    .....:bho:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando


  • Super User

    @paolino said:

    con certezza non lo puoi sapere, comunque un sito spam viene penalizzato o addirittura bannato ed è da questo che puoi capire che qualcosa non va....

    ad ogni modo ci sono dei criteri di massimo, tipo avere testo nascosto, keyword stuffing, link con anchor tutti uguali, ecc... che fanno ritenere a Google che stai spammando

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?


  • Moderatore

    @micky said:

    quindi qual è il tuo consiglio nel caso uno fa un sito zeppo di link esterni (recensiti), una directory insomma, per evitare link a siti spam? Praticamente come faccio a riconoscerli?

    in linea di massima valutando i posizionamenti che hanno su Google puoi sapere se sono o meno siti nettamente "bad"

    da notare che le penalizzazioni non sono una pratica usata di rado da Google, per esempio tempo fa Agoago illustrava le penalizzazioni dovute a sovraottimizzazione, quindi un'anima "bad" ce l'hanno tutti

    l'unica "prova del 9" possibile è appunto valutare i posizionamenti che un sito ha, analizzare la politica di backlinking che mette in pratica ( es: se trovi 10.000 blog spammati da parte del sito X tramite i trackback o i commenti, sei certo di trovarti di fronte ad un sito che prima o poi verrà fortemente penalizzato o bannato da Google )

    il Pagerank potrebbe essere un altro metodo ma non è affidabile per le ragioni che tutti sappiamo

    quindi in sostanza la cosa più ovvia è verificare se e quali posizionamenti il sito X ha rispetto alle key che lo riguardano, che tipo di contenuti ha ( sono reali, user generated, creati con Markov o altri metodi simili ) e che tipo di link ha


  • Super User

    @paolino said:

    in linea di massima valutando i posizionamenti che hanno su Google puoi sapere se sono o meno siti nettamente "bad"

    da notare che le penalizzazioni non sono una pratica usata di rado da Google, per esempio tempo fa Agoago illustrava le penalizzazioni dovute a sovraottimizzazione, quindi un'anima "bad" ce l'hanno tutti

    Interessante. Se non ti crea troppo sforzo sapresti indicarmi il link di Agoago?

    es: se trovi 10.000 blog spammati da parte del sito X tramite i trackback o i commenti, sei certo di trovarti di fronte ad un sito che prima o poi verrà fortemente penalizzato o bannato da Google

    Quindi tu opti per "penalizzazioni statistiche" da parte di Google? Ad esempio i concorrenti possono penalizzarmi in questo modo però nel 99% dei casi si tratta di chi vuol favorire il proprio sito. Quindi considero sacrificabile quell'1% di onesti per salvaguardare le serp?
    Oppure più probabilmente Google salva anche quell'1% vedendo riuscendo a tracciare gli spammer da altri parametri?


  • Moderatore

    @micky said:

    Interessante. Se non ti crea troppo sforzo sapresti indicarmi il link di Agoago?

    non è mica facile trovarlo, è una cosa successa l'anno scorso 😄

    Quindi tu opti per "penalizzazioni statistiche" da parte di Google? Ad esempio i concorrenti possono penalizzarmi in questo modo però nel 99% dei casi si tratta di chi vuol favorire il proprio sito. Quindi considero sacrificabile quell'1% di onesti per salvaguardare le serp?
    Oppure più probabilmente Google salva anche quell'1% vedendo riuscendo a tracciare gli spammer da altri parametri?

    no direi che piuttosto la statistica ha a che fare col calcolo dei vari parametri.....il punto è che Google avendo a disposizione un DB di miliardi di pagine può tracciare dei profili ( uno o più di uno a seconda dei casi ) e in base all'andamento medio di determinati parametri riesce a capire chi fa il furbo

    un sito che ha 1000 link ( e solo quelli ) tutti con lo stesso anchor, nati magari nello stesso momento o giù di lì, puntano tutti alla homepage, ecc... sono tutti indicatori che qualcosa non va e Google lo sa perchè analizza il comportamento di tutti i siti/pagine di cui ha conoscenza

    così facendo è in grado di tracciare un profilo che identifica il sito onesto


  • User Newbie

    siteadvisor.com è un "buon" modo per analizzare il proprio sito.
    Ha nel suo database centinaia di migliaia di siti e quando fa l'analisi del proprio sito mostra i link ( purtroppo da quel che vedo solo della home ) e dice se sono buoni, neutri o cattivi. Poi ti informa se hai troppi pop up, se i file scaricabili sono "cattivi" o meno .. insomma, uno strumento da provare, ma non bisogna certamente fidarsi solo di quello!


  • User Attivo

    Aggiungo un mio parere: non può essere così automatico che, per esempio, se un sito linka un sito spam il primo venga penalizzato, poniamo il caso di un sito ricchissimo di contenuto, in cima alle serp, per sbaglio linka un sito che solo dopo un certo periodo di tempo inizia ad adottare tecniche spam, seguendo questa logica fredda e rigida, Google dovrebbe penalizzare di brutto il primo sito che ha linkato quello di spam, ma in questo caso, sarebbero penalizzati anche gli utenti, privati di un contenuto ottimo. A mio avviso ci sono due pesi e due misure da parte di Google: siti autorevoli, ad elevato trust, presenti da anni, possono anche linkare qualche sito spam senza correre rischi, poichè offrono molto agli utenti e Google non se la sente di penalizzarli, altrimenti rischierebbe un esodo verso altri motori di ricerca... diverso il discorso di siti nuovi e a basso trust, loro devono stare molto attenti a chi linkano, perchè non hanno ancora la dovuta autorevolezza agli occhi di Google... grossi portali con molte risorse non potranno mai stare dietro a tutti i siti che linkano, il no-follow non è la cura giusta, perchè può far perdere di credibilità... non dimenticate, che il pagerank non lo fa Google, ma noi stessi webmaster, siamo noi che diaciamo a Google: "vedi, linko questo sito perchè lo considero utile agli utenti" e zio Gugl lo fa salire.. penso che un sito con centinaia di link in uscita con tutti il no-follow valga poco e potrebbe essere anche mal visto, si potrebbe pensare che stia vendendo questi link, e quindi che valore ha un sito del genere per gli utenti?


  • ModSenior

    Ciao Web Hunter,

    personalmente concordo soltanto in parte con le tue affermazioni e ti spiego il perche'

    Se sulla guida webmaster di Google ancora e' presente questa frase:

    evita i link a siti di spam o "cattivi vicini" poiché ciò potrebbe influire negativamente sul tuo posizionamento.
    un motivo ci deve essere.

    @Web Hunter said:

    se un sito linka un sito spam il primo venga penalizzato, poniamo il caso di un sito ricchissimo di contenuto, in cima alle serp, per sbaglio linka un sito che solo dopo un certo periodo di tempo inizia ad adottare tecniche spam, seguendo questa logica fredda e rigida, Google dovrebbe penalizzare di brutto il primo sito che ha linkato quello di spam, ma in questo caso, sarebbero penalizzati anche gli utenti, privati di un contenuto ottimo.

    Vero ma in parte nel senso che un webmaster responsabile si accorgera' che il sito spamma e provvedera' di conseguenza per non essere penalizzato.
    Il web e i contenuti sono flessibili e non immutabili.

    @Web Hunter said:

    A mio avviso ci sono due pesi e due misure da parte di Google: siti autorevoli, ad elevato trust, presenti da anni, possono anche linkare qualche sito spam senza correre rischi [...] diverso il discorso di siti nuovi e a basso trust, loro devono stare molto attenti a chi linkano, perchè non hanno ancora la dovuta autorevolezza agli occhi di Google

    Vero fino ad un certo punto nel senso che come detto sopra un webmaster intelligente provvedera' di conseguenza. Aggiungo anche che Google ha i suoi quality raters che sono persone. Gli algoritmi di Google possono anche non penalizzare direttamente ma soltanto far scattare red flag di attenzione per i quality raters.

    @Web Hunter said:

    ... grossi portali con molte risorse non potranno mai stare dietro a tutti i siti che linkano, il no-follow non è la cura giusta, perchè può far perdere di credibilità...

    Vero, sempre in parte. Il no-follow pero' e lo dici tu stesso non passa PageRank ma non per questo un link con no-follow non viene considerato.

    @Web Hunter said:

    penso che un sito con centinaia di link in uscita con tutti il no-follow valga poco e potrebbe essere anche mal visto, si potrebbe pensare che stia vendendo questi link, e quindi che valore ha un sito del genere per gli utenti?

    Potrebbe ma non e' detto. Sarebbe interessante qualche testimonianza concreta ma secondo me un sito che e' in trust anche con tutti no-follow sta a galla nelle SERP proprio perche' autorevole e questo c'entra poco col PageRank.


  • User Attivo

    @mister.jinx said:

    Ciao Web Hunter,

    personalmente concordo soltanto in parte con le tue affermazioni e ti spiego il perche'

    Se sulla [google.com/support/webmasters/bin/answer.py?answer=35769#design"]guida webmaster di Google ancora e' presente questa frase:
    un motivo ci deve essere.

    Vero ma in parte nel senso che un webmaster responsabile si accorgera' che il sito spamma e provvedera' di conseguenza per non essere penalizzato.
    Il web e i contenuti sono flessibili e non immutabili.

    Vero fino ad un certo punto nel senso che come detto sopra un webmaster intelligente provvedera' di conseguenza. Aggiungo anche che Google ha i suoi quality raters che sono persone. Gli algoritmi di Google possono anche non penalizzare direttamente ma soltanto far scattare red flag di attenzione per i quality raters.

    Vero, sempre in parte. Il no-follow pero' e lo dici tu stesso non passa PageRank ma non per questo un link con no-follow non viene considerato.

    Potrebbe ma non e' detto. Sarebbe interessante qualche testimonianza concreta ma secondo me un sito che e' in trust anche con tutti no-follow sta a galla nelle SERP proprio perche' autorevole e questo c'entra poco col PageRank.

    Ciao mister.jinx,

    anch'io posso concordare in parte con le tue affermazioni, tuttavia preciso:

    Google deve per forza scrivere questo, anche solo per spronare i webmaster ad un maggiore controllo, poi non è detto che segua alla lettera ciò che dice di fare. Per il resto è ovvio che non esistono verità assolute, ma se guardi in giro, vedrai che grossi portali fanno spesso tutto ciò che è sconsigliato fare... ora, un calo massiccio nelle serp di tutti questi siti, quanto impoverirebbe Google? no, non posso credere che le regole si applichino in maniera così rigida, Google sta lì per far soldi, se iniziasse a penalizzare tutti i siti con un po' di spam, ne verrebbe fuori altamente impoverito come motore di ricerca


  • ModSenior

    @Web Hunter said:

    Google sta lì per far soldi

    Certo, ma con Adwords, non con i risultati organici delle SERP 🙂


  • User Attivo

    Vero, nulla da obiettare, ma forse mi sono espresso male, ecco un esempio:

    siti grossi, con almeno 10.000 visitatori unici al giorno, e ottimi contenuti unici, linkano a siti spam: ora, penalizzare questi siti, sarebbe poco etico e dannoso, perchè gli utenti sarebbero privati di buoni contenuti. Ora, se Google diventa così rigido, pensate: siete abituati a digitare x keyword e trovate i siti y e z, ok, un giorno non li trovate più su Google, provate su Yahoo, e lì ci sono... la cosa si ripete con altri siti... voi che fate? perdete fiducia in Google... ecco cosa fate... se tutti i siti facessero un po' di spam, che potrebbe farci Google? all'utente medio non interessano questioni di rank, ottimizzazione, quality rating e spam... infatti, avete visto cosa succede a chi vende link o tenta di sfruttare il suo alto rank? Google azzera il pagerank, ma non toglie certo i siti dalle posizioni che avevano... sempre che questi siano siti con contenuto, e non semplici venditori di link...

    insomma, questa è la mia teoria: se fai spam, Google potrebbe "perdonarti" (e ho detto potrebbe) in virtù del fatto che offri ottimi contenuti agli utenti, e non lo fa perchè è buono, ma per suo interesse... inoltre, immaginate tutte le ripercusioni a catena di un grosso sito penalizzato, voglio dire tutti i siti che linka... se Google non tenesse conto di questo, sarebbe come essere bocciati a scuola anche con ottimi voti solo perchè si ha 0 in condotta... ripeto, questa è la mia modestissima teoria 🙂