• User

    Analizziamo un po' il testo dei Link

    Ciao a tutti gli amici del forum,

    Vorrei proporvi alcune mie osservazioni sulla interpretazione dei link da parte di google.

    Da circa un mese ho allestito un sito la cui ottimizzazione passa attraverso la gestione dei link.

    Una pagina base che sviluppa un tema, magari segnalata in home page, linka altre pagine che specializzano il tema attraverso dei link interni che espongono tutti nella anchor text un sottoinsieme di parole che chiamo keyword1.

    Da più parti si legge a proposito dell'anchor text che venga utilizzato come elemento descrittivo della pagina puntata dal rispettivo collegamento ipertestuale. Dalla mia esperienza personale ho osservato in passato che ricercando in google tramite la keyword1 ottenevo nella serp un elenco di pagine che avevano sicuramente dei backlink con keyword1 inclusa nella anchor text da qualche parte sul web.

    Adesso, invece, nella mia esperienza mi capita trattando uno dei miei siti che non ha ancora backlink, di ritrovare nella testa della serp alcune sue pagine che hanno in se dei link con quella keyword1. Se ciò è quello che desidera Google Ok. Tanto meglio e così passeremo più tempo per sviluppare contenuti.

    In dettaglio. Sembra che aumentando la densità di quei link interni la rilevanza sembri aumentare. Se voglio scalzare la testa della serp da un mio concorrente basta creare il numero sufficiente di pagine con le keywords desiderate e farle linkare dalla pagina che desidero innalzare.

    Adesso, ogni caso di ottimizzazione e di posizionamento va inquadrato nel contesto della concorrenza rispetto ad una parola chiave. Può essere anche che nel mio caso sia stato oltremodo fortunato.

    Devo anche dire che molti siti usano questa strategia spinta al limite della indecenza ricorrendo anche a link testuali invisibili. Ma ad oggi confrontando il DC 66.102.9.104, non sembra che Google abbia preso provvedimenti particolari a limitare queste tecniche. Anzi molte volte, nei casi di alta competitività, specialmente nel settore immobiliare, sembrano l'arma vincente che porta anche un sito con PR=0 superare colossi con il 7.

    Spero di aver introdotto un tema di discussione che porti valore alla discussione globale.


  • User Attivo

    Ciao,

    è solo una questione di tempo: proprio nel settore che citi, in questi giorni, il sito n.1 in cima a quasi tutte le serp è stato fortissimamente penalizzato a causa dello spamming che faceva.

    Forse un po' di spamming è irrinunciabile, ma va fatto con buon senso


  • User

    Si credo anche io che sia una questione di tempo. Però credimi, mi pare strano che quelli di Google non abbiano mai provveduto a filtrare palesemente questi siti.

    Quelli di Msn e di Yahoo lo hanno fatto da almeno un anno e la tecnica a quanto si legge un po' sul web non è tanto raffinata come potrebbe sembrare.

    Qualcuno paventa anche l'ipotesi che ciò non venga fatto per non penalizzare i migliori clienti Adsense.


  • User Attivo

    @Redsheriff said:

    Si credo anche io che sia una questione di tempo. Però credimi, mi pare strano che quelli di Google non abbiano mai provveduto a filtrare palesemente questi siti.

    Quelli di Msn e di Yahoo lo hanno fatto da almeno un anno e la tecnica a quanto si legge un po' sul web non è tanto raffinata come potrebbe sembrare.

    Qualcuno paventa anche l'ipotesi che ciò non venga fatto per non penalizzare i migliori clienti Adsense.

    Non ho una gran esperienza, è da poco che mi occupo di questo settore,ma sono abbastanza convinto che individuare i link nascosti , in modo non troppo sfacciato, e attraverso file esterni (javascript e css) non sia così semplice per uno spider.
    Specialmente se deve distinguere gli usi leciti da quelli illeciti....
    Pensa ai menù DHTML a tendina, penalizziamo tutti i siti che ne fanno uso?