• User Attivo

    @kerouac3001 said:

    non è detto..probabilmente uno di questi HuB potrebbe essere dmoz..

    :quote: :quote: :quote: :quote: :quote: :quote: :quote: :quote:

    siamo a posto, soprattutto con la velocità con cui funziona in Italia, faremo tempo a diventare vecchi prima che google si accorga di noi

    senza pensare che chi ha un posto in dmoz si farà pagare salatissimo un OL 😎


  • Community Manager

    Grazie per le traduzioni 🙂


  • Bannato Super User

    @giorgiotave said:

    Grazie per le traduzioni 🙂

    Prego, è stato un piacere 🙂


  • Bannato Super User

    Sviluppi?

    Non lo so, può essere tutto ed il contrario di tutto, magari lo usano già in qualche maniera per vedere la qualità dei links che puntano ad un sito.

    Per quello che ho capito io la questione dei siti "seed" va vista in maniera più ampia, lo studio si basa su 200, ma nulla vieta che Google ne impieghi molti di più o molti di meno, probabilmente ne troveranno per nazione, per lingua ecc.., quindi niente paradiso, solo una serie di siti giudicati autorevoli che porteranno beneficio ad altri siti a loro collegati.

    Secondo me non soppianterà il PR (quello vero) ma sarà, o forse è già, un'altro delle centinaia di fattori che compongono l'algoritmo di Google.

    Ovviamente questa è solo la mia opinione.


  • Super User

    gia'.
    non possiamo sapere cosa fanno di preciso al googleplesk.

    pero' io posso ipotizzare che il trustrank (o qualcosa di molto simile) sia gia' in funzione. e dmoz ha un peso notevole.

    perche' lo ipotizzo?

    perche' per la mia key piu' competitiva i risultati dicono:

    allinanchor:key competitiva: prima pagina
    allintitle:key competitiva: prima pagina
    key competitiva: non esisto
    ()


  • Moderatore

    l'unica cosa sicura è che di sicuro non si sa niente e per quanto ne sappiamo google potrebbe già usare il Trustrank da un bel pò....

    da un bel pò di tempo molti hanno notato che il PR ormai non influisce più come una volta sul ranking

    il punto è che il PR è la misura della qualità dei link entranti e quindi dal valore del sito....in pratica google aveva visto giusto quando creò il PR dicendo che i fattori on-page non erano molto validi per il ranking e che bisognava guardare a quello "che gli altri siti pensano di te"....

    alcuni dicono che nella formula di ranking si sia abbassato il peso dato al PR questo però vorrebbe dire tornare indietro e non credo google l'abbia fatto....

    credo piuttosto che due sono le possibilità: o google usa un altro indice (oltre o al posto del PR) o il PR della barra è assolutamente fuorviante e fasullo....


  • Super User

    come hai detto tu, google ci vide giusto con il PR, perche' i fattori on-site erano troppo manipolabili.
    ma poi lo sono diventati anche i fattori off-line (leggi network di siti, scambi link), e quindi ha messo un freno con il localrank.
    aggiunge il trustrank perche' sa quanto che in directory come dmoz (ma poi? quale altre?
    :bho: ) non entra qualsiasi sito.

    e a questi fattori aggiungine pure un altro migliaio 🙂


  • User Attivo

    Pensate che lo sconvolgimento delle serp dei mesi scorsi (meta' maggio e meta' giugno) puo' essere dovuto dall'entrata in vigore del nuovo brevetto trustrank che ha rivoluzionato tutto?


  • Super User

    no, secondo me quello e' stato solo l'effetto di nuovi filtri antispam.


  • Moderatore

    comunque in tutto il marasma che s'è creato c'è una sola cosa esatta: il PR della barra è una presa per i fondelli.....un modo per far chiacchierare la gente e purtroppo ancora oggi vedo post su altri forum dove si chiede link da PR 5 o PR 6 e cose del genere....

    per esempio la freshness è più importante del PR (non è un caso che molti domini di 3° livello in testa nelle SERP si fanno linkare da blog PR 2-3)

    altri siti invece con PR alti e/o linkati da PR alti stanno in basso nelle serp


  • User Attivo

    L'ultima parte della traduzione del testo sul trustrank parla che i link devono essere spontanei e quelli tutti dello stesso tipo sono a rischio di penalizzazione; allora i link del tipo "inserisci la tua struttura" ecc. che rilascia un codice da inserire ( del tipo www.bed-and-breakfast.it ) e che tali portali ricevono in serie a bizzeffe sono a rischio?
    Rischiano anche i siti che linkano? 😮


  • Moderatore

    personalmente la vedo come una cretinata....se fai una ricerca nel settore adult in inglese vedrai che tutti i siti in testa alle serp sono delle linklist che si fanno linkare proprio tramite quei link "prefabbricati" del tipo copia e incolla


  • User Attivo

    @paolino said:

    personalmente la vedo come una cretinata....se fai una ricerca nel settore adult in inglese vedrai che tutti i siti in testa alle serp sono delle linklist che si fanno linkare proprio tramite quei link "prefabbricati" del tipo copia e incolla
    Evidentemente o la pagina sul trustrank non e' veritiera ed affidabile, o ci sara' un vero e proprio...prossimo cataclisma nelle serp 😮 😮 😮 😮 😮 😮


  • Moderatore

    no la questione è diversa....i link tutti uguali saranno meno importanti di quelli organici ma questo non significa che i link tutti uguali penalizzeranno un sito, altrimenti certi settori come quello dell'hard subiranno un collasso....

    è un pò come il fatto che i link reciproci valgono meno dei link unidirezionali


  • Bannato Super User

    @ZioJo said:

    Evidentemente o la pagina sul trustrank non e' veritiera ed affidabile, o ci sara' un vero e proprio...prossimo cataclisma nelle serp 😮 😮 😮 😮 😮 😮

    Non è questione se sia veritiera o meno, bisogna ricordarsi che lo studio di cui stiamo parlando è uno studio universitario, che poi Google ha in qualche modo inserito nei suoi brevetti.

    Nessuno di noi poveri mortali sa se, quando, e quanta parte di quello studio venga o sia già stata utilizzata dal MDR.

    L'unica cosa certa è che Google dichiara (almeno a parole) di voler spazzare lo spam dalle sue SERP, per ora c'è riuscito solo in parte.

    Il problema credo sia proprio quello di riuscire con un algoritmo a separare i siti "buoni" da quelli "cattivi" senza penalizzare quelli che hanno una struttura da cattivi ma in realtà sono buoni.


  • Moderatore

    infatti ha ragione emmebar....

    eliminare tutti i siti che hanno dei bl stereotipati oppure tutti i siti che vengono linkati da blog sarebbe assurdo in quanto chiunque potrebbe linkare un sito in quel modo e così distruggere la concorrenza.....

    il brevetto sul trustrank illustra un algoritmo teorico che per essere applicato nel mondo reale necessità di alcune modifiche non da poco....

    al punto in cui siamo arrivati per quanto riguarda l'attività dei SEO restano solo poche semplici regole: aumento dei contenuti, dei BL, aggiungere dei link in uscita a qualche sito importante a tema, ottimizzare i fattori onpage di rilievo(title, h1, h2, alt tag, title nelle ancore, testo delle ancore, ecc...)


  • User Attivo

    allinanchor:key competitiva: prima pagina
    allintitle:key competitiva: prima pagina
    key competitiva: non esisto

    Non sò se è il posto giusto visto che la discussione è un altra, comunque vorrei sapere a cosa si riferiscono sono quelle 3 righe in calce postate da must.

    Se non è corretto il mio modo di chiedere spiegazioni per una frase letta ma non attinente al discorso gradirei delucidazioni su come fare


  • Super User

    l'unica cosa che dovresti correggere e' il quote. cosi' si capisce subito che citi qualcosa detto da qualcun'altro.

    ad ogni modo, guarda [url=http://www.giorgiotave.it/forum/viewtopic.php?t=1839]che bel post ha fatto kerouac3001 🙂

    :ciauz:

    e io rosico.


  • User

    Le intenzioni sembrano buone ma credo che la pratica sia ben differente e di difficilissimo utilizzo.
    1- in realtà ancora non sappiamo gli effetti di questo algoritmo; che cambiamenti avverranno e quanto saranno importanti ai fini di un posizionamneto.
    2- il fattore umano da non trascurare. mettere in campo un numero notevole di persone atte a controllare i siti spam rilevati dall'algoritmo sarà un'impresa non da poco e non so quanto commercialmente conveniente visto che google al momento rimane il leader indiscusso.

    A mio giudizio si sta dando troppa importanza a questo "nuovo" algoritmo

    Ciao Alex


  • Super User

    @alex685 said:

    Le intenzioni sembrano buone ma credo che la pratica sia ben differente e di difficilissimo utilizzo.
    1- in realtà ancora non sappiamo gli effetti di questo algoritmo; che cambiamenti avverranno e quanto saranno importanti ai fini di un posizionamneto.
    2- il fattore umano da non trascurare. mettere in campo un numero notevole di persone atte a controllare i siti spam rilevati dall'algoritmo sarà un'impresa non da poco e non so quanto commercialmente conveniente visto che google al momento rimane il leader indiscusso.

    A mio giudizio si sta dando troppa importanza a questo "nuovo" algoritmo

    Ciao Alex

    ma hai risposto ad un post vecchio di 3 anni? :mmm: