• Super User

    @Schiappa said:

    Se i link dati non a tema provocassero un ban allora le directory morirebbero o sbaglio?

    Un' altra domanda; ma se registro il mio sito di pesci in una dir ma in una categoria dove sono raccolti siti di pesce... può considerarsi un link a tema?

    😮
    non credo che i siti che compongono una directory rientrino nella categoria di links ... casomai i links ai siti partner nella index si ...

    cmq non volevo creare allarmismo inutile, si sta parlando di un articolo apparso su PI che tra parentesi si riferisce a Live Search di Microsoft non a google e non è nemmeno sicuro che sia veritiero al 100% :bho:

    siamo qui per stimolare una sana riflessione sul tema, non per fare inutili allarmismi:)


  • User Attivo

    @Schiappa said:

    Se i link dati non a tema provocassero un ban allora le directory morirebbero o sbaglio?

    Si infatti, quello che penso anch'io, almeno la pagina principale dovrebbe morire, così come quella di tutti i portali generalisti, per esempio nella home page di yahoo http://it.yahoo.com/ ci sono link relativi a oroscopo, giochi, finanza, notizie, spettacolo, incontri, sport, musica, salute, cinema, ecommerce, marketing, ...
    insomma come la rai, di tutto di più, e solo per questo dovrebbe essere bannato :rollo:


  • User Attivo

    @sughero3 said:

    non credo che i siti che compongono una directory rientrino nella categoria di links ... casomai i links ai siti partner nella index si ...

    non avevo letto questo post, insomma si magari potrebbe fare una distinzione fra link interni ed esterni, ma basterebbe allora che nella home page della directory comparisse una lista degli ultimi siti inseriti o recensiti e scatterebbe lo stesso l'espulsione.


  • Super User

    @RockyMountains said:

    non avevo letto questo post, insomma si magari potrebbe fare una distinzione fra link interni ed esterni, ma basterebbe allora che nella home page della directory comparisse una lista degli ultimi siti inseriti o recensiti e scatterebbe lo stesso l'espulsione.
    ma io concordo ... credo che situazioni come quella descritta su PI siano dei "casi limite" dove un sito non generalista e ben targettizzato ha in index 100 links a siti non a tema ... ma anche in questo caso non vedo gli estremi per un ban .. il web si regge sui links :bho:


  • User Attivo

    Riporto una sensazione personale, non ci metto la mano sul fuoco ma 4 dita tutte.

    Ipotizziamo di aprire contemporaneamente una cinquantina di siti omogenei, per esempio degli spam engine, portali o doorway, seri o come preferite.

    Ipotizziamo che solo live.com possa accedere a questi siti, questo affinche' il "test" assuma un senso unicamente nei confronti di questo motore.

    Ipotizziamo ora che questi 50 siti siano lincati tra di loro, nessun link reciproco ma certamente un grosso link network.

    Ora, in ultimo, ipotizziamo di sorteggiare 10 siti dei 50 e su questi mettere della pubblicita' Adsense, diciamo l'account Adsense A.
    Sui rimanenti 40 mettereno sempre Adsense ma con un numero di account differente, diciamo l'account Adsense B.


    Ricapitoliamo, 10 siti con account Adsense A e 40 siti con account Adsense B.


    Ora facciamo "macerare" il tutto a bot lento e dopo un paio di mesi andiamo a vedere cosa e' successo.

    Succede che probabilmente i 10 siti con account Adsense A vi renderanno in assoluto (non in media) come o piu' dei 40 siti con account Adsense B.


    Spiegazione.

    Msn o live che dir si voglia, sembra tener conto e sfruttare il numero di account Adsense all'interno di un sito.

    E' il suo modo di "marcare" i network che utilizzano questa forma di pubblicita'.


    I 10 siti A ricevono 40 backlink dal gruppo B, mentre il gruppo B di 40 siti riceve mediamente solo 10 backlink dal gruppo A.

    Ne consegue che ogni sito A = 4 punti, sito B = 0,4 punti, perche' i link dello-dallo stesso network-numeroAdsense sono considerati nulli o quasi.


    Questa "finezza" potrebbe non avere importanza per chi ha un solo sito, ma pensate a tutti i wm che ne hanno almeno un paio.

    Usando Adsense e' inutile avere server diversi, usare owner diversi per ogni sito, classi di ip diverse e via discorrendo.

    Adsense marca un sito od un gruppo di piu' siti in modo univoco e rende vano ogni genere di link da e verso siti appartenenti-marcati dallo stesso account Adsense.

    E se questa situazione la sfrutta msn....


    Questo non vale perche' Adsense e' brutto e cattivo, ma perche' e' molto usato. Sicuramente in futuro la stessa cosa avverra' (sempre che gia' non succeda) anche per altri programmi AD molto forti sul mercato.


    Per ovviare a questa situazione dobbiamo imparare-sforzarci-operare in modo nuovo, dando un taglio netto con il passato.


    Google soprattutto, con il suo pr (geniale, ma anni fa) ha condizionato il mondo seo verso la ricerca del consenso da parte degli altri wm, insomma verso la costante ricerca di back link spontanei o meno.

    Oggi i seo ragionano pressapoco tutti cosi': se non ho contenuto originale, se non ho un sito ottimizzato, se non ho backlink spontanei allora sono fottuto.

    Peccato che oggi, cosi' ragionando alla veloce, il seo non si soffermi a dare anche un giusto peso a questi 3 parametri.


    Questo e' il divenire, siamo passati da un 0% di peso per il contenuto originale, 100% di ottimizzazione, 0% di peso per i backlink di 10 anni fa al 30% per il contenuto originale, 10% per l'ottimizzazione e 60% di peso per i backlink di qualche anno fa....

    Ma le cose cambiano nel tempo, eccome se cambiano.


    Prendiamo per esempio msn. Aprite un sito nuovo con un buon contenuto originale, ottimizzatelo un po', non lincatelo.

    Fara' la muffa per alcuni mesi, magari per un anno, ma poi anche senza link esterni, se fornito di buon contenuto, andra' ai vertici.

    Ragionateci su...



    Se i motori nel tempo attribuiscono ai backlink sempre meno peso, come hanno potuto-possono "compensare" questo parametro con un altro od altri algoritmi di egual efficacia?

    Parlando per esempio di msn, ho ipotizzato una sua-loro tecnica che definirei: controllo esterno di qualita' inversa.

    Per farvi capire bene e' opportuno fare un passo indietro.


    Da circa un paio d'anni mi sono appassionato naniacalmente di msn.
    Premetto che come motore non mi piace molto, ma G mi aveva stufato (dopo anni che approfondisci un motore poi ti rompi) e di yahoo in verita' non ci ho mai capito assolutamente nulla (a parte qualche suo filtro di ban).

    Insomma, testa che ti ritesta pagine su pagine fatte ad hoc, ad uso e consumo di msn, a meta' di quest'anno ho raggiunto quasi la perfezione, tanto che in 15 giorni ho ottengo circa mezzo milione di accessi unici mirati-pesanti da msn, con solo una quindicina di siti "vergini".

    Peccato che dopo esattamente 17 giorni msn mi ha castrato. Per 2 volte ho potuto verificare un ciclo di 17 giorni da partre di msn.


    A questo punto ho iniziato a ragionarci su e a chiedermi come mai dei siti ideali per msn, dopo un paio di settimane fossero immancabilmente o bannati o retrocessi a bassa classifica.

    La spiegazione piu' semplice e piu' logica e' che msn controllasse la qualita' delle sue serp attraverso l'uso che ne facevano i suoi utenti.

    Come dire, ogni volta che un utente clicca un risultato di una serp e poi non torna a cliccarne altri vuol dire che e' stato soddisfatto da quella url-risultato e pertanto msn capisce che quella pagina in serp e' valida.


    Detto fatto, in un mese di duro lavoro sviluppo con un mio amico-socio un software in grado di cliccare in modo assolutamente naturale solo le url dei miei siti, ovviamente in base ad un elenco di query predefinite.

    Simulo la ricerca, lo scorrere delle serp, il passare da una pagina all'altra, timeout, esattamente come farebbe un utente intento a cercare qualcosa.

    Uso centinaia di ip diversi, via proxy e non, cliccando centinaia di miei siti diversi, con una decina di software che girano in parallelo per ben 3 mesi di fila...

    Nulla, non c'e' verso, i siti saliti ai primi posti poi dopo il solito ciclo scompaiono nell'oblio anche se cliccati costantemente. Ho "perso".


    Poi capisco.
    I motori non si possono permettere di premiare, ma solo di penalizzare.

    1000 utenti possono cliccare un mio risultato-url 1000 volte che questo non mi porta nessun beneficio!

    Ma basta che un utente, dopo aver cliccato una url, poi torni indietro da quella url-pagina alla serp originale, grazie al back, e clicchi qualche altro risultato della serp per decretare una penalita' a chi essendo stato cliccato-scelto per primo non ha soddisfatto i suoi desideri.

    Sono gli utenti a decretare il successo o meno, la posizione, nelle serp di ogni risultato-url.

    Non possono far salire, ma possono far scendere.
    Da qui il controllo esterno di qualita' (inversa).


    La tendenza e' che i motori non partono da 0 ed aggiungono punti ma partono da 100 e levano punti, e questo varra' sempre di piu' anche per i back link.

    Non sei ottimizzato allora meno 5 punti, non hai back link spontanei allora meno 20 punti, non hai testo originale allora meno 30 punti (numeri a caso), non soddisfi le query allora meno 40 punti, sei over ottimizzato allora meno 10 punti, hai troppi back link artificiali allora meno 40 punti, etc...


    La grana e' che non e' facile capire-accettare la differenza tra sommare e sottrarre.

    Il seo ragiona, che mi frega... che il motore sommi o che sottragga per me non cambia... se non ottimizzo, che perda poco o salga poco il risultato alla fine e' lo stesso... se ottimizzo perdero' meno o guadagnero' qualcosa, girala come vuoi la zuppa e' quella.

    La differenza e' che se i motori sommano e tu sbagli allora non sali, se invece i motori sottraggono e tu sbagli allora sei bannato.


    Non vi tedio oltre, ma a mio avviso i motori non associano un codice adsense ad un sito ma sempre e solo alla pagina che lo contiene.

    Pertanto se avete un vostro network riservate per ogni vostro sito una o piu' pagine senza codice adsense, al solo scopo di lincare da li' altri vostri siti.

    Nel dubbio fregatevene di autolincarvi anche se lo fate con tutte le accortezze.

    I siti, al di fuori di quelli istituzionali, non hanno-ricevono praticamente mai link spontanei, e se li ricevono e' solo nell'arco di anni ed anni, ed i motori lo sanno perfettamente.

    Se volete verificate con alexa vedrete come salvo i primi 50.000 siti al mondo gli altri ricevono pochi o nessun link. E come devrebbero comportarsi allora i motori... ignorare tutti gli altri siti non istituzionali ?


    Il succo del discorso e' che se scaliamo l'ipotetica e presunta potenza dei link esterni, se ridimensionamo l'efficacia dell'ottimizzazione, quello che rimane e' il testo originale ed il controllo qualita' da parte degli utenti.

    Per i contenuti non c'e' problema, per il ceqi attualmente e' impossibile alterare query ad alto coefficente di popolarita', ma per quelle minori si va a nozze.

    Giusto per giocare a carte scoperte.


  • Super User

    agoago, è sempre un piacere leggere un tuo intervento, si può essere d'accordo o meno, ma non è mai banale e fa riflettere ...


  • User Attivo

    (mi sembra tutta una azzata) ... scusate il termine... volevo dire anch'io la mia


  • Community Manager

    agoago io ne ho pensata una diversa dalla tua 😄

    Immaginate che un forum vuole farsi promozione e creano un utente con 6 post 😄
    http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/22708-live-com-ban-per-scambio-link.html

    Poi mettono un pochino di news e via 😄

    Ovviamente scherzo, nel senso che sarebbe troppo grave come episodio, non resta solo che aspettare una presa di posizione ufficiale da parte di MSN, a quella crederò a tutto 🙂


  • User Attivo

    @agoago said:

    Adsense marca un sito od un gruppo di piu' siti in modo univoco e rende vano ogni genere di link da e verso siti appartenenti-marcati dallo stesso account Adsense.

    A questo non ci avevo mai pensato, si adsense (ma anche in minor misura tradedoubler, e tantissimi altri) tramite il suo id fornisce una specie di impronta digitale del proprietario, e chiunque dotato di spider potrebbe tracciare una mappa dei possidenti terrieri del web.
    Non mi convince tanto che lo utilizzi come hai detto, di più sulle conclusioni, comunque per me manca un ingrediente, non so msn, ma google ne tiene conto:
    il comportamento dell'utente all'interno della serp e forse pure nel sito grazie ad adsense e a tutti gli strumenti che generosamente regala agli utenti.

    @giorgiotave said:

    Immaginate che un forum vuole farsi promozione e creano un utente con 6 post
    http://www.giorgiotave.it/forum/posi...mbio-link.html
    Poi mettono un pochino di news e via
    Ovviamente scherzo, nel senso che sarebbe troppo grave come episodio, non resta solo che aspettare una presa di posizione ufficiale da parte di MSN, a quella crederò a tutto

    😄 ehhe, mah!?
    Magari un fondo di verità c'è, ma alla fine si scopre, per esempio, che quello è il webmaster di una link farm, o che è sparito da msn per motivi ignoti e per attirare attenzione si è inventato la letterà di microsoft, ecc.
    si fa presto a ingigantire.


  • User Attivo

    RockyMountains scrive:

    "...non so msn, ma google ne tiene conto:
    il comportamento dell'utente all'interno della serp e forse pure nel sito grazie ad adsense e a tutti gli strumenti che generosamente regala agli utenti."

    Un distinguo. Anche a mio giudizio G ha creato servizi mirati proprio a identificare-capire chi faccia cosa, ma non ho ri-prove del fatto che G monitorizzi l'uso delle proprie serp al fine di usufruire-sfruttare un controllo di qualita' prodotto dagli utenti.

    Magari gli bastano i servizi sopra accennati, a partire dalla tb.

    Viceversa mi sono convinto che live.com utilizzi questa tecnica, tecnica che ritengo di una logica-utilita' aberrante.


    Giorgio invece non ho capito cosa intendi, non che non condivido, ma proprio che non capisco quando accenni ai 6 ipotetici post su un forum, spiega bene!


  • Super User

    Ciao Ago 🙂 bentornato

    Un controllo di qualità inversa come quello che descrivi non rendererebbe facile (fin troppo facile) la penalizzazione dei siti concorrentì mercè l'utilizzo di un software come quello che hai messo a punto tu, con la sola differenza di essere pensato per selezionare i siti scomodi dalle serp che interessano e tornare indietro velocemente?


  • User Attivo

    @agoago said:

    ma non ho ri-prove del fatto che G monitorizzi l'uso delle proprie serp al fine di usufruire-sfruttare un controllo di qualita' prodotto dagli utenti.

    La prova c'è: cerca onmousedown nell'HTML delle SERP di google.


  • User Attivo

    Non credo ai link a tema: per me è una leggenda metropolitana. Fornitemi esempi convincenti, perché nella mia esperienza personale, vi garantisco che nella mia società i siti che gestiamo, ricevono anche tantissimi link "out topic". Addirittura, certe volte mi è anche capitato di vedere alcuni tentativi di ppenalizzazione per un paio dei nostri siti: incrementi micidiali di link da siti russi, cinesi, con dialer, .... Il risultato? Miglioramento complessivo per tutte le chiavi. Vi riferite alla label dei link? Se per esempio possiedo una pagina web, posizionata per la chiave "peppina" ed un mio concorrente volesse danneggiarmi investendo in decine o centinaia di link con la chiave "giuseppina", l'unica conseguenza sperimentalmente dimostratata è che:

    1. Aumento il pagerank
    2. migliro la posizioneper "peppina" (per l'incremento di pr)
    3. miglioro il mposizionamento con "giuseppina"
    4. scopro nuove pagine pen posizinate (per l'incremento di pr)

  • User Attivo

    Secondo me i link a tema valgono tanto quanto i link non a tema, io ho un blog che parla di miti medioevali, sono linkato da siti che parlano dallo sport alla cronaca, da siti non italiani e sono primo con quasi tutte le parole chiave.


  • User Attivo

    @beke said:

    Ciao Ago 🙂 bentornato

    Un controllo di qualità inversa come quello che descrivi non rendererebbe facile (fin troppo facile) la penalizzazione dei siti concorrentì mercè l'utilizzo di un software come quello che hai messo a punto tu, con la sola differenza di essere pensato per selezionare i siti scomodi dalle serp che interessano e tornare indietro velocemente?

    No Beke per un motivo semplice.

    Innanzitutto perche' non sarebbe possibile o diciamo economicamente conveniente penalizzare i concorrenti se il tuo sito non e' nelle primissime posizioni.

    Ammettiamo che sia ventuduesimo, che facciamo?
    Mandiamo migliaia di click per ogni sito sopra di noi e torniamo indietro ogni volta?
    Se anche lo facessimo dovremmo farlo per key a basso click, viceversa per key forti dovremmo fare decine di migliaia di cicli al giorno.

    Ma ammettiamo che il primo ciclo funzioni, sia efficace. Che succede?
    Succede che se funziona il nostro sito sale per dire primo, ma durera' poco nei primi posti per il semplice fatto che se non soddisfa alla grande quella key il motore lo buttera' giu' o lo bannera' in quanto non ci e' possibile spingerlo (come detto)... mentre i click sui risultati (dopo di noi), da parte degli utenti non soddisfatti, ci penalizzeranno.

    Insomma e' un sistema perfetto, potremmo fregare qualche concorrente sopra ma l'unica cosa che si otterra' sara' per noi di arrivare prima alla "prova di esame" e di non passarla perche' la pagina non e' all'altezza delle aspettative degli utenti.

    Di una semplicita' ed efficacia notevole.


  • Super User

    @grazitaly said:

    Secondo me i link a tema valgono tanto quanto i link non a tema, io ho un blog che parla di miti medioevali, sono linkato da siti che parlano dallo sport alla cronaca, da siti non italiani e sono primo con quasi tutte le parole chiave.
    no, non concordo, un link è sempre un link, ma quelli a tema hanno un peso maggiore ... su questo non ci sono dubbi :ciauz:


  • Super User

    @grazitaly said:

    Secondo me i link a tema valgono tanto quanto i link non a tema, io ho un blog che parla di miti medioevali, sono linkato da siti che parlano dallo sport alla cronaca, da siti non italiani e sono primo con quasi tutte le parole chiave.

    Non è cosi, Google ama sopratutto i link a tema.
    Nel tuo caso se parli del sito in firma, è perchè proprio sei in un sottodominio di MSN, ed ecco che ha un peso diverso di un semplice dominio o di dominio nuovo.
    Altrimenti se iniziavi da zero non avresti quei risultati di cui parli, poi dipende sempre dalla parola chiave che dici che sei primo quanta concorrenza cè ecc.ecc..


  • User Attivo

    @sughero3 said:

    no, non concordo, un link è sempre un link, ma quelli a tema hanno un peso maggiore ... su questo non ci sono dubbi :ciauz:

    Non ho pregiudizi .... diciamo a prori su i link a tema 🙂 ... Ma se non sbaglio stiamo parlando di aria fritta? Chi ha introdotto per primo il concetto di link a tema? È stato Matt Cutts, o stiamo parlando di mere congetture?

    Per la mia esperienza personale, per ogni link nuovo che punta una mia pagina riesco sempre ad osservare un beneficio complessivo nel posizionamento. Se poi parliamo solo della "etichetta" del link o come si chiama in inglese ("ancor text" ?) su quello non ci piove.


  • Super User

    @AlbertoSeo said:

    Non ho pregiudizi .... diciamo a prori su i link a tema 🙂 ... Ma se non sbaglio stiamo parlando di aria fritta? Chi ha introdotto per primo il concetto di link a tema? È stato Matt Cutts, o stiamo parlando di mere congetture?

    Per la mia esperienza personale, per ogni link nuovo che punta una mia pagina riesco sempre ad osservare un beneficio complessivo nel posizionamento. Se poi parliamo solo della "etichetta" del link o come si chiama in inglese ("ancor text" ?) su quello non ci piove.
    come detto un link è sempre un link e qundi porta sempre un beneficio (sia esso in termini di pr o altro) ma un link da un sito a tema ha sicuramente un peso maggiore di un link da un sito non in tema, ne ho avuto la riprova in alcuni siti nuovi di miei clienti ...

    non so se è stato Matt Cutts a parlare per primo di link a tema (ma ne dubito) ... da quando ho iniziato ad interessarmi di posizionamento (e quindi da oltre 5 anni) si è sempre detto che i links a tema sono i migliori, questo non significa affatto che gli altri links siano da buttare, tutt'altro ... ma a parità di pr, di qualità intrinseca del sito ecc... il link a tema ha un peso maggiore :ciauz:


  • User Attivo

    @angelweb said:

    Non è cosi, Google ama sopratutto i link a tema.
    Nel tuo caso se parli del sito in firma, è perchè proprio sei in un sottodominio di MSN, ed ecco che ha un peso diverso di un semplice dominio o di dominio nuovo.
    Altrimenti se iniziavi da zero non avresti quei risultati di cui parli, poi dipende sempre dalla parola chiave che dici che sei primo quanta concorrenza cè ecc.ecc..
    Nel mio caso come dici ha sicuramente un peso diverso rispetto ad un sito nuovo.
    Ora sono PR 0 per un cambio link avvenuto 2 mesi fa, e qui si nota la differenza tra PR e posizionamento
    Esempio : sono primo con la key "spaces live" su circa 1.110.000 pagine in italiano e 3° nel web.
    Sono 8° nel web con la key "cose".
    1° con la key "preziose"
    5° con la key "graziano"
    Ovviamete primo con "cose preziose"
    Avendo oltre 500 entrate da GG al giorno sono presente con altre key, anche se alla fine avendo un blog non mi servono.