- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- links non a tema ... bannato
-
@must said:
chiaramente la mia era una esagerazione (a qualcuno piace chiamarla iperbole)
ad ogni modo, il ban è a mio avviso un sintomo di debolezza del motore di ricerca. dare valore 0 (o cmq molto basso) ad un link "fatto apposta per alzare il pagerank" invece è un segno di forza. e questo è uno dei tanti motivi che fanno di google il migliore motore di ricerca oggigiorno (o il meno peggio, se preferite).
concordo
-
-
Da quanto emerso il problema riguarderebbe lo scambio link fuori tema.
http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/22888-links-non-tema-bannato.html#post174406
http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/22708-live-com-ban-per-scambio-link.html
-
Credo che il limite di questa situazione sia come definire l'ambito di applicazione.
Mi spiego meglio: è indubbio che se su un sito che tratta di macchine agricole compaiono 100 link a siti di incontri, annunci erotici e vendita di cartucce per stampante siamo molto probabilmente di fronte ad un caso di scambio link.
E' altrettanto indubbio che definire il tema di siti come repubblica.it (per fare un esempio clamoroso) sia pressochè impossibile.
Un sito che tratti di lifestyle, ad esempio, avrà articoli e link sulla moda, l'arredamento, i viaggi, le macchine di lusso, i gioielli, il golf... è ovvio che in una situazione come questa quello che può fare un buon motore di ricerca è "pesare" piò o meno i link in uscita ed attribuirgli valore solo se sono a tema, ma non certo bannare il sito stesso se ritiene che invece a tema non siano.
Se le premesse di Live.com per ilò "sorpasso" a Google sono queste, credo che i due ragazzacci avranno ancora più soldi per arredare il loro nuovo 747...
-
Io mi meraviglio di una rivista autorevole come Punto Informatico che scrive un articolo su quello che racconta uno sconosciuto che si è appena iscritto ad un forum per raccontare la sua vicenda.
Con tutte le leggende metropolitane che circolano su Internet non mi meraviglierei se questa fosse una balla, in fondo le leggende nascono così, uno sconosciuto dice, l'altro riporta, poi mi ha detto un mio amico che, si dice che, tutti dicono che, è una verità assodata che
ci sono 7 donne per ogni uomo
gli spinaci contengono tanto ferro
la masturbazione fa diventare ciechi
-
@RockyMountains said:
Io mi meraviglio di una rivista autorevole come Punto Informatico che scrive un articolo su quello che racconta uno sconosciuto che si è appena iscritto ad un forum per raccontare la sua vicenda.
Con tutte le leggende metropolitane che circolano su Internet non mi meraviglierei se questa fosse una balla, in fondo le leggende nascono così, uno sconosciuto dice, l'altro riporta, poi mi ha detto un mio amico che, si dice che, tutti dicono che, è una verità assodata che
ci sono 7 donne per ogni uomo
gli spinaci contengono tanto ferro
la masturbazione fa diventare ciechi
... he si, è vero anche ciò che dici ...
-
Se i link dati non a tema provocassero un ban allora le directory morirebbero o sbaglio?
Un' altra domanda; ma se registro il mio sito di pesci in una dir ma in una categoria dove sono raccolti siti di pesce... può considerarsi un link a tema?
-
@Schiappa said:
Se i link dati non a tema provocassero un ban allora le directory morirebbero o sbaglio?
Un' altra domanda; ma se registro il mio sito di pesci in una dir ma in una categoria dove sono raccolti siti di pesce... può considerarsi un link a tema?
non credo che i siti che compongono una directory rientrino nella categoria di links ... casomai i links ai siti partner nella index si ...cmq non volevo creare allarmismo inutile, si sta parlando di un articolo apparso su PI che tra parentesi si riferisce a Live Search di Microsoft non a google e non è nemmeno sicuro che sia veritiero al 100% :bho:
siamo qui per stimolare una sana riflessione sul tema, non per fare inutili allarmismi:)
-
@Schiappa said:
Se i link dati non a tema provocassero un ban allora le directory morirebbero o sbaglio?
Si infatti, quello che penso anch'io, almeno la pagina principale dovrebbe morire, così come quella di tutti i portali generalisti, per esempio nella home page di yahoo http://it.yahoo.com/ ci sono link relativi a oroscopo, giochi, finanza, notizie, spettacolo, incontri, sport, musica, salute, cinema, ecommerce, marketing, ...
insomma come la rai, di tutto di più, e solo per questo dovrebbe essere bannato
-
@sughero3 said:
non credo che i siti che compongono una directory rientrino nella categoria di links ... casomai i links ai siti partner nella index si ...
non avevo letto questo post, insomma si magari potrebbe fare una distinzione fra link interni ed esterni, ma basterebbe allora che nella home page della directory comparisse una lista degli ultimi siti inseriti o recensiti e scatterebbe lo stesso l'espulsione.
-
@RockyMountains said:
non avevo letto questo post, insomma si magari potrebbe fare una distinzione fra link interni ed esterni, ma basterebbe allora che nella home page della directory comparisse una lista degli ultimi siti inseriti o recensiti e scatterebbe lo stesso l'espulsione.
ma io concordo ... credo che situazioni come quella descritta su PI siano dei "casi limite" dove un sito non generalista e ben targettizzato ha in index 100 links a siti non a tema ... ma anche in questo caso non vedo gli estremi per un ban .. il web si regge sui links :bho:
-
Riporto una sensazione personale, non ci metto la mano sul fuoco ma 4 dita tutte.
Ipotizziamo di aprire contemporaneamente una cinquantina di siti omogenei, per esempio degli spam engine, portali o doorway, seri o come preferite.
Ipotizziamo che solo live.com possa accedere a questi siti, questo affinche' il "test" assuma un senso unicamente nei confronti di questo motore.
Ipotizziamo ora che questi 50 siti siano lincati tra di loro, nessun link reciproco ma certamente un grosso link network.
Ora, in ultimo, ipotizziamo di sorteggiare 10 siti dei 50 e su questi mettere della pubblicita' Adsense, diciamo l'account Adsense A.
Sui rimanenti 40 mettereno sempre Adsense ma con un numero di account differente, diciamo l'account Adsense B.
Ricapitoliamo, 10 siti con account Adsense A e 40 siti con account Adsense B.
Ora facciamo "macerare" il tutto a bot lento e dopo un paio di mesi andiamo a vedere cosa e' successo.
Succede che probabilmente i 10 siti con account Adsense A vi renderanno in assoluto (non in media) come o piu' dei 40 siti con account Adsense B.
Spiegazione.
Msn o live che dir si voglia, sembra tener conto e sfruttare il numero di account Adsense all'interno di un sito.
E' il suo modo di "marcare" i network che utilizzano questa forma di pubblicita'.
I 10 siti A ricevono 40 backlink dal gruppo B, mentre il gruppo B di 40 siti riceve mediamente solo 10 backlink dal gruppo A.
Ne consegue che ogni sito A = 4 punti, sito B = 0,4 punti, perche' i link dello-dallo stesso network-numeroAdsense sono considerati nulli o quasi.
Questa "finezza" potrebbe non avere importanza per chi ha un solo sito, ma pensate a tutti i wm che ne hanno almeno un paio.
Usando Adsense e' inutile avere server diversi, usare owner diversi per ogni sito, classi di ip diverse e via discorrendo.
Adsense marca un sito od un gruppo di piu' siti in modo univoco e rende vano ogni genere di link da e verso siti appartenenti-marcati dallo stesso account Adsense.
E se questa situazione la sfrutta msn....
Questo non vale perche' Adsense e' brutto e cattivo, ma perche' e' molto usato. Sicuramente in futuro la stessa cosa avverra' (sempre che gia' non succeda) anche per altri programmi AD molto forti sul mercato.
Per ovviare a questa situazione dobbiamo imparare-sforzarci-operare in modo nuovo, dando un taglio netto con il passato.
Google soprattutto, con il suo pr (geniale, ma anni fa) ha condizionato il mondo seo verso la ricerca del consenso da parte degli altri wm, insomma verso la costante ricerca di back link spontanei o meno.
Oggi i seo ragionano pressapoco tutti cosi': se non ho contenuto originale, se non ho un sito ottimizzato, se non ho backlink spontanei allora sono fottuto.
Peccato che oggi, cosi' ragionando alla veloce, il seo non si soffermi a dare anche un giusto peso a questi 3 parametri.
Questo e' il divenire, siamo passati da un 0% di peso per il contenuto originale, 100% di ottimizzazione, 0% di peso per i backlink di 10 anni fa al 30% per il contenuto originale, 10% per l'ottimizzazione e 60% di peso per i backlink di qualche anno fa....
Ma le cose cambiano nel tempo, eccome se cambiano.
Prendiamo per esempio msn. Aprite un sito nuovo con un buon contenuto originale, ottimizzatelo un po', non lincatelo.
Fara' la muffa per alcuni mesi, magari per un anno, ma poi anche senza link esterni, se fornito di buon contenuto, andra' ai vertici.
Ragionateci su...
Se i motori nel tempo attribuiscono ai backlink sempre meno peso, come hanno potuto-possono "compensare" questo parametro con un altro od altri algoritmi di egual efficacia?
Parlando per esempio di msn, ho ipotizzato una sua-loro tecnica che definirei: controllo esterno di qualita' inversa.
Per farvi capire bene e' opportuno fare un passo indietro.
Da circa un paio d'anni mi sono appassionato naniacalmente di msn.
Premetto che come motore non mi piace molto, ma G mi aveva stufato (dopo anni che approfondisci un motore poi ti rompi) e di yahoo in verita' non ci ho mai capito assolutamente nulla (a parte qualche suo filtro di ban).Insomma, testa che ti ritesta pagine su pagine fatte ad hoc, ad uso e consumo di msn, a meta' di quest'anno ho raggiunto quasi la perfezione, tanto che in 15 giorni ho ottengo circa mezzo milione di accessi unici mirati-pesanti da msn, con solo una quindicina di siti "vergini".
Peccato che dopo esattamente 17 giorni msn mi ha castrato. Per 2 volte ho potuto verificare un ciclo di 17 giorni da partre di msn.
A questo punto ho iniziato a ragionarci su e a chiedermi come mai dei siti ideali per msn, dopo un paio di settimane fossero immancabilmente o bannati o retrocessi a bassa classifica.
La spiegazione piu' semplice e piu' logica e' che msn controllasse la qualita' delle sue serp attraverso l'uso che ne facevano i suoi utenti.
Come dire, ogni volta che un utente clicca un risultato di una serp e poi non torna a cliccarne altri vuol dire che e' stato soddisfatto da quella url-risultato e pertanto msn capisce che quella pagina in serp e' valida.
Detto fatto, in un mese di duro lavoro sviluppo con un mio amico-socio un software in grado di cliccare in modo assolutamente naturale solo le url dei miei siti, ovviamente in base ad un elenco di query predefinite.
Simulo la ricerca, lo scorrere delle serp, il passare da una pagina all'altra, timeout, esattamente come farebbe un utente intento a cercare qualcosa.
Uso centinaia di ip diversi, via proxy e non, cliccando centinaia di miei siti diversi, con una decina di software che girano in parallelo per ben 3 mesi di fila...
Nulla, non c'e' verso, i siti saliti ai primi posti poi dopo il solito ciclo scompaiono nell'oblio anche se cliccati costantemente. Ho "perso".
Poi capisco.
I motori non si possono permettere di premiare, ma solo di penalizzare.1000 utenti possono cliccare un mio risultato-url 1000 volte che questo non mi porta nessun beneficio!
Ma basta che un utente, dopo aver cliccato una url, poi torni indietro da quella url-pagina alla serp originale, grazie al back, e clicchi qualche altro risultato della serp per decretare una penalita' a chi essendo stato cliccato-scelto per primo non ha soddisfatto i suoi desideri.
Sono gli utenti a decretare il successo o meno, la posizione, nelle serp di ogni risultato-url.
Non possono far salire, ma possono far scendere.
Da qui il controllo esterno di qualita' (inversa).
La tendenza e' che i motori non partono da 0 ed aggiungono punti ma partono da 100 e levano punti, e questo varra' sempre di piu' anche per i back link.
Non sei ottimizzato allora meno 5 punti, non hai back link spontanei allora meno 20 punti, non hai testo originale allora meno 30 punti (numeri a caso), non soddisfi le query allora meno 40 punti, sei over ottimizzato allora meno 10 punti, hai troppi back link artificiali allora meno 40 punti, etc...
La grana e' che non e' facile capire-accettare la differenza tra sommare e sottrarre.
Il seo ragiona, che mi frega... che il motore sommi o che sottragga per me non cambia... se non ottimizzo, che perda poco o salga poco il risultato alla fine e' lo stesso... se ottimizzo perdero' meno o guadagnero' qualcosa, girala come vuoi la zuppa e' quella.
La differenza e' che se i motori sommano e tu sbagli allora non sali, se invece i motori sottraggono e tu sbagli allora sei bannato.
Non vi tedio oltre, ma a mio avviso i motori non associano un codice adsense ad un sito ma sempre e solo alla pagina che lo contiene.
Pertanto se avete un vostro network riservate per ogni vostro sito una o piu' pagine senza codice adsense, al solo scopo di lincare da li' altri vostri siti.
Nel dubbio fregatevene di autolincarvi anche se lo fate con tutte le accortezze.
I siti, al di fuori di quelli istituzionali, non hanno-ricevono praticamente mai link spontanei, e se li ricevono e' solo nell'arco di anni ed anni, ed i motori lo sanno perfettamente.
Se volete verificate con alexa vedrete come salvo i primi 50.000 siti al mondo gli altri ricevono pochi o nessun link. E come devrebbero comportarsi allora i motori... ignorare tutti gli altri siti non istituzionali ?
Il succo del discorso e' che se scaliamo l'ipotetica e presunta potenza dei link esterni, se ridimensionamo l'efficacia dell'ottimizzazione, quello che rimane e' il testo originale ed il controllo qualita' da parte degli utenti.
Per i contenuti non c'e' problema, per il ceqi attualmente e' impossibile alterare query ad alto coefficente di popolarita', ma per quelle minori si va a nozze.
Giusto per giocare a carte scoperte.
-
agoago, è sempre un piacere leggere un tuo intervento, si può essere d'accordo o meno, ma non è mai banale e fa riflettere ...
-
(mi sembra tutta una azzata) ... scusate il termine... volevo dire anch'io la mia
-
agoago io ne ho pensata una diversa dalla tua
Immaginate che un forum vuole farsi promozione e creano un utente con 6 post
http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/22708-live-com-ban-per-scambio-link.htmlPoi mettono un pochino di news e via
Ovviamente scherzo, nel senso che sarebbe troppo grave come episodio, non resta solo che aspettare una presa di posizione ufficiale da parte di MSN, a quella crederò a tutto
-
@agoago said:
Adsense marca un sito od un gruppo di piu' siti in modo univoco e rende vano ogni genere di link da e verso siti appartenenti-marcati dallo stesso account Adsense.
A questo non ci avevo mai pensato, si adsense (ma anche in minor misura tradedoubler, e tantissimi altri) tramite il suo id fornisce una specie di impronta digitale del proprietario, e chiunque dotato di spider potrebbe tracciare una mappa dei possidenti terrieri del web.
Non mi convince tanto che lo utilizzi come hai detto, di più sulle conclusioni, comunque per me manca un ingrediente, non so msn, ma google ne tiene conto:
il comportamento dell'utente all'interno della serp e forse pure nel sito grazie ad adsense e a tutti gli strumenti che generosamente regala agli utenti.@giorgiotave said:
Immaginate che un forum vuole farsi promozione e creano un utente con 6 post
http://www.giorgiotave.it/forum/posi...mbio-link.html
Poi mettono un pochino di news e via
Ovviamente scherzo, nel senso che sarebbe troppo grave come episodio, non resta solo che aspettare una presa di posizione ufficiale da parte di MSN, a quella crederò a tuttoehhe, mah!?
Magari un fondo di verità c'è, ma alla fine si scopre, per esempio, che quello è il webmaster di una link farm, o che è sparito da msn per motivi ignoti e per attirare attenzione si è inventato la letterà di microsoft, ecc.
si fa presto a ingigantire.
-
RockyMountains scrive:
"...non so msn, ma google ne tiene conto:
il comportamento dell'utente all'interno della serp e forse pure nel sito grazie ad adsense e a tutti gli strumenti che generosamente regala agli utenti."Un distinguo. Anche a mio giudizio G ha creato servizi mirati proprio a identificare-capire chi faccia cosa, ma non ho ri-prove del fatto che G monitorizzi l'uso delle proprie serp al fine di usufruire-sfruttare un controllo di qualita' prodotto dagli utenti.
Magari gli bastano i servizi sopra accennati, a partire dalla tb.
Viceversa mi sono convinto che live.com utilizzi questa tecnica, tecnica che ritengo di una logica-utilita' aberrante.
Giorgio invece non ho capito cosa intendi, non che non condivido, ma proprio che non capisco quando accenni ai 6 ipotetici post su un forum, spiega bene!
-
Ciao Ago bentornato
Un controllo di qualità inversa come quello che descrivi non rendererebbe facile (fin troppo facile) la penalizzazione dei siti concorrentì mercè l'utilizzo di un software come quello che hai messo a punto tu, con la sola differenza di essere pensato per selezionare i siti scomodi dalle serp che interessano e tornare indietro velocemente?
-
@agoago said:
ma non ho ri-prove del fatto che G monitorizzi l'uso delle proprie serp al fine di usufruire-sfruttare un controllo di qualita' prodotto dagli utenti.
La prova c'è: cerca onmousedown nell'HTML delle SERP di google.
-
Non credo ai link a tema: per me è una leggenda metropolitana. Fornitemi esempi convincenti, perché nella mia esperienza personale, vi garantisco che nella mia società i siti che gestiamo, ricevono anche tantissimi link "out topic". Addirittura, certe volte mi è anche capitato di vedere alcuni tentativi di ppenalizzazione per un paio dei nostri siti: incrementi micidiali di link da siti russi, cinesi, con dialer, .... Il risultato? Miglioramento complessivo per tutte le chiavi. Vi riferite alla label dei link? Se per esempio possiedo una pagina web, posizionata per la chiave "peppina" ed un mio concorrente volesse danneggiarmi investendo in decine o centinaia di link con la chiave "giuseppina", l'unica conseguenza sperimentalmente dimostratata è che:
- Aumento il pagerank
- migliro la posizioneper "peppina" (per l'incremento di pr)
- miglioro il mposizionamento con "giuseppina"
- scopro nuove pagine pen posizinate (per l'incremento di pr)