- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Article Marketing e Seo
-
Concordo con Everfluxx. Promuovere il sito non è illecito, ma tenere conto che certe cose sono risultato della promozione è logico.
Come la pubblicità off-line. Anche noi ci fidiamo di più di pareri che non abbiano del pubblicitario, no?
Stessa cosa dicasi di Link Popularity, link reciproci, ecc. Sono tutte cose positive e sicuramente non dannose, quando secondo Google sono naturali, perché servono a lui per stabilire la notorietà, l'attinenza, ecc. ecc.
Nel momento in cui perdono la loro naturalezza e Google se ne accorge, ecco che non gli sono più utili ed anzi dannose. Da cui, l'indifferenza o peggio il castigo.
-
scusami ma non c'è una contraddizione di fondo?
@fradefra said:
Stessa cosa dicasi di Link Popularity, link reciproci, ecc. Sono tutte cose positive e sicuramente non dannose, quando secondo Google sono naturali, perché servono a lui per stabilire la notorietà, l'attinenza, ecc. ecc.
Nel momento in cui perdono la loro naturalezza e Google se ne accorge, ecco che non gli sono più utili ed anzi dannose. Da cui, l'indifferenza o peggio il castigo.Uno scambio è praticamente sempre ben lungi di essere naturale soprattutto quando avviene, ed è il 100% dei casi praticamente, in una finestra temporale ristretta. Google deve stabilire i suoi criteri in base alla logica.
Quale miglior logica, a mio avviso, del mero deprezzamento degli inbound link scambiati e del calcolo naturale dei fattori onpage considerando gli outbound link scambiati come normalissimi link esterni (in base ai parametri attraverso i quali giudica gli outbound link non scambiati) calcolando normalmente il ranking?
-
Micky, sinceramente io non vedo contraddizioni in quello che ha scritto Fradefra.
Anyway... Che Google svaluti, fino ad annullarne il peso, gli inbound link acquistati o barattati con cani&porci è cosa arcinota.
Il calo nei ranking potrebbe essere unicamente riconducibile al ricalcolo della link pop del sito conseguente a questa svalutazione. Così come anche il calo della crawl rate e delle pagine indicizzate, che dal PageRank in gran parte dipendono. Verissimo.
Tuttavia. (E qui si entra nel regno delle convinzioni personali, o quasi).
Leggendo tra le righe dei post di Matt Cutts come ormai tutti siamo abituati a fare, io penso che l'intero sito venga "svalutato", e non solo i suoi back link. Chiamalo flag, chiamalo come ti pare, ma in presenza di attività "promozionali" contrarie alle guidelines (diciamo borderline spamming --o neanche tanto borderline, come nel caso dell'excessive reciprocal linking e di altre pratiche non propriamente innocenti), non ci si deve sorprendere se Google perde interesse nei confronti di un sito e comincia a trattarlo come una risorsa low-quality.
Soprattutto tenendo conto che basta molto meno per "cadere in disgrazia" e venire snobbati da Google da un giorno all'altro.
-
@Everfluxx said:
Leggendo tra le righe dei post di Matt Cutts come ormai tutti siamo abituati a fare, io penso che l'intero sito venga "svalutato", e non solo i suoi back link. Chiamalo flag, chiamalo come ti pare, ma in presenza di attività "promozionali" contrarie alle guidelines (diciamo borderline spamming --o neanche tanto borderline, come nel caso dell'excessive reciprocal linking e di altre pratiche non propriamente innocenti), non ci si deve sorprendere se Google perde interesse nei confronti di un sito e comincia a trattarlo come una risorsa low-quality.
Scusa secondo questa teoria sarebbe mostrosuamente arbitrario riammettere(?!) nelle grazie di Google un sito "flaggato" in questo modo. Non è che un ban o una penalizzazione (?) per scambio link è una punizione: è semplicemente un ricalcolo, e ripeto a mio avviso sarebbe un peso negativo scriteriato (e non ingiusto!) penalizzare un sito buono solo perchè il suo webmaster "si comporta male" pur continuando il sito a piacere agli utenti. Poi sia chiaro potrebbe benissimo essere che Google punisca e voglia far sapere in giro la cosa per scoraggiare queste attività artificiose di link building risolvendo il problema a monte, ma parlando di logica pura, a mio avviso, il ricalcolo è condivisibilissimo (con la relativa nuova impostazione del PageRank e della frequenza di spiderizzazione), una penalizzazione punitiva no di certo.
-
@micky said:
Scusa secondo questa teoria sarebbe mostrosuamente arbitrario riammettere(?!) nelle grazie di Google un sito "flaggato" in questo modo.
Perché?Non è che un ban o una penalizzazione (?) per scambio link è una punizione: è semplicemente un ricalcoloAllo stesso modo in cui Google ricalcola il peso dei link (scambiati o meno), ricalcola anche l'authority o hub score di una risorsa in base alla qualità dei link che riceve o dà. Una strategia di linking che non tenga conto di questo aspetto è una strategia suicida. Per questo oggi conviene concentrare i propri sforzi sui contenuti per (cercare di) acquisire link spontanei, e lasciare perdere definitivamente gli schemini da scambisti.
e ripeto a mio avviso sarebbe un peso negativo scriteriato (e non ingiusto!) penalizzare un sito buono solo perchè il suo webmaster "si comporta male" pur continuando il sito a piacere agli utenti. Poi sia chiaro potrebbe benissimo essere che Google punisca e voglia far sapere in giro la cosa per scoraggiare queste attività artificiose di link building risolvendo il problema a monte, ma parlando di logica pura, a mio avviso, il ricalcolo è condivisibilissimo (con la relativa nuova impostazione del PageRank e della frequenza di spiderizzazione), una penalizzazione punitiva no di certo.Non si tratta (solo) di "punire il webmaster che si comporta male" (per educarne cento), ma di distinguere i "voti" genuini da quelli barattati, e i siti che praticano o promuovono il voto di scambio da quelli che votano secondo coscienza. Questa distinzione fra "buoni" e "cattivi", che ad alcuni può apparire ingiustamente vessatoria, ha in realtà un fine molto pratico che è quello di preservare l'efficacia di PageRank e degli algoritmi basati sulla link analysis, rendendoli meno facilmente manipolabili.
-
@Everfluxx said:
Perché?
Allo stesso modo in cui Google ricalcola il peso dei link (scambiati o meno), ricalcola anche l'authority o hub score di una risorsa in base alla qualità dei link che riceve o dà. Una strategia di linking che non tenga conto di questo aspetto è una strategia suicida. Per questo oggi conviene concentrare i propri sforzi sui contenuti per (cercare di) acquisire link spontanei, e lasciare perdere definitivamente gli schemini da scambisti.
Non si tratta (solo) di "punire il webmaster che si comporta male" (per educarne cento), ma di distinguere i "voti" genuini da quelli barattati, e i siti che praticano o promuovono il voto di scambio da quelli che votano secondo coscienza. Questa distinzione fra "buoni" e "cattivi", che ad alcuni può apparire ingiustamente vessatoria, ha in realtà un fine molto pratico che è quello di preservare l'efficacia di PageRank e degli algoritmi basati sulla link analysis, rendendoli meno facilmente manipolabili.
Ma scusa ed io che ho detto finora :D?
(Quale miglior logica, a mio avviso, del mero deprezzamento degli inbound link scambiati e del calcolo naturale dei fattori onpage considerando gli outbound link scambiati come normalissimi link esterni (in base ai parametri attraverso i quali giudica gli outbound link non scambiati) calcolando normalmente il ranking?)
Ho parlato di "ricalcolo normale" compresa authority e PageRank dopo il deprezzamento degli scambi, quindi gli inbound link scambiati vengono annullati come valenza e gli outbound link vengono calcolati come outbound link normali, ossia se portano informazioni utili e sono coerenti, fattori positivi per il posizionamento, se sono a capocchia, accatastati, e tutte le diavolerie che Google conosce e applica, la naturale penalizzazione è il ricalcolo dei risultati.
Poi, Everfluxx, il fatto di scrivere buoni contenuti, di qualità, innovativi, esaustivi e cosa che nessuno dice mai in un contesto grafico professionale ed esteticamente valido è ampiamente assodato. Riassumendo il posizionamento dei motori di ricerca lato seo si può grossolanamente riassumere in organizzazione corretta di contenuti appropriati e popolarità del sito. Il fatto di acquisire backlink spontanei lo assumo di default. Solo che non è che capita di lavorare sempre per il sito della vita, dove il sito lo fai conoscere nei posti giusti massimizzando le probabilità di ricevere link. Quindi prescindere come traspare dal tuo post da qualsiasi forma di acquisizione di link artificiosa schematica (link che andrebbero ad attecchire sul miglior sito possibile e non su spam!) è mooolto limitante per un SEO. Essere SEO (white hat) significa avere una marcia in più per la produzione dei contenuti perchè si sa dove si deve andare a parare, si sa che si deve trattare un argomento in modo esaustivo e abbandonare quelli che tu chiami gli schemini da scambisti che portano dei link che comunque andrebbero ad attecchire su un buon sito, sarebbe un errore madornale per vari motivi:
- sono giochetti che finora hanno funzionato benissimo se fatti in modo decente
- puoi darsi che Google abbia tutti i brevetti pronti all'uso ma mancanza di risorse per applicare tutto tutto a tappeto concentrandosi sul vero spam.
- esistono degli schemi di scambio che non comportano l'uso di percorsi chiusi
-
Uno scambio link può essere naturale eccome! Non pensate solo al Web, esiste anche il resto del mondo.
Se io produco marmellata e la distribuisco a Milano tramite un rivenditore, è chiaro che sul mio sito metterò un link al sito del mio rivenditore milanese e sul sito del mio rivenditore milanese ci sarà un link al suo produttore (cioè io). Questo è un link reciproco assolumente naturale perché corrisponde ad una realtà vera. Questo tipo di link è quello che in origine secondo l'idea di Google doveva essere. Questo tipo di link, se fosse determinabile, non sarebbe mai penalizzato, anzi!
-
@fradefra said:
Uno scambio link può essere naturale eccome! Non pensate solo al Web, esiste anche il resto del mondo.
Se io produco marmellata e la distribuisco a Milano tramite un rivenditore, è chiaro che sul mio sito metterò un link al sito del mio rivenditore milanese e sul sito del mio rivenditore milanese ci sarà un link al suo produttore (cioè io). Questo è un link reciproco assolumente naturale perché corrisponde ad una realtà vera. Questo tipo di link è quello che in origine secondo l'idea di Google doveva essere. Questo tipo di link, se fosse determinabile, non sarebbe mai penalizzato, anzi!
se l'evoluzione dei motori tendesse all'infinito si. Ma dal momento che per quanto diabolici sono pur sempre macchine, una volta che hanno verificato che i link sono stati inseriti nella stessa finestra temporale e sono reciproci, lo stesso concetto di naturalezza per un motore, viene a decadere pur essendo per logica umana assolutamente legittimo e condivisibile.
-
@micky said:
Il fatto di acquisire backlink spontanei lo assumo di default.
Ottimo. Se "di default" riesci a fare in modo che un sito acquisisca BL spontaneamente, allora non avrai più bisogno di fare:- segnalazione a directory;
- scambio link a fini SEO;
- link buying;
- partecipazione a linking schemes.Poi -ovviamente- ogni tanto si fa anche dell'altro, a partire dal link baiting. Alcune attività finalizzate al link building comportano una certa percentuale di rischio. Fra queste, lo scambio link indiscriminato è fra le attività col rapporto rischi/benefici in assoluto più alto.
prescindere [...] da qualsiasi forma di acquisizione di link artificiosa schematica [...] è mooolto limitante per un SEO.I know.
abbandonare quelli che tu chiami gli schemini da scambisti che portano dei link che comunque andrebbero ad attecchire su un buon sito, sarebbe un errore madornale per vari motivi:
- sono giochetti che finora hanno funzionato benissimo se fatti in modo decente
- puoi darsi che Google abbia tutti i brevetti pronti all'uso ma mancanza di risorse per applicare tutto tutto a tappeto concentrandosi sul vero spam.
- esistono degli schemi di scambio che non comportano l'uso di percorsi chiusiSono in completo disaccordo su tutta la linea, ma a questo punto non pretendo di convincerti.
Solo un paio di consigli (visto che hai deciso di perseverare nelle pratiche scambistiche :D):
- non esagerare;
- cerca di non farti beccare.
-
Mi è venuto un dubbio: poniamo il caso che su un sito molto forte (come Punto Informatico ad esempio) compaia un articolo che parla di un sito web che ha per tema di informatica, con tanto di link.
Se il webmaster di quel sito volesse in qualche modo riprendere o sottolineare la citazione, o rispondere sul suo sito (che è molto meno forte) all'articolo, o comunque volesse per ragioni simili mettere un link alla pagina di PI che lo linka.... quello non sarebbe uno scambio di link: sarebbe sì un link reciproco ma non farebbe certo parte di una strategia pensata per aumentare il ranking.
In questo caso, come può fare il "malcapitato" webmaster per preservare integralmente la spinta che gli arriva dal link sul sito di punto informatico? Sarebbe costretto ad usare l'attributo Nofollow sul link di ritorno, è l'unica maniera?
Questa sarebbe comunque una violenza all'accezione originale dell'attributo Nofollow: il webmaster non è che non sarebbe sicuro di chi cosa linkando, anzi! Vorrebbe solo far sì che il link che riceve venga considerato per quel che vale, per intero. Magari non vorrebbe neppure rinunciare a tematizzare maggiormente la sua risorsa, attraverso quel link outbound, ma ovviamente tiene a che il pagerank trasmesso da quel backlink venga preservato.
[paranoia mode]
Assumendo che anche col Nofollow il motore il link lo vede e sa che c'è, non potrebbe in qualche modo "pensare" che il nofollow sia un "trucco" per uno scambio link vantaggioso solo per uno dei contraenti (o qualcosa del genere), e di conseguenza svalutare -anche solo un poco- il backlink ricevuto?
[/paranoia mode]Voi che fareste in questo caso, oltre a rinunciare a pubblicare in chiaro il link all'articolo? Davvero il compromesso più accettabile è il Nofollow?
P.s. a scanso equivoci: link in javascript, url stampati come stringa invece che come link e altri compromessi del genere tendo a non considerarle soluzioni adottabili.
-
e 3) Everfluxx?
edit: scusa Petro ho postato appena dopo
-
@petro said:
[paranoia mode]
Assumendo che anche col Nofollow il motore il link lo vede e sa che c'è, non potrebbe in qualche modo "pensare" che il nofollow sia un "trucco" per uno scambio link vantaggioso solo per uno dei contraenti (o qualcosa del genere), e di conseguenza svalutare -anche solo un poco- il backlink ricevuto?
[/paranoia mode]In questo caso credo che si potrebbero tentare dei test...
Comunque ragionando a livello puramente concettuale c'è una questione di fondo... che scelta avrà fatto Google nell'affrontare il "problema" scambio link?
Un algoritmica soluzione sistematica che a costo di mietere qualche vittima innocente, penalizzi qualunque link (link non documenti ) reciproco?
Se fosse cosi', perchè farsi segnalare i siti di scambio link dagli utenti? che bisogno c'era? perchè aprire una nuova area segnalazione abusi anche per questo tipo di situazioni?
mmm, credo (spero) quindi che resti un margine di possibilità che nel caso che descrivi NON vi sia penalità alcuna nel valore di quel link...** e che Google abbia fatto una scelta di minor impatto che tenda a colpire piu' "sul sicuro" : tipo ragionando in percentuale di link reciproci sul totale dei BL presenti, oppure sul numero assoluto, oppure appunto a seguito di segnalazioni e abuse report, oppure in casi particolari e ben circoscritti (scambio link da siti su stesso ip, stesso proprietario...)** ... anche perchè parliamoci chiaro, se io ho due siti completamente "scollegati" fra loro posso sempre usarne uno per mettere link e uno per riceverli... non mi pare esista un algoritmo per "scoprirmi"..no? quindi ci vorrebbe poco ad organizzarci tutti per una cosa del genere... credo quindi che la scelta degli ingegneri debba essere gioco forza stata un 'altra...
Ovviamente IMHO,
Nicola
-
@nbriani said:
mmm, credo (spero) quindi che resti un margine di possibilità che nel caso che descrivi NON vi sia penalità alcuna nel valore di quel link...** e che Google abbia fatto una scelta di minor impatto che tenda a colpire piu' "sul sicuro" : tipo ragionando in percentuale di link reciproci sul totale dei BL presenti, oppure sul numero assoluto, oppure appunto a seguito di segnalazioni e abuse report, oppure in casi particolari e ben circoscritti (scambio link da siti su stesso ip, stesso proprietario...)**
In effetti la tua è una ipotesi molto plausibile.... spero proprio che tu abbia ragione
Nel dubbio, il nofollow lo metterei comunque... a meno che non ci sia un altro modo. C'è?
-
@nbriani said:
... anche perchè parliamoci chiaro, se io ho due siti completamente "scollegati" fra loro posso sempre usarne uno per mettere link e uno per riceverli... non mi pare esista un algoritmo per "scoprirmi"..no? quindi ci vorrebbe poco ad organizzarci tutti per una cosa del genere... credo quindi che la scelta degli ingegneri debba essere gioco forza stata un 'altra...
Non penso la questione sia così semplice purtroppo Nicola. Questo lo puoi fare quando il numero di scambi è basso, altrimenti si vengono a creare nella rete web delle polarizzazioni che puntano il dito proprio contro di te :D!
se ho capito bene stai dicendo:
Caso peggiore: ho due siti A e B che assumiamo essere sconnessi ossia senza link tra di loro appartenenti a diversi proprietari. Se faccio uno scambio con un tizio in cui dico ti linko da A tu linkami B da C. Buona idea (per ora). Si viene a creare una triangolazione **A linka C che linca B. **
Immaginiamo ora che la rete web sia fatta di punti da A a Zinfinito che identificano le pagine web ( o macroscopicamente i siti web) e che io calchi
i segmenti tra i vari punti ogni qual volta ci sia un link. Ora immaginiamo proprio che si abbia un riscontro visivo della rete. Guarda caso il numero di linee che partono da A e che arrivano a B hanno le stesse caratteristiche nella tua affezionata big table; ne basta già una abbondantemente per stanarci: la finestra temporale di inserimento dei link: c'è sempre un link che parte da A e cha arriva a C in un certo intervallo temporale ristretto. Ora io non so se a livello computazionale un algoritmo del genere richieda parecchie risorse di calcolo, fatto sta che è possibile sgamarci matematicamente. Certo qualora il numero di siti coinvolti nelle triangolazioni cresca linearmente e parallelamente gli "scambi" si spalmano sui vari siti...
-
@micky said:
se ho capito bene stai dicendo:
Caso peggiore: ho due siti A e B che assumiamo essere sconnessi ossia senza link tra di loro appartenenti a diversi proprietari. Se faccio uno scambio con un tizio in cui dico ti linko da A tu linkami B da C.No ... hai capito male!
Sto dicendo che chiunque si puo' facilmente "organizzare" ad avere 2 siti ...
io A e B tu C e D e se io ti offro un link da A a C e tu mi rendi un link da D a B ... come cavolo faresti a beccarci?(questo è quello che intendo io per "triangolazione", anche se il termine è improprio...)
du iu anderstend?
Ci vediamo al raduno,
Nicola
-
@nbriani said:
No ... hai capito male!
Sto dicendo che chiunque si puo' facilmente "organizzare" ad avere 2 siti ...
io A e B tu C e D e se io ti offro un link da A a C e tu mi rendi un link da D a B ... come cavolo faresti a beccarci?(questo è quello che intendo io per "triangolazione", anche se il termine è improprio...)
du iu anderstend?
Ci vediamo al raduno,
Nicolaho capito bene invece animale :D! Infatti avevo scritto caso peggiore. Se c'è una corrispondenza temporale tra un link che parte da A ed uno che arriva a B ti sgamano eccome se il numero di scambi tende ad aumentare anche con C e D sempre diversi. E' il cosiddetto avvicinamento dei nodi web: i nodi che si avvicinano sono proprio A e B.
-
@micky said:
Se c'è una corrispondenza temporale tra un link che parte da A ed uno che arriva a B ti sgamano eccome se il numero di scambi tende ad aumentare anche con C e D sempre diversi. E' il cosiddetto avvicinamento dei nodi web: i nodi che si avvicinano sono proprio A e B.
no, scusa ma non ti seguo proprio... tu dici quindi che, siccome ci sono due pagine nel mondo una che mette un link verso un sito qualsiasi e un altra che lo riceve da un altro sito qualsiasi, se questo accade "spesso" nello stesso periodo... allora google se ne accorge e collega quei link come scambio link?????? a me pare un tantinello esagerato, visto il numero di link nuovi che trova continuamente in miliardi di doc che indicizza... o no?
-
io sto dicendo che se il nella prima settimana di Aprile 2006 un link parte da A appartenente al sistema isolato (?)** a** (includente la coppia A B) e nella stessa settimana arriva a B da un sito apartenente al sistema isolato isolato b (composto da C e D) (che peraltro sono sicurissimamente connessi tra di loro... e anche se non lo sono subiscono lo stesso processo di avvicinamento dei nodi) e sistematicamente per qualcosa che parte da A arriva una roba da un sistema isolato **S **generico, se il numero di volte n che si effettua l'operazione tende ad infinito, i nodi A e B subisono il processo di avvicinamento e anche il motore tende ad identificarli come **un unico sistema AB **con tutte le conseguenze del caso.
-
insisto, capisco cosa dici ma insisto...
se io ho un sito su di un server negli stati uniti con una sua serie di link e una sua vita propria e un altro in italia con tutta un altra serie di link ...mi dici perchè dovrebbero essere nello stesso "sistema isolato" ? oppure pensi che google tenga traccia degli IP dei webmaster che si collegano alle pagine???
-
@nbriani said:
insisto, capisco cosa dici ma insisto...
se io ho un sito su di un server negli stati uniti con una sua serie di link e una sua vita propria e un altro in italia con tutta un altra serie di link ...mi dici perchè dovrebbero essere nello stesso "sistema isolato" ? oppure pensi che google tenga traccia degli IP dei webmaster che si collegano alle pagine???
anche e chissà cos'altro ancora... ecco LA citazione:
"Micky scrive:
anche se dubito di sfuggire, certo non è che Google è la NASA
Micky scrive:
o meglio ha un limite di calcoloLow Level scrive:
Google è fornitore della NASA. La NASA non ce la faceva ed ha chiesto aiuto a Google perché possiede il supercomputer più grande del mondo."
:D... Low perdonami non ho resistito
Comunque le mie considerazioni vertevano su modelli puramente matematici che messi in AND con i dati di cui Google o un motore dispongono, sono un ottimo strumento a disposizione per sapere vita, morte e miracoli di un sito web e delle sue interconnessioni.
Prendiamo un sito A e un sito B distinti con tutto il loro pacco di link disgiunti ecc.
chiedo a varie coppie di Ci e Di di fare il giochetto dell'incrocio di link.
Dopo n scambi per n che tende ad infinito un motore assimila A e B ad AB.
Perchè mi dirai tu? Per un processo di carattere logico ricorsivo in cui dati due siti totalmente sconnessi posso individuare una coppia di siti debolmente connessi tali che posso creare un ponte ipertestuale tra i 4 siti. Se applico questo procedimento in maniera estesa considerando il web come una serie di punti interconnessi, le coppie che si avvicinano data una condizione iniziale, che è la fotografia che un motore ha del web, sono le coppie desiderate. Applicando la ricorsione ad ogni ricalcolo della vicinanza, ogni qual volta un motore si accorge di vicinanze tra i nodi con un certo grado di pendenza della curva di avvicinamento e tale avvicinamento è, guarda caso, sempre bidirezionale e magari accentuato ad ogni aggiornamento, per induzione si può dire quali coppie di siti andranno a convergere all'infinito. Per le triple, quadruple n-uple di siti la complessità dell'algoritmo cresce in maniera esponenziale, ed è qui che deve concentrarsi il nostro studio