• User

    Grazie Marta, ora ho capito meglio!
    In pratica secondo te è una questione di proporzione tra link scambiati tra una rete e link ricevuti dall'esterno... quindi ti allinei al suggerimento di Valerio Notarfrancesco che, fintanto che non ho molti backlinks da altri siti, mi conviene tirar via il menù, immagino...

    Chissà a questo punto, partendo dal tuo concetto di proporzione, se il numero di blog di una rete influisce positivamente o negativamente rispetto al numero di backlinks da collezionare per non venire penalizzati?
    Mi spiego: gli esempi che tu hai fatto NON sono strutturalmente come il mio in nessuno dei due casi:

    caso A che citi: Blogger viene linkato in alto nella barra da ogni blog della sua rete. Vero, ma è uno schema:
    A linka X
    B linka X
    C linka X
    Perché il blog di tizio NON linka anche a TUTTI gli altri blog di blogger!

    caso B che citi: se per sidebar intendi i blog amici, non hanno neppure in questo caso la struttura a isola ma questa:
    A linka B, C, D
    B linka E, F, G
    C linka H, I, L
    Nel senso che sì, alcuni amici li si condivide, ma saranno rarissimi 2 blog che hanno tutti GLI STESSI amici precisi e identici e nessuno di più, quindi sicuramente non ne troviamo 3, figuriamoci 9...

    Questo anche nello schema C, cioé tenendo in conto che ogni blog linka sempre a X (il portale, ad es blogspot), perché X ha un numero elevatissimo di 'link amici' cioé tutti i blog della sua rete.

    Inoltre, per la cronaca, ho appena scoperto, seguendo il tuo ragionamento, che blogger e blogspot sono la stessa blog community e... FANNO PARTE DI GOOGLE.
    Quindi almeno loro sicuramente non hanno problemi di blackhat...

    Ma quindi secondo te, se io ho 9 siti interlinkati l'uno con tutti gli altri, quanti diversi backlink ciascuno dovrebbero avere per tenere buono il Cerbero Google?
    Per dire... 9 link esterni differenti ciascuno?


  • Super User

    @sognista said:

    il problema è che Google non guarda nel codice, non nella mia coscienza

    Ma certo che guarda alla tua coscienza, lo fa da anni! 🙂

    • I Quality Rater sono personale umano stipendiato per allenare il motore a riconoscere risultati di ricerca migliori e siti di alta o bassa qualità sulla base di considerazioni umane, successivamente trasposte in combinazioni dei segnali tecnici che il motore di ricerca monitora costantemente.
    • L'intera caccia alle streghe degli ultimi anni sulla compravendita di link ha avuto l'obiettivo di individuare proprio gli intenti dietro la nascita di un link. Un link, di per sé, non è ne buono né cattivo. A fare la differenza è l'intento per il quale è stato creato.
    • Il cloaking non è una tecnica sgradita da Google se la usi per intenti etici. Persino Google ti suggerisce di usarlo in specifici casi! (es: First Click Free)

    Lo spauracchio che ad essere punite sono le tecniche e non gli intenti se lo sono creati i SEO nella propria testa, ma è una convinzione malata 😄 oltre che una semplificazione eccessiva alla quale si ricorre in assenza di informazioni su come un motore di ricerca valuta realmente le risorse.

    Qualunque algoritmo di penalizzazione di un motore viene progettato in modo da evitare o minimizzare i "falsi positivi". Questa non è una teoria, è una conditio sine qua non per tutti gli informatici che devono sviluppare algoritmi volti a valutare scenari potenzialmente malevoli.

    Se il motore si rende conto che un algoritmo produce troppi falsi positivi, aggiusta il tiro modificando i parametri che lo regolano, per esempio abbassando un valore soglia o un peso della formula che incide sulla classificazione dell'oggetto valutato.

    Un motore di ricerca produrrebbe risultati scandalosamente cattivi se le proprie analisi si fermassero al codice delle pagine, così come un sistema giudiziario farebbe schifo se giudicasse automaticamente colpevoli tutti i possessori di armi, fermando la valutazione al solo possesso dell'oggetto.

    I network espliciti di domini non possiedono una valenza intrinsecamente positiva o negativa, stanne certo. Sul web ci sono sicuramente diversi portali con queste caratteristiche, eventuali loro problemi SEO possono essere ricondotti a parametri qualitativi (es: l'interlinking ha un senso per l'utente?), non all'interlinking in sé.

    Riassumendo: se un progettista pazzo di Google aggiungesse (unilateralmente e senza fare prima mesi di test in ambienti di sandbox) una regola assoluta che dice "Tutti i siti che si linkano in questo modo vanno considerati spam", perderebbe il posto di lavoro dopo pochi millisecondi. 😄 E poi lo perderebbe chi l'ha assunto. 😛


  • User Attivo

    Che qualche manciata di revisori controllino miliardi e miliardi di pagine la vedo dura.
    I controlli scattano su segnalazioni, non è che si mettono a navigare e controllare.
    Concordo in linea di massima con lowlevel e aggiungo che oltre la codice google analizza il comportamento dei visitatori e la storia del sito oltre che dove si trova e molti altri parametri.
    Fatto è che un insieme di siti palesemente chiuso in se stesso anche se con qualità di contenuti se la rischia ogni giorno...
    In bocca al lupo a chi sceglie questa strada.
    Ne ho visti network del genere fare pessima fine.

    La forza del posizionamento sta ancora nei link in entrata nonostante continui aggiornamenti: è stata la forza di Google da sempre e ancora lo sarà a lungo: e a riguardo la cosiddetta link diversity (tra cui IP, hosting, geo locazione, anchor, owner...) gioca in peso notevole.


  • Super User

    @marta_de_angelis said:

    Che qualche manciata di revisori controllino miliardi e miliardi di pagine la vedo dura.

    No, aspetta, nessuno ha detto che il personale lavori in quel modo, non controllano a mano miliardi di pagine. :tongueout: Funziona in un altro modo, cerco di spiegarlo meglio di come ho fatto nel post precedente.

    Alcuni tipi di algoritmi di machine learning, per natura, devono beneficiare di alcune fasi di training, che consiste nella valutazione umana di un sottoinsieme di risorse, dalla quale poi l'algoritmo "apprende" estraendone criteri generali. I risultati della valutazione servono dunque all'algoritmo per identificare quali caratteristiche tecniche possiedono le risorse che sono state valutate positivamente o negativamente.

    Per esempio, Panda è un algoritmo che fa uso di una tecnica simile: son partiti da una manciata di valutazioni umane per tirar fuori regole generiche applicabili all'intero web (o quasi).

    Era questo a cui mi riferivo quando dicevo: "considerazioni umane, successivamente trasposte in combinazioni dei segnali tecnici". Si fa uso di personale per acquisire valutazioni umane (e qui rientra il "Google guarda alla tua coscienza"), poi da queste valutazioni vengono estratti criteri generali.

    @marta_de_angelis said:

    I controlli scattano su segnalazioni, non è che si mettono a navigare e controllare.

    In alcuni casi sì, dipende dal tipo di controlli a cui ti riferisci. Esistono due contesti diversi, gestiti in Google da due team diversi.

    (questa distinzione è più importante di quello che si crede, perché chi la ignora crede che Google proceda prevalentemente con criteri punitivi, quando il criterio principe è invece quello di individuazione della qualità, ma qui sto divagando...)

    Nel contesto della valutazione della qualità dei risultati, Google usa sia personale umano (sono i Quality Rater, personale che tra le altre cose "naviga e controlla" su indicazioni di Google) sia soluzioni algoritmiche. L'obiettivo principale delle valutazioni dei QR non è fare antispam, però se gli capita dello spam sotto il naso lo possono flaggare come tale.

    Nel contesto anti-spam, invece, Google usa sia soluzioni algoritmiche sia personale interno (che si occupa di valutare le segnalazioni antispam a cui facevi riferimento tu).

    In tutti e due i contesti, l'apporto umano c'è, ovviamente sfruttato nel modo che indicavo sopra e non per fargli valutare a mano l'intero web.

    Alcuni Quality Rater sono anche frequentatori di questo forum. Se il loro contratto gli permettesse di manifestarsi come tali in pubblico, potrebbero confermare. In assenza di ciò, le linee guida dei quality rater recentemente pubblicate da SEL forniscono una buona visione generale di quanto i quality rater fanno e come lo fanno.

    @marta_de_angelis said:

    Ne ho visti network del genere fare pessima fine.

    Sì, ne ho osservato tantissimi anche io. Qualità globale orrenda, contenuti carenti, inutili o superflui per gli utenti. Sono stati segati per quella ragione, non perché erano interlinkati. Interlinkare argomenti correlati e di qualità fa bene al network, interlinkare contenuti non correlati o spazzatura fa male al network.

    Nel caso dell'utente sognista, senza osservare il suo specifico caso non c'è modo di sapere se sta andando incontro a problemi di qualche genere, proprio perché di per sé l'interlinking non modifica di una virgola la natura o la bontà del sito/network.

    Al massimo si può dire che in molti contesti spammosi, gli spammer hanno in passato linkato i siti di un network in quel modo là. Ma del resto molti siti porno hanno sfondo scuro e dubito che ciò sia sufficiente a indurre Google a classificare come pornografici tutti i siti con sfondo scuro. :tongueout:


  • User

    Grazie a entrambi, forse non ho ancora trovato la soluzione ma sicuramente mi sto facendo una cultura su Google!

    In ogni caso, io provo a essere ottimista: metto il navigatore in fondo alla pagina e tutti gli interlink con il nofollow, così, spero, prima di sbattermi in 375 pagina (non che ora io stia molto meglio) chissà che forse qualcuno (QR) o qualcosa (Panda) daranno una scorsa ai contenuti e capiranno il succo della filosofia, che è appunto il tentativo di fare una sintesi generale della conoscenza, quindi DEVE collegare la storia alla fisica, alla sociologia, alla psicologia... Che però rimangono ambiti di conoscenza distinti.
    Sulla qualità dei contenuti non possoautogiudicarmi, però sono tutti assolutamente originali, perlomeno, citazioni a parte, e anche la maggior parte delle illustrazioni.
    Affidiamoci al buon senso...


  • Super User

    In ogni caso, io provo a essere ottimista: metto il navigatore in fondo alla pagina e tutti gli interlink con il nofollow

    Questo non significa essere ottimisti, significa essere terroristi. :bigsmile:


  • User

    Se il mio dominio ha contenuti validi, farò le mie valutazioni per decidere se tenere tutto il contenuto nello stesso dominio, o se suddividerlo in più domini.

    Idem quando si lavora in gruppo, si deciderà se avere tutto in un dominio o se suddividere in più domini (con ogni dominio intestato ad una persona diversa).

    Le azioni truffardine sono nel contenuto non certo nella forma.

    E' normale che ci siano link per saltare da un domini all'altro senza che ci debbano essere intenti malefini, né tanto meno penalizzazioni.

    @sognista: "per l'utente è comodo avere UN UNICO MENU' (pressoché identico) su tutte le pagine di ogni diverso sito, il che comporta che ogni pagina ha un elenco di 60 link che puntano agli altri domini e ne riceve altrettanti:"

    Qui non si è di fronte ad un problema di penalizzazione per i troppi link, il problema è chela navigazione dei siti è mal studiata se ogni pagina ha così tanti link sempre uguali. Non vedo come possa essere comodo avere così tanti link in ogni pagina.


  • User

    @ Lowlevel: terrorista nel senso 'paranoico che si fa troppi scrupoli' o nel senso che proprio mettere i nofollow potrebbe far scattare una perquisizione di arsenali nucleari sotto alla mia scrivania?
    intendto dire: sono precauzioni superflue o pericolose??? (azzo se sono paranoico...)

    @ Maxandre: ciao, benvenuto!
    hihihi, si certo, detta così pare una tortura, ma è un drop down menù, cioé è a tendine a scomparsa, per cui si suddivide prima in sole 6 sezioni (di cui una visivamente secondaria) che poi uno apre UNA sezione se gli interessa spaziare e lì si trova di solito 3/4 link o in un unico caso 11 linkettini (sono gli autori, Freud, Saffo, Wilde...)
    ma mi faresti un grande favore (che ricambio qualora ti servisse con grande piacere) se mi dicessi spassionatissimamevolmente se VERAMENTE è accettabile come 'peso' di link...
    non so se mi accettano un finto link... speriamo che nessuno mi sgridi... ehm: scibile it ... :lipssealed:


  • Super User

    @sognista said:

    @ Lowlevel: terrorista nel senso 'paranoico che si fa troppi scrupoli' o nel senso che proprio mettere i nofollow potrebbe far scattare una perquisizione di arsenali nucleari sotto alla mia scrivania?

    "Terrorista" riferito sia alle motivazioni per le quali prendi una scelta simile (dettate da timori ma prive di una connotazione logica né in linea con le stesse linee guida di Google) sia alla soluzione in sé, che prevede di relagare a fondo pagina una struttura di navigazione che i tuoi utenti trovano utile ed usano, più una presa di distanze nei confronti di altri contenuti di qualità che hanno la "colpa" (secondo standard tuoi, non certo dei motori) di essere ospitati su domini esterni. Come se usare domini diversi fosse un morbo.

    Prendere a calci l'usabilità di un sito e ridurre la sua qualità complessiva solo perché sei convinto che ci sia da qualche parte una regola che dica "tutti i link fatti a questo modo sono considerati spam", non è niente di positivo.

    Sono azioni indotte dal terrore e che , in base a quanto hai detto, hanno già prodotto decisioni terroristiche nei confronti del tuo sito, che ne abbasseranno la qualità.


  • User

    Grazie LowLevel,
    sei molto equilibrato e mi dai sempre da pensare. Hai una visione complessiva, mi piace.
    Per entrare nel merito, è nato un misunderstanding dovuto alla mia scarsa precisione: non cambierà assolutamente niente nell'usabilità, visivamente la fruizione sarà totalmente identica ad adesso, solo che abbasserei il CODICE (un layer div comandato via CSS) al fondo della pagina sorgente, giusto per sminuire il più possibile il valore dei link nofollow, sperando, come dire, che questo possa essere un indizio di buona fede?

    Se hai pazienza, vorrei allora salire su un livello di etica formale: se volessimo veramente seguire un comportamento corretto, la nostra onestà esigerebbe di non permettere che Google calcoli gli interlink perché sappiamo che l'autore è lo stesso, perciò non sono voti obiettivi.
    A me fa piacere avere un pochino di visite in più, ma le vorrei conquistare giocando pulito: non voglio essere penalizzato per ragioni estrinseche (come essere scambiato per un black hat) ma neppure mi interessa salire in classifica tramite mezzucci da baro. Del resto non la considero neppure una gara: a me basta essere trovato da chi può essere interessato a confrontarsi con una prospettiva complessiva, se poi sarò il decimo sito che apre o il primo che mi importa? Io quando cerco un contenuto non ho prevenzioni, apro siti brutti, belli, con pubblicità, tramite annunci, anche siti vecchi e non aggiornati. In libreria la massa sfoglia solo i libri in vetrina, con copertine in rilievo o citati da Volo o Costanzo. Quelli 'come me' se ne fregano, ho scoperto libri stupendi ingialliti accatastati su bancarelle nomadi...
    Sono convinto che, eticamente, il nofollow sia più corretto. Ciò che non so è se Google ragiona allo stesso modo, e mi pare di capire che tu lo escludi... Dove posso trovare una documentazione anche in inglese che mi dia un elenco dei casi in cui è lecito usare il nofollow? Ho cercato in giro ma i blog di wbmkt si concentrano solo sulla querelle se un nofollow fa acquistare una percentuale ridotta di PR o nessuna... Questione che interessa, giustamente, chi fa del traffico il suo mestiere, ma non certo un'intellettuale della domenica con il pallino delle sintesi :yuppi:

    p.s.
    certo che per uno che ama le sintesi... son bello prolisso hahhaahaha!!!


  • User Attivo

    Ciao di nuovo sognista,

    la discussione è interessante, e lo capiamo tutti dal numero e dalla qualità degli interventi letti finora (nei quali mi sono meravigliosamente perso tra ieri e stamattina :D").

    Pero' credo, in tutta franchezza e senza voler sminuire niente e nessuno, che le tue preoccupazioni siano eccessive, e dettate da scrupoli in sovrabbondanza: come nella vita reale, le insicurezze e le remore riescono spesso a provocare più problemi e blocchi mentali che altro, sebbene siano dettati dalla prudenza, che è un istinto sano per la sopravvivenza (e scusate tanto per la filosofia spicciola che vi propino alle 8 di mattina!!).

    Dopo aver assimilato il succo di quello che ci siamo detti, magari prova a pensare al tuo sito (con annessi e connessi mini-siti collegati che siano) in termini di semplice usabilità, rispondendo a domandine semplicissime e senza pensare affatto al ranking sui motori, del tipo:

    • la tipologia media di utente del mio sito è agevolata nel trovare contenuti?
    • i contenuti sono unici/di qualità/curati/ben presentati graficamente?
    • l'impatto e la navigabilità sono adeguati al tipo di sito?
    • l'utente riesce a trovare quello che desidera in due o tre click, oppure rischia di impazzire per quanti link ho inserito?
    • ecc ecc.

    Questo, ovviamente, serve solo a suggerirti che eccessivi calcoli sui link di per sè possono diventare deleteri, e distrarti dal site-intent, che è SEMPRE la cosa principale. Noto una piccola cosa di striscio, credo neanche troppo OT:se nonostante tutto temi seriamente che Google possa trattare male il tuo sito e lo rimuova dal suo indice, può essere la scusa per trovare fonti di traffico alternative che impongono una maggiore attenzione sulla qualità dei contenuti e siano content-oriented (Youtube, StumbleUpon, Twitter, Facebook e potrei continuare). 🙂


  • User

    Ciao Salvatore,
    si davvero, sono stato accolto in questo forum da persone di eccezionale calibro come Valerio Notarfrancesco e Low Level, che hanno saputo condensare nei loro interventi perle di saggezza che credo mi abbiano fatto capire, del cervello di Google in due giorni più di anni in cui lo usavo come semplice user. Oltre a te che mi hai dato una pista importante da seguire sui siti inglesi.

    Questo tuo ultimo schema web-editoriale usability oriented mi sembra ottimo (e il discorso si potrebbe allargare in opportuna sede rispetto alla definizione del diverso approccio di utenti diversi, più iconico o testuale, all'uso di link e citazioni che arricchiscono ma possono appesantire la fruizione, all'uso di pagine con brevi paragrafi ma che comportano più click complessivi o pagine lunghe che fanno risparmiare click, e alla semantica del web, cioé scegliere link lunghi e esplicativi o brevi e discreti, lasciare che l'utente visualizzi a grandezza libera o bloccare graficamente i testi con i CSS, prevedere che il sito possa essere "letto" per utenti non vedenti, creare o no percorsi a monorotaia come il precedente e successivo dei blog, sul quale nutro diverse obiezioni, duplicare i sistemi di navigazione, cosa che si fa sempre ma che rischia di infastidire e come non mettere mai parentesi come questa :quote: ma usare un popup o sistemi migliori per gli approfondimenti come fa il forum GT genialmente sulle parole chiave del testo ma in maniera diversa da come fa Wikipedia eccetera eccetera)
    ma tutto questo NON esclude anzi PREMETTE al rendersi trovabili.

    Diverso discorso in merito ai canali per essere trovabili, che dipendono dal target: io twitter non lo userei mai per cercare le date dell'unità d'Italia, Youtube implicherebbe avere/fare materiale video, Facebook per carità, è l'antitesi dell'approfondimento, è diventato ormai un medium generalista: le discussioni del forum GT sono INCONCEPIBILI in una pagina FB, dove prevale il customercare o una botta e risposta colloquiale e StumbleUpon non lo conosco, vado subito a scoprirlo, grazie del suggerimento)

    Inoltre credo che io abbia fatto nascere i miei siti seguendo scrupolosamente la tua scaletta (se vuoi farmi delle critiche puntuali scibile it chiedo scusa dello spam, dopo che lo hai visto posso eventualmente togliere questa parentesi dal post...)
    Con l'unica eccezione della doppia navigazione: siccome sono pagine statiche, per ora non ci sono tag cloud e neppure parole chiave a fondo pagina, che effettivamente potrebbero essere utili al lettore.

    P.s.
    StumbleUpon è molto interessante, una specie di facebook content oriented? L'idea mi piace, farò delle prove di ricerca, se trovo materiale interessante mi ci iscrivo)

    Riguardo al nofollow, mi rimangono i dubbi di prima cioè:

    1. non è più corretto deontologicamente evitare di indurre Google a gonfiare il PR?
    2. è ammesso (non consigliato: solo ammesso) il suo uso per degli interlink comuni a più siti che in realtà sono un solo sito?

  • User Attivo

    Ok ma farei dei distinguo: nell'uso quotidiano di Facebook (cazzeggio, insulti gratuiti, qualunquismo a frotte ed aggiunta di contatti di cui non ce ne importa un accidente) siamo d'accordissimo, ma ti garantisco che una pagina fan costruita in modo naturale può diventare un canale di traffico straordinario. StumbleUpon invece ti permette di trovare siti a tema in base alle tue preferenze ed alle categorie che specifichi, quindi diventa una calamita naturale per i visitatori.

    Sul nofollow:

    1. se ti riferisci al cosiddetto PR sculpting sì, un esempio classico è il nofollow sui link dei commenti o su quelli affiliati.

    2. tanto per dare una risposta secca: sì, per me è lecito al 100%, dato che la buona usabilità è un valore infinitamente più alto di qualsiasi teoria o best practice SEO.


  • User Attivo

    @salvatore79 said:

    Sul nofollow:

    1. se ti riferisci al cosiddetto PR sculpting sì, un esempio classico è il nofollow sui link dei commenti o su quelli affiliati.

    Il pr scuplting col nofollow è morto e sepolto da oltre due anni.
    (Dichiarazioni ufficiali di Matt Cutts).
    🙂

    1. tanto per dare una risposta secca: sì, per me è lecito al 100%, dato che la buona usabilità è un valore infinitamente più alto di qualsiasi teoria o best practice SEO.

    Una delle best practice seo è l'usabilità, per l'appunto.
    :smile5:
    Il nofollow non è più il nofollow di una volta, ragazzi.
    😉


  • User Attivo

    Ciao Sognista,

    premetto che parlo da assoluto ignorante degli argomenti che tratti nel tuo sito, ma l'ultimissimo problema è la suddivisione del contenuto su più domini, ed il relativo menu.

    Sono convinto che la suddivisione sia comunque stata fatta esattamente per il motivo che ora ti sta turbando e che ti ha spinto ad aprire questo post: cercare di aumentare la visibilità su google pensando di aumentare il ranking delle pagine semplicemente linkando siti diversi tra di loro. Google non è certo nato ieri...

    Il vero problema del sito, che comunque non avrei mai suddiviso su più domini per le poche pagine che presenta, è la mancanza di un filo conduttore chiaro anche dal punto della navigazione, che è proprio quello che permetterebbe a google di darti una giusta collocazione.

    La home page poi, quella che dovrebbe essere la pagina meglio strutturata di qualunque sito, mi è parsa proprio la peggiore, e tutti quei link la rendo poi assolutamente illeggibili.


  • User

    Domandina, gestico dei siti legati ad una concessionaria di auto, il quale possiede un sito primario e vari siti satelliti per alcuni modelli di auto di punta (hummer, corvette, camaro etc) i siti satellite hanno come link il primario ed alcuni anche di ritorno da questo.

    Ma veramente posso essere penalizzato per questa cosa?


  • User Attivo

    @marta_de_angelis said:

    Il pr scuplting col nofollow è morto e sepolto da oltre due anni.
    (Dichiarazioni ufficiali di Matt Cutts).
    🙂

    Il nofollow non è più il nofollow di una volta, ragazzi.
    😉

    Sì giustissimo, mi era sfuggita questa cosa importante: comunque il significato dell'attributo nofollow rimane quello di declassare i link in uscita ed io, nei limiti, ogni tanto ne faccio ancora uso.

    Poi ovviamente quando mi riferisco alla SEO da "condannare" penso a quella troppo concentrata sulla visione troppo incentrata sui link, che è un'esagerazione che ha portato alle follie delle link farm, e che ignora deliberatamente il concetto di usabilità, pensando soltanto a costruire più link possibili senza badare alla sostanza. C'è poi una versione buona di tutto ciò che non può che includere l'usabilità, per fortuna.

    Ovviamente dico questo solo per una questione di precisione e per evitare confusione ulteriore a sognista. 🙂


  • User Attivo

    @Kimikazee said:

    Domandina, gestico dei siti legati ad una concessionaria di auto, il quale possiede un sito primario e vari siti satelliti per alcuni modelli di auto di punta (hummer, corvette, camaro etc) i siti satellite hanno come link il primario ed alcuni anche di ritorno da questo.

    Ma veramente posso essere penalizzato per questa cosa?

    Non penso proprio, a meno che i tuoi siti abbiano dall'esterno solo quei link, ma dubito.


  • User

    No, quello principale ha 156 backlink in giro per il web.
    A parte dei media partners che hanno anche il link nella nostra
    pagina dedicata, e noi nella loro, il resto sono backlink naturali
    provenienti da forum e blog del settore.


  • User Attivo

    Vai tranquillo.
    🙂