- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- L'orco Link-exchange e l'incubo del back-link... Ma non eravamo in una Rete???
-
Mi riallaccio al discorso fatto da LowLevel: se i link servono, come mi sembra di capire, per via di un discorso di unico progetto ecc. per me non c'è davvero motivo di rimuovere nulla. credo da sempre che i principi di buona progettazione delle pagine vadano al di là della SEO, e siano un discorso fondamentalmente più "nobile", se vogliamo.
secondo me, quindi, anche a mettere molti link non c'è nulla di male, ovviamente se (e ripeto se) l'utente ne può trarre giovamento, se ci sono pertinenza, raggruppamenti ragionevoli e via dicendo: porto sempre l'esempio di alcuni blog anglofoni con curiosità, toplist, foto insolite ecc... che mettono il widget ai post simili nell'header, e per quanto sia una cosa anomala per un web designer è secondo me funzionale al tipo di sito che è "mordi e fuggi" (quindi non dovrebbero rischiare penalizzazioni, per questo).
-
Grazie a entrambi...
Ecco, adesso sono più confuso di prima :-DDD
@ Francesco
disattivare il navigatore generale temporaneamente e aspettare linkpopularity esterna 'naturale' è una tattica molto saggia, ma diminuisce l'appeal del network perché da analytics vedo chiaramente che molti utenti saltano volentieri da un sito all'altro e senza menù generale quelli che arrivano interessati alla sociologia e alla demografia, ad esempio, non saprebbero che esiste una sezione di storia contemporanea... Quindi adotterò sicuramente il tuo rimedio in extremis, cioé se proprio non trovo una soluzione che mi permetta di salvare la navigazione degli utenti tra siti distinti (ma tutti nell'ambito della cultura generale, cioé non ci sono prodotti, adsense, iscrizioni né altro sistema di guadagno) senza che Google sospetti che lo faccio per aumentare artificialmente il PR o offrire agli utenti contenuti diversi da quelli che cercano.@ Low Level
Il tuo ragionamento è sensatissimo, lo sottoscrivo in pieno, personalmente ho ovviamente interesse a che un utente interessato all'evoluzione degli ominidi venga invogliato anche a leggere le mie pagine di etologia e antropologia, per cui entra nel dominio cronistoria it e poi può darsi che voglia proseguire nel sito scibile it ... il problema è che Google non guarda nel codice, non nella mia coscienza
-
@ Salvatore: riesci a darmi un link di un sito inglese che ti è venuto in mente con widget di altri domini? Perché il problema è quando hai due domini e entrambi si linkano vicendevolmente e potrebbe darsi che i siti inglesi a cui hai pensato sono costruiti con il sito A e il sito B che linkano al sito C (che è quello che vedi con i widget anche A e B) ma non viceversa... e quindi evitano il "sospetto isola"...
@ Marta: sì, le mie pagine hanno dai 5 ai 15 link ad altri siti autorevoli, wikipedia, youtube, siti di filosofia... Ma il navigatore contiene link a 9 domini (cioé il dominio dove stai e altri 8 domini) di cui alcuni divisi nelle rispettive sezioni, per un totale di fino a 26 link a siti esterni che hanno fino a 26 link di ritorno.
Il fatto è che siccome il menù incriminato è uguale per ogni pagin di tutti i 9 domini, o lo tolgo tutto o lo lascio tutto, perché se il visitatore si trova un menù diverso a seconda della sezione / dominio in cui si trova si disorienterebbe...
Quindi se nessuno ha una soluzione più elegante che salvi capra e cavoli, cioé salvi navigazione multidominio e Google tranquillo, dovrò adottare il più drastico e doloroso rimedio di Francesco: separare tutti i siti l'uno dall'altro finché (e chissà in quanti ANNI, raga... io ricevo IN TOTALE 30 visite al giorno ... prima di avere popolarità.... hihihi a voglia!!!)
-
Non ho capito quello che vuoi dire sognista.
Io parlo di link in entrata.
Se Google vede che i tuoi siti ricevono link in entrata solo dai tuoi allora sono problemi.
-
@sognista said:
@ Salvatore: riesci a darmi un link di un sito inglese che ti è venuto in mente con widget di altri domini?
No, purtroppo non li ho salvati nei bookmark, se ci ricapito te li passo comunque... mi riferisco a blog tipo CollegeHumor (che pero' attualmente non ha questo tipo di struttura), che linkano direttamente (above the fold) contenuti simili, che siano di sottodomini o link esterni poco conta. Mi sorprenderebbe sapere che siti del genere abbiano avuto problemi per questo "difetto" strutturale, dato che soddisfano i loro utenti, sono visitati ecc ecc (magari hanno troppi ads ma questo è un altro discorso).
Visto che mi occupo spesso della struttura dei siti, posso anche aggiungere che non vado troppo a guardare la struttura dei link, se formano "link wheel" e cose del genere... ripeto, se i link servono ben vengano, in giro si vedono anche blog che linkano nell'header altri blog simili (tipo webring, insomma) e sono sempre ben posizionati.
A me sembra male piuttosto fare uso in modo malevolo di questi meccanismi, magari règolati a non esagerare sulla quantità, e concentrati sull'usabilità reale del sito che è SEMPRE essenziale.
-
Grande Salvatore79!!!
Scovati!!!
Dal tuo indirizzo ho trovato 2 network inglesi entrambi composti da 6 'portali' diciamo, di temi simili e struttura e grafica molto simile, che formano esplicitamente un network (lo scrivono proprio) e che quindi ognuno ha lo stesso navigatore che si trova negli altri domini, e il navigatore linka tutti i domini tra loro, quindi schema a isola.Malauguratamente LORO sembra che facciano i furbi, perché entrambi i 2 network hanno tutti e 6 i domini con diverso Ip, diverso hosting, diverso registrant e diverso owner! Manco un solo dato uguale a un altro nemmeno per sbaglio.
E' INTENZIONALE, non ho dubbi.
Non so però come sono posizionati nella serp di Google, so solo che sono presenti e con ricerche su misura vengono fuori in prima pagina.Riguardo al codice, invece... NULLA! tutto dofollow, e il menu comune spiattelato in bella mostra appena si apre la body! Unico particolare, il menù in entrambi i casi è fatto con l'elenco: <ul><li>
Quindi sono al punto di partenza, purtroppo, perché LORO fanno i furbi e per ora la stanno passando liscia, ma io, ingenuamente, ho tutti i domini normalmente registrati a mio nome sullo stesso server.
@ Marta: dalla tua frase "mandare backlink esterni alla tua isola" avevo capito che intendevi link dalle mie pagine a altri siti esterni al mio 'network' ma forse non ho capito molto bene...
-
Guarda ce ne sono migliaia di casi come quello da te descritto e anche senza bisogno di usare ip o altre cose diverse.
Osserva pure le catene di blog della stessa idea o brand con le barre in alto che linkano tutti i siti e anche all'interno nelle sidebar.
Ripeto, il problema nasce se il link che ricevono solno solo dai siti che compongono il network.
Se così fosse potrebbe casuare delle penalizzazioni per link farm.
(Non hai capito bene: intendevo dall'esterno del tuo network verso l'interno).
-
Grazie Marta, ora ho capito meglio!
In pratica secondo te è una questione di proporzione tra link scambiati tra una rete e link ricevuti dall'esterno... quindi ti allinei al suggerimento di Valerio Notarfrancesco che, fintanto che non ho molti backlinks da altri siti, mi conviene tirar via il menù, immagino...Chissà a questo punto, partendo dal tuo concetto di proporzione, se il numero di blog di una rete influisce positivamente o negativamente rispetto al numero di backlinks da collezionare per non venire penalizzati?
Mi spiego: gli esempi che tu hai fatto NON sono strutturalmente come il mio in nessuno dei due casi:caso A che citi: Blogger viene linkato in alto nella barra da ogni blog della sua rete. Vero, ma è uno schema:
A linka X
B linka X
C linka X
Perché il blog di tizio NON linka anche a TUTTI gli altri blog di blogger!caso B che citi: se per sidebar intendi i blog amici, non hanno neppure in questo caso la struttura a isola ma questa:
A linka B, C, D
B linka E, F, G
C linka H, I, L
Nel senso che sì, alcuni amici li si condivide, ma saranno rarissimi 2 blog che hanno tutti GLI STESSI amici precisi e identici e nessuno di più, quindi sicuramente non ne troviamo 3, figuriamoci 9...Questo anche nello schema C, cioé tenendo in conto che ogni blog linka sempre a X (il portale, ad es blogspot), perché X ha un numero elevatissimo di 'link amici' cioé tutti i blog della sua rete.
Inoltre, per la cronaca, ho appena scoperto, seguendo il tuo ragionamento, che blogger e blogspot sono la stessa blog community e... FANNO PARTE DI GOOGLE.
Quindi almeno loro sicuramente non hanno problemi di blackhat...Ma quindi secondo te, se io ho 9 siti interlinkati l'uno con tutti gli altri, quanti diversi backlink ciascuno dovrebbero avere per tenere buono il Cerbero Google?
Per dire... 9 link esterni differenti ciascuno?
-
@sognista said:
il problema è che Google non guarda nel codice, non nella mia coscienza
Ma certo che guarda alla tua coscienza, lo fa da anni!
- I Quality Rater sono personale umano stipendiato per allenare il motore a riconoscere risultati di ricerca migliori e siti di alta o bassa qualità sulla base di considerazioni umane, successivamente trasposte in combinazioni dei segnali tecnici che il motore di ricerca monitora costantemente.
- L'intera caccia alle streghe degli ultimi anni sulla compravendita di link ha avuto l'obiettivo di individuare proprio gli intenti dietro la nascita di un link. Un link, di per sé, non è ne buono né cattivo. A fare la differenza è l'intento per il quale è stato creato.
- Il cloaking non è una tecnica sgradita da Google se la usi per intenti etici. Persino Google ti suggerisce di usarlo in specifici casi! (es: First Click Free)
Lo spauracchio che ad essere punite sono le tecniche e non gli intenti se lo sono creati i SEO nella propria testa, ma è una convinzione malata oltre che una semplificazione eccessiva alla quale si ricorre in assenza di informazioni su come un motore di ricerca valuta realmente le risorse.
Qualunque algoritmo di penalizzazione di un motore viene progettato in modo da evitare o minimizzare i "falsi positivi". Questa non è una teoria, è una conditio sine qua non per tutti gli informatici che devono sviluppare algoritmi volti a valutare scenari potenzialmente malevoli.
Se il motore si rende conto che un algoritmo produce troppi falsi positivi, aggiusta il tiro modificando i parametri che lo regolano, per esempio abbassando un valore soglia o un peso della formula che incide sulla classificazione dell'oggetto valutato.
Un motore di ricerca produrrebbe risultati scandalosamente cattivi se le proprie analisi si fermassero al codice delle pagine, così come un sistema giudiziario farebbe schifo se giudicasse automaticamente colpevoli tutti i possessori di armi, fermando la valutazione al solo possesso dell'oggetto.
I network espliciti di domini non possiedono una valenza intrinsecamente positiva o negativa, stanne certo. Sul web ci sono sicuramente diversi portali con queste caratteristiche, eventuali loro problemi SEO possono essere ricondotti a parametri qualitativi (es: l'interlinking ha un senso per l'utente?), non all'interlinking in sé.
Riassumendo: se un progettista pazzo di Google aggiungesse (unilateralmente e senza fare prima mesi di test in ambienti di sandbox) una regola assoluta che dice "Tutti i siti che si linkano in questo modo vanno considerati spam", perderebbe il posto di lavoro dopo pochi millisecondi. E poi lo perderebbe chi l'ha assunto.
-
Che qualche manciata di revisori controllino miliardi e miliardi di pagine la vedo dura.
I controlli scattano su segnalazioni, non è che si mettono a navigare e controllare.
Concordo in linea di massima con lowlevel e aggiungo che oltre la codice google analizza il comportamento dei visitatori e la storia del sito oltre che dove si trova e molti altri parametri.
Fatto è che un insieme di siti palesemente chiuso in se stesso anche se con qualità di contenuti se la rischia ogni giorno...
In bocca al lupo a chi sceglie questa strada.
Ne ho visti network del genere fare pessima fine.La forza del posizionamento sta ancora nei link in entrata nonostante continui aggiornamenti: è stata la forza di Google da sempre e ancora lo sarà a lungo: e a riguardo la cosiddetta link diversity (tra cui IP, hosting, geo locazione, anchor, owner...) gioca in peso notevole.
-
@marta_de_angelis said:
Che qualche manciata di revisori controllino miliardi e miliardi di pagine la vedo dura.
No, aspetta, nessuno ha detto che il personale lavori in quel modo, non controllano a mano miliardi di pagine. Funziona in un altro modo, cerco di spiegarlo meglio di come ho fatto nel post precedente.
Alcuni tipi di algoritmi di machine learning, per natura, devono beneficiare di alcune fasi di training, che consiste nella valutazione umana di un sottoinsieme di risorse, dalla quale poi l'algoritmo "apprende" estraendone criteri generali. I risultati della valutazione servono dunque all'algoritmo per identificare quali caratteristiche tecniche possiedono le risorse che sono state valutate positivamente o negativamente.
Per esempio, Panda è un algoritmo che fa uso di una tecnica simile: son partiti da una manciata di valutazioni umane per tirar fuori regole generiche applicabili all'intero web (o quasi).
Era questo a cui mi riferivo quando dicevo: "considerazioni umane, successivamente trasposte in combinazioni dei segnali tecnici". Si fa uso di personale per acquisire valutazioni umane (e qui rientra il "Google guarda alla tua coscienza"), poi da queste valutazioni vengono estratti criteri generali.
@marta_de_angelis said:
I controlli scattano su segnalazioni, non è che si mettono a navigare e controllare.
In alcuni casi sì, dipende dal tipo di controlli a cui ti riferisci. Esistono due contesti diversi, gestiti in Google da due team diversi.
(questa distinzione è più importante di quello che si crede, perché chi la ignora crede che Google proceda prevalentemente con criteri punitivi, quando il criterio principe è invece quello di individuazione della qualità, ma qui sto divagando...)
Nel contesto della valutazione della qualità dei risultati, Google usa sia personale umano (sono i Quality Rater, personale che tra le altre cose "naviga e controlla" su indicazioni di Google) sia soluzioni algoritmiche. L'obiettivo principale delle valutazioni dei QR non è fare antispam, però se gli capita dello spam sotto il naso lo possono flaggare come tale.
Nel contesto anti-spam, invece, Google usa sia soluzioni algoritmiche sia personale interno (che si occupa di valutare le segnalazioni antispam a cui facevi riferimento tu).
In tutti e due i contesti, l'apporto umano c'è, ovviamente sfruttato nel modo che indicavo sopra e non per fargli valutare a mano l'intero web.
Alcuni Quality Rater sono anche frequentatori di questo forum. Se il loro contratto gli permettesse di manifestarsi come tali in pubblico, potrebbero confermare. In assenza di ciò, le linee guida dei quality rater recentemente pubblicate da SEL forniscono una buona visione generale di quanto i quality rater fanno e come lo fanno.
@marta_de_angelis said:
Ne ho visti network del genere fare pessima fine.
Sì, ne ho osservato tantissimi anche io. Qualità globale orrenda, contenuti carenti, inutili o superflui per gli utenti. Sono stati segati per quella ragione, non perché erano interlinkati. Interlinkare argomenti correlati e di qualità fa bene al network, interlinkare contenuti non correlati o spazzatura fa male al network.
Nel caso dell'utente sognista, senza osservare il suo specifico caso non c'è modo di sapere se sta andando incontro a problemi di qualche genere, proprio perché di per sé l'interlinking non modifica di una virgola la natura o la bontà del sito/network.
Al massimo si può dire che in molti contesti spammosi, gli spammer hanno in passato linkato i siti di un network in quel modo là. Ma del resto molti siti porno hanno sfondo scuro e dubito che ciò sia sufficiente a indurre Google a classificare come pornografici tutti i siti con sfondo scuro.
-
Grazie a entrambi, forse non ho ancora trovato la soluzione ma sicuramente mi sto facendo una cultura su Google!
In ogni caso, io provo a essere ottimista: metto il navigatore in fondo alla pagina e tutti gli interlink con il nofollow, così, spero, prima di sbattermi in 375 pagina (non che ora io stia molto meglio) chissà che forse qualcuno (QR) o qualcosa (Panda) daranno una scorsa ai contenuti e capiranno il succo della filosofia, che è appunto il tentativo di fare una sintesi generale della conoscenza, quindi DEVE collegare la storia alla fisica, alla sociologia, alla psicologia... Che però rimangono ambiti di conoscenza distinti.
Sulla qualità dei contenuti non possoautogiudicarmi, però sono tutti assolutamente originali, perlomeno, citazioni a parte, e anche la maggior parte delle illustrazioni.
Affidiamoci al buon senso...
-
In ogni caso, io provo a essere ottimista: metto il navigatore in fondo alla pagina e tutti gli interlink con il nofollow
Questo non significa essere ottimisti, significa essere terroristi.
-
Se il mio dominio ha contenuti validi, farò le mie valutazioni per decidere se tenere tutto il contenuto nello stesso dominio, o se suddividerlo in più domini.
Idem quando si lavora in gruppo, si deciderà se avere tutto in un dominio o se suddividere in più domini (con ogni dominio intestato ad una persona diversa).
Le azioni truffardine sono nel contenuto non certo nella forma.
E' normale che ci siano link per saltare da un domini all'altro senza che ci debbano essere intenti malefini, né tanto meno penalizzazioni.
@sognista: "per l'utente è comodo avere UN UNICO MENU' (pressoché identico) su tutte le pagine di ogni diverso sito, il che comporta che ogni pagina ha un elenco di 60 link che puntano agli altri domini e ne riceve altrettanti:"
Qui non si è di fronte ad un problema di penalizzazione per i troppi link, il problema è chela navigazione dei siti è mal studiata se ogni pagina ha così tanti link sempre uguali. Non vedo come possa essere comodo avere così tanti link in ogni pagina.
-
@ Lowlevel: terrorista nel senso 'paranoico che si fa troppi scrupoli' o nel senso che proprio mettere i nofollow potrebbe far scattare una perquisizione di arsenali nucleari sotto alla mia scrivania?
intendto dire: sono precauzioni superflue o pericolose??? (azzo se sono paranoico...)@ Maxandre: ciao, benvenuto!
hihihi, si certo, detta così pare una tortura, ma è un drop down menù, cioé è a tendine a scomparsa, per cui si suddivide prima in sole 6 sezioni (di cui una visivamente secondaria) che poi uno apre UNA sezione se gli interessa spaziare e lì si trova di solito 3/4 link o in un unico caso 11 linkettini (sono gli autori, Freud, Saffo, Wilde...)
ma mi faresti un grande favore (che ricambio qualora ti servisse con grande piacere) se mi dicessi spassionatissimamevolmente se VERAMENTE è accettabile come 'peso' di link...
non so se mi accettano un finto link... speriamo che nessuno mi sgridi... ehm: scibile it ...
-
@sognista said:
@ Lowlevel: terrorista nel senso 'paranoico che si fa troppi scrupoli' o nel senso che proprio mettere i nofollow potrebbe far scattare una perquisizione di arsenali nucleari sotto alla mia scrivania?
"Terrorista" riferito sia alle motivazioni per le quali prendi una scelta simile (dettate da timori ma prive di una connotazione logica né in linea con le stesse linee guida di Google) sia alla soluzione in sé, che prevede di relagare a fondo pagina una struttura di navigazione che i tuoi utenti trovano utile ed usano, più una presa di distanze nei confronti di altri contenuti di qualità che hanno la "colpa" (secondo standard tuoi, non certo dei motori) di essere ospitati su domini esterni. Come se usare domini diversi fosse un morbo.
Prendere a calci l'usabilità di un sito e ridurre la sua qualità complessiva solo perché sei convinto che ci sia da qualche parte una regola che dica "tutti i link fatti a questo modo sono considerati spam", non è niente di positivo.
Sono azioni indotte dal terrore e che , in base a quanto hai detto, hanno già prodotto decisioni terroristiche nei confronti del tuo sito, che ne abbasseranno la qualità.
-
Grazie LowLevel,
sei molto equilibrato e mi dai sempre da pensare. Hai una visione complessiva, mi piace.
Per entrare nel merito, è nato un misunderstanding dovuto alla mia scarsa precisione: non cambierà assolutamente niente nell'usabilità, visivamente la fruizione sarà totalmente identica ad adesso, solo che abbasserei il CODICE (un layer div comandato via CSS) al fondo della pagina sorgente, giusto per sminuire il più possibile il valore dei link nofollow, sperando, come dire, che questo possa essere un indizio di buona fede?Se hai pazienza, vorrei allora salire su un livello di etica formale: se volessimo veramente seguire un comportamento corretto, la nostra onestà esigerebbe di non permettere che Google calcoli gli interlink perché sappiamo che l'autore è lo stesso, perciò non sono voti obiettivi.
A me fa piacere avere un pochino di visite in più, ma le vorrei conquistare giocando pulito: non voglio essere penalizzato per ragioni estrinseche (come essere scambiato per un black hat) ma neppure mi interessa salire in classifica tramite mezzucci da baro. Del resto non la considero neppure una gara: a me basta essere trovato da chi può essere interessato a confrontarsi con una prospettiva complessiva, se poi sarò il decimo sito che apre o il primo che mi importa? Io quando cerco un contenuto non ho prevenzioni, apro siti brutti, belli, con pubblicità, tramite annunci, anche siti vecchi e non aggiornati. In libreria la massa sfoglia solo i libri in vetrina, con copertine in rilievo o citati da Volo o Costanzo. Quelli 'come me' se ne fregano, ho scoperto libri stupendi ingialliti accatastati su bancarelle nomadi...
Sono convinto che, eticamente, il nofollow sia più corretto. Ciò che non so è se Google ragiona allo stesso modo, e mi pare di capire che tu lo escludi... Dove posso trovare una documentazione anche in inglese che mi dia un elenco dei casi in cui è lecito usare il nofollow? Ho cercato in giro ma i blog di wbmkt si concentrano solo sulla querelle se un nofollow fa acquistare una percentuale ridotta di PR o nessuna... Questione che interessa, giustamente, chi fa del traffico il suo mestiere, ma non certo un'intellettuale della domenica con il pallino delle sintesip.s.
certo che per uno che ama le sintesi... son bello prolisso hahhaahaha!!!
-
Ciao di nuovo sognista,
la discussione è interessante, e lo capiamo tutti dal numero e dalla qualità degli interventi letti finora (nei quali mi sono meravigliosamente perso tra ieri e stamattina :D").
Pero' credo, in tutta franchezza e senza voler sminuire niente e nessuno, che le tue preoccupazioni siano eccessive, e dettate da scrupoli in sovrabbondanza: come nella vita reale, le insicurezze e le remore riescono spesso a provocare più problemi e blocchi mentali che altro, sebbene siano dettati dalla prudenza, che è un istinto sano per la sopravvivenza (e scusate tanto per la filosofia spicciola che vi propino alle 8 di mattina!!).
Dopo aver assimilato il succo di quello che ci siamo detti, magari prova a pensare al tuo sito (con annessi e connessi mini-siti collegati che siano) in termini di semplice usabilità, rispondendo a domandine semplicissime e senza pensare affatto al ranking sui motori, del tipo:
- la tipologia media di utente del mio sito è agevolata nel trovare contenuti?
- i contenuti sono unici/di qualità/curati/ben presentati graficamente?
- l'impatto e la navigabilità sono adeguati al tipo di sito?
- l'utente riesce a trovare quello che desidera in due o tre click, oppure rischia di impazzire per quanti link ho inserito?
- ecc ecc.
Questo, ovviamente, serve solo a suggerirti che eccessivi calcoli sui link di per sè possono diventare deleteri, e distrarti dal site-intent, che è SEMPRE la cosa principale. Noto una piccola cosa di striscio, credo neanche troppo OT:se nonostante tutto temi seriamente che Google possa trattare male il tuo sito e lo rimuova dal suo indice, può essere la scusa per trovare fonti di traffico alternative che impongono una maggiore attenzione sulla qualità dei contenuti e siano content-oriented (Youtube, StumbleUpon, Twitter, Facebook e potrei continuare).
-
Ciao Salvatore,
si davvero, sono stato accolto in questo forum da persone di eccezionale calibro come Valerio Notarfrancesco e Low Level, che hanno saputo condensare nei loro interventi perle di saggezza che credo mi abbiano fatto capire, del cervello di Google in due giorni più di anni in cui lo usavo come semplice user. Oltre a te che mi hai dato una pista importante da seguire sui siti inglesi.Questo tuo ultimo schema web-editoriale usability oriented mi sembra ottimo (e il discorso si potrebbe allargare in opportuna sede rispetto alla definizione del diverso approccio di utenti diversi, più iconico o testuale, all'uso di link e citazioni che arricchiscono ma possono appesantire la fruizione, all'uso di pagine con brevi paragrafi ma che comportano più click complessivi o pagine lunghe che fanno risparmiare click, e alla semantica del web, cioé scegliere link lunghi e esplicativi o brevi e discreti, lasciare che l'utente visualizzi a grandezza libera o bloccare graficamente i testi con i CSS, prevedere che il sito possa essere "letto" per utenti non vedenti, creare o no percorsi a monorotaia come il precedente e successivo dei blog, sul quale nutro diverse obiezioni, duplicare i sistemi di navigazione, cosa che si fa sempre ma che rischia di infastidire e come non mettere mai parentesi come questa ma usare un popup o sistemi migliori per gli approfondimenti come fa il forum GT genialmente sulle parole chiave del testo ma in maniera diversa da come fa Wikipedia eccetera eccetera)
ma tutto questo NON esclude anzi PREMETTE al rendersi trovabili.Diverso discorso in merito ai canali per essere trovabili, che dipendono dal target: io twitter non lo userei mai per cercare le date dell'unità d'Italia, Youtube implicherebbe avere/fare materiale video, Facebook per carità, è l'antitesi dell'approfondimento, è diventato ormai un medium generalista: le discussioni del forum GT sono INCONCEPIBILI in una pagina FB, dove prevale il customercare o una botta e risposta colloquiale e StumbleUpon non lo conosco, vado subito a scoprirlo, grazie del suggerimento)
Inoltre credo che io abbia fatto nascere i miei siti seguendo scrupolosamente la tua scaletta (se vuoi farmi delle critiche puntuali scibile it chiedo scusa dello spam, dopo che lo hai visto posso eventualmente togliere questa parentesi dal post...)
Con l'unica eccezione della doppia navigazione: siccome sono pagine statiche, per ora non ci sono tag cloud e neppure parole chiave a fondo pagina, che effettivamente potrebbero essere utili al lettore.P.s.
StumbleUpon è molto interessante, una specie di facebook content oriented? L'idea mi piace, farò delle prove di ricerca, se trovo materiale interessante mi ci iscrivo)Riguardo al nofollow, mi rimangono i dubbi di prima cioè:
- non è più corretto deontologicamente evitare di indurre Google a gonfiare il PR?
- è ammesso (non consigliato: solo ammesso) il suo uso per degli interlink comuni a più siti che in realtà sono un solo sito?
-
Ok ma farei dei distinguo: nell'uso quotidiano di Facebook (cazzeggio, insulti gratuiti, qualunquismo a frotte ed aggiunta di contatti di cui non ce ne importa un accidente) siamo d'accordissimo, ma ti garantisco che una pagina fan costruita in modo naturale può diventare un canale di traffico straordinario. StumbleUpon invece ti permette di trovare siti a tema in base alle tue preferenze ed alle categorie che specifichi, quindi diventa una calamita naturale per i visitatori.
Sul nofollow:
-
se ti riferisci al cosiddetto PR sculpting sì, un esempio classico è il nofollow sui link dei commenti o su quelli affiliati.
-
tanto per dare una risposta secca: sì, per me è lecito al 100%, dato che la buona usabilità è un valore infinitamente più alto di qualsiasi teoria o best practice SEO.
-