• Moderatore

    Oltre 100 links a pagina? E' possibile ma verso siti di qualità

    Salve, leggo adesso sul blog di Matt Cutts questo articolo in cui afferma che si può anche superare il limite dei 100 links a pagina, a patto che, questi siano verso siti di qualità.

    Cutts ci spiega che il motivo per la quale era stato messo come limite quello dei 100 link per pagina era principalmente la condizione dal punto di vista dell'utente, ovvero non far risultare una pagina pesante, e poco gradevole.

    In alcuni casi però è anche possibile inserire più di 100 links in una pagina e non per questo, il sito essere considerato spamm da Google.

    Quando vengono considerati spamm più di 100 links?

    Solo quando si utilizzano troppe parole chiave, testi nascosti, doorway etc...).

    Come tratta quindi Google le pagine con più di 100 links?

    Secondo Cutts se anche inserite centinaia di links ma di qualità, al massimo tutti i links non verrano seguiti, ed il pagerank sarà frazionato, ma non scatta in automatico nessuna penalizzazione per spamm.

    Ovviamente vi è sempre l'invito a mettersi nei panni dell'utente e valutare se i links sono utili a quest'ultimo e funzionali alla pagina.

    :ciauz:


  • User Attivo

    Interessante, questo rassicura molti webmaster!


  • Super User

    Intervento molto interessante.

    In caso di più di 100 link potremmo risolvere il tutto inserendoli in una pagina che non contenga solo link ma anche contenuto rilevante.

    Danilo.


  • ModSenior

    Ciao aggiungo cosa avevo riscontrato durante il mio intervento al Convegno GT 2008 (slide n.7 liberamente scaricabili da slideshare account f.tinti) e di cui ho dato già informazione anche sul blog del Tagliaerbe qualche giorno fa in un commento.

    In pratica per Matt Cutts (in passato) una pagina poteva avere anche fino a 200-300 link senza incorrere in penalizzazioni e essendo spiderizzata e indicizzata senza problemi, purchè ad alto PageRank.

    Naturalmente il nuovo articolo di Matt Cutts va comunque in una direzione precisa: migliorare la qualità dell'esperienza del navigatore, quindi dargli subito quello che cerca, strutturando in maniera logica anche la navigazione. E vedo sempre più frequenti i casi di penalizzazioni per megamenu con rientri rapidi in SERP (circa 3 giorni) dopo le ripuliture.


  • Super User

    @mister.jinx said:

    E vedo sempre più frequenti i casi di penalizzazioni per megamenu con rientri rapidi in SERP (circa 3 giorni) dopo le ripuliture.

    Cosa intendi di preciso? Le pagine hanno una sorta di down? Si assentano per un po' ma comunque tornano?

    Danilo.


  • ModSenior

    No no... le pagine vengono proprio penalizzate con da un -30 a un -80 a seconda della gravità. E se non ripulisci i troppi link nei menu (da qui il nome "megamenu") il sito resta penalizzato.

    Ne abbiamo parlato per la prima volta qui e qui quando era un "effetto" spiacevole in SERP con snippet sballati nella description in SERP.

    Da settembre invece ho visto che questo effetto si è trasformato in una penalizzazione, algoritmica, con uscita e rientro rapidissimo in SERP.

    Sto seguendo un caso ripulito ieri. Secondo i nostri calcoli dovrebbe rientrare entro venerdì. Ti tengo aggiornato.


  • Super User

    Un caso davvero interessante. Intanto provo a bloccare la pagina con robots.txt

    Mi farebbe piacere essere aggiornato su come va quel caso cui hai fatto riferimento.

    Danilo.

    PS: I tuoi video nella Top SEO/SEM Area mi piacciono da matti. Complimenti!


  • Moderatrice

    Aspettando venerdi .. 🙂 un pò di riflessioni a voce alta.
    Fino a poco tempo fa ero convinta che il megamenu non attaccasse siti "utili per l'utente".
    Un mese fa ho iniziato a lavorare su un buon sito con tutte le caratteristiche per stare bene in serp.
    Ma "Gino" non risponde come dovrebbe.
    In un primo momento non ci faccio caso, pensando che ha bisogno di un pò più tempo, ma con il passare dei giorni la cosa inizia a farsi strana.
    Mi creo tre ipotesi e inizio a scandagliarne una per una.
    Quando tolgo un tot di link ecco che il sito prende le posizioni dovute. (classici 3 giorni)

    Da qui una riflessione che ho sottoposto a Francesco (Jinx) in uno dei tanti "deliri" che ogni tanto mi prendono.

    Ipotesi del motivo che portano alla penalizzazione da megamenu:

    Prima ipotesi
    "Gino" conta le pagine totali e le divide per il link a pagina.... ma ... non torna .... ho siti con home che linka a tutte le pagine con pr basso che stanno in dovuta posizione.

    Seconda ipotesi
    un calcolo aritmetico che prende il testo presente in una pagina e lo rapporta alla quantità di testo duplicato in tutte le pagine.
    Se ci pensate un menu, fatto con un include presente in tutte le pagine, può essere considerato contenuto duplicato.
    Quindi una pagina con un numero di parole uniche rapportate con il numero di parole presenti nel menu cade in penalizzazione perchè la percentuale di unicità è inferiore rispetto alla percentuale di duplicato.

    A voi le considerazioni.
    Deb.


  • Super User

    Grazie deb 😉

    Danilo.


  • Moderatore

    ...la seconda ipotesi di Deborah è quella che io annovero già da un po' di tempo, ma con alcune varianti. Infatti più di una volta mi son scontrato in azienda sull'importanza del testo duplicato/boilerplate.
    Uno dei colleghi è più libertino, l'altro vorrebbe eliminare le ripetizioni anche nei titoli delle sezioni del sito.
    Io sono per il "buon senso" in tutte le cose.
    Parliamo di pagine fatte bene con contenuti genuini.
    Più testo c'è più è normale ci possano essere più link...è una cosa naturale. Meno testo ci si aspettano meno link.
    Un menu di navigazione è però fisso spesso e volentieri, per permettere all'utente una navigazione ottimale del sito....ma non è detto che a seconda dell'argomentazione trattata tutti i link siano ben visti e tematici.
    Quel calcolo che ipotizzava Deborah quindi secondo me, assieme ad altri fattori, lo fa prima sull'intero sito, e poi sul controllo di quante pagine sono "fuori norma" per decidere se i link sono effettivamente troppi o effettivamente utili all'utente finale...
    :sun:


  • Super User

    Approvo pienamente le considerazioni di Criss. Per questa ragione credo che pagine dedicate allo scambio link debbano contenere sempre del testo. In linea generale assocerei una descrizione di 20 - 25 parole ad ogni link.

    In questo modo avremmo del testo utile anche per il posizionamento. E' solo necessario effettuare un controllo su Strumenti per Webmaster in Sitelinks per evitare di avere un sitelink poco rilevante (pagina di scambio link).

    Il problema è: perchè Google fissa un limite di link invece di indicare una certa proporzione (xy%) tra link e testo?

    Danilo.


  • Moderatore

    @Danilo Chiantia said:

    Il problema è: perchè Google fissa un limite di link invece di indicare una certa proporzione (xy%) tra link e testo?

    Danilo.

    A questo so risponderti :wink3:
    Il limite dei link a 100 era stato dato in tempi non sospetti perchè c'era il mito dei 100k indicizzati.
    Se ricordi le prime nozioni che forniva google sembrava, o era vero, che prendesse buoni solo i primi 100k di ogni pagina, sbattendosene altamente del resto della pagina.
    Con l'avvento di nuove tecnologie e nuovi modi di far web anche google aumenta le risorse e quindi rileva altri fattori che spesso e volentieri sono oltre i 100k (esempio: se carichi il prototype come framework per fare javascript e il lightbox ti van già oltre 60 70k, se poi metti un'immagine come header cosa indicizza google?). OK questo è trascendentale...cmq si associavano i 100 link ai 100k (ecco perchè si posizionava meglio chi metteva più keyword all'inizio nel sito un tempo, con le vecchie logiche).
    Tornando alla tua domanda secondo me adesso sta cominciando a ragionare con il "rapporto" in maniera sempre più fine, quindi ci saranno siti che al massimo potranno avere 50 link, altri 100 e altri 200 per continuare ad essere considerati "buoni".


  • Super User

    Ecco spiegato il tuo riferimento al buon senso.

    Concordo 🙂

    Danilo.


  • Moderatrice

    Pensiamo come pensa l'utente.
    se io cerco scarpe.
    Mi aspetto di trovare la pagina scarpe con una serie di link
    scarpe tacco alto
    scarpe tacco basso
    scarpe rosse
    scarpe bianche
    e cosi via..
    poi magari una macrocategoria "vestiti" - "borse" - "accessori"
    Questo facilita l'utente e non lo confonde.... e non confonde nemmeno i motori di ricerca ..

    Comunque, sto ancora aspettando che venerdi finisca 🙂 e poi faccio una relazione dettagliata.


  • Moderatore

    Infatti Deborah come dici tu è il modo giusto di ragionare.
    A seconda di ciò che stiamo parlando servono link di approfondimento e il modo di tornare agli altri argomenti del sito.
    Nella maggior parte dei casi però sai meglio di me che chi costruisce siti web (per pigrizia o per mancanza di nozioni) crea un menu sempre uguale dappertutto, magari con link aggiuntivi per dettagliare.
    Poi andiamo nei ragionamenti empirici che a google non piacciono i seo e i webmaster, che preferisce i siti fatti dagli utenti "semplici", che però non seguono le linee guida dato che non le conoscono....
    è per questo che ipotizzo il "buon senso" anche da parte di "Gino"...

    Certo è giusto premiare chi fa i siti utili per l'utente in ogni caso....


  • Moderatrice

    Si cris è vero
    "Nella maggior parte dei casi però sai meglio di me che chi costruisce siti web (per pigrizia o per mancanza di nozioni) crea un menu sempre uguale dappertutto"

    Ma partiamo sempre dal solito punto.
    A google non interessa chi fa i siti ma l'utente.
    E poi permettimi: non è vero che non gli piacciono i seo.

    Se stai pensando di utilizzare i servizi di un SEO, prima lo fai meglio è. direttamente dalle linee guida.
    Quindi gg vuole educarci e come puoi educare un incallito seo?
    Penalizzandolo 😄
    Bisogna rivedere tutta la nostra preparazione, come diceva il grande Bartali e ha ribadito il grandissimo (tutta la mia stima) low level Enrico Altavilla nel 2005
    "E tutto sbagliato, è tutto da rifare"
    http://www.giorgiotave.it/forum/seo-focus/5800-gli-e-tutto-sbagliato-tutto-da-rifare-bartali.html


  • Moderatore

    Con me sfondi una porta aperta 🙂
    Io è da un po' che porto avanti la teoria "pagina utile" per l'utente con "occhio al motore"... e più gente non si accorge che più sbaglia più deve rifare, meglio è per chi, come noi, segue determinate logiche.
    Il guaio attuale sai qual'è? Che chi sbaglia più di tutti è ancora google...ma sono fiducioso nel futuro....


  • Super User

    @Criss said:

    Con me sfondi una porta aperta 🙂
    Il guaio attuale sai qual'è? Che chi sbaglia più di tutti è ancora google...ma sono fiducioso nel futuro....

    Da che punto di vista sbaglia, secondo te?

    Danilo.


  • Community Manager

    @deborahdc said:

    Bisogna rivedere tutta la nostra preparazione, come diceva il grande Bartali e ha ribadito il grandissimo (tutta la mia stima) low level Enrico Altavilla nel 2005
    "E tutto sbagliato, è tutto da rifare"
    http://www.giorgiotave.it/forum/seo-focus/5800-gli-e-tutto-sbagliato-tutto-da-rifare-bartali.html

    😄

    @Danilo Chiantia said:

    PS: I tuoi video nella Top SEO/SEM Area mi piacciono da matti. Complimenti!

    Grazie per l'apprezzamento, Francesco sarà molto felice 😉

    Intervengo nella discussione per portarvi un mio piccolo contributo che ho ripetuto per tutti i GT Study Day del 2008:

    "Più link esterni ci sono in una pagina, meno cura avrà avuto il webmaster nel valutarli e segnalarli. Meno link ci sono in una pagina, più cura avrà avuto il webmaster nel valutarli e segnalarli".

    Questo viene dal fatto che, nella maggior parte dei casi, quando segnaliamo pochi link esterni significa che abbiamo preso i migliori e li abbiamo scelti con cura.

    Vale in moltissimi casi 🙂


  • Moderatore

    @Danilo Chiantia said:

    Da che punto di vista sbaglia, secondo te?

    Danilo.

    Beh, come sarà capitato a molti di studiare delle case history, a molti sarà sorto il dubbio del perchè in casi apparentemente identici il motore si comporta in maniera diversa.
    E via di dubbi e incertezze..quali sono le differenze? dove ho sbagliato? ecc ecc
    Non è detto che ad aver sbagliato siamo stati noi..possono esserci errori di valutazione da parte del motore, e possono essere dovuti al tipo di serp, alla competitività di questa ecc ecc.
    Per errore non intendo un ban di un sito o una forte penalizzazione, ma piccole penalizzazioni o posizioni non proprio consone alla qualità del sito.

    Quoto Giorgio nella frase:

    "Più link esterni ci sono in una pagina, meno cura avrà avuto il webmaster nel valutarli e segnalarli. Meno link ci sono in una pagina, più cura avrà avuto il webmaster nel valutarli e segnalarli".

    Questo viene dal fatto che, nella maggior parte dei casi, quando segnaliamo pochi link esterni significa che abbiamo preso i migliori e li abbiamo scelti con cura.

    Vale in moltissimi casi

    Però dando risalto all'ultimo scorcio..vale in moltissimi casi, ma non in tutti...infatti più di una volta anche per pochi link in uscita la qualità di questi a livello di utilità e tematicità non è propriamente la migliore.
    Dipende dallo scopo del webmaster del sito...e purtroppo in questi casi il motore è ancora troppo "debole". Ci sono i quality rater è vero...ma purtroppo io un po' di dubbi su queste figure li ho...in fondo è una decisione "umana" e quindi passibile di errore "emozionale" più che di errore "logaritmico"