Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. mauro848
    3. Discussioni
    M

    mauro848

    @mauro848

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 3
    • Post 7
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Età 16
    0
    Reputazione
    7
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User Newbie

    badges

    0
    Bookmarks
    0
    Voti
    0
    Ringraziamenti
    0
    Miglior risposte
    Inizia una nuova discussione
    di cosa vuoi parlare?

    Discussioni create da mauro848

    • Topic
      Post
      View
      Votazioni
      Post
      Attività
    • M

      Come mai Trovit utilizza il nofollow sui link in uscita?
      News Ufficiali da Connect.gt • • mauro848  

      2
      422
      Visualizzazioni
      0
      Votazioni
      2
      Post

      M

      Caio mauro848.

      Non avendo contatti diretti con trovit.it mi limito a ragionare sulla questione.

      Il nofollow è un modo per indicare a Google un link da non seguire per differenti ragioni: perché quel collegamento non è naturale ma è stato comprato da qualcuno, perché il webmaster riconosce di non poter garantire sull'affidabilità dal sito linkato o perché si cerca di indirizzare la scansione del crawler dei motori di ricerca.

      In questo caso trovit.it applica un'ulteriore "protezione" per prendere le distanze dai siti che linka: il collegamento non è diretto ma passa attraverso un redirect a pagine interne al dominio ma bloccate da robots.txt (vedi il campo href).

      L'utilizzo di queste tecniche limita lo spam (i webmaster non inseriscono inserzioni inutili al fine di ricevere link), salvaguarda l'autorità del dominio e aiuta una migliore indicizzazione.

      Spero intervengano altri utenti qualora mi sia perso qualcosa di importante o non siano d'accordo col mio pensiero.

      Per il resto, prego di domandare qualora sia necessario.

    • M

      Disallow nel robots.txt e noindex
      News Ufficiali da Connect.gt • • mauro848  

      5
      1106
      Visualizzazioni
      0
      Votazioni
      5
      Post

      L

      Grazie, interessava anche a me !

    • M

      Fenomeno tag excess, cosa fare in questi casi?
      News Ufficiali da Connect.gt • • mauro848  

      10
      841
      Visualizzazioni
      0
      Votazioni
      10
      Post

      M

      Prima rispondo alle 3 domande:

      Cosa intendi con il fatto che il disallow crea buchi nel passaggio del pagerank?

      Il disallow crea "buchi" nel passaggio del PageRank perché questo valore fluisce tra le pagine attraverso i link: A linka B, quindi il valore del PR di A contribuisce, sommato a tutti gli altri link in ingresso, al calcolo del PR di B. Se Google non può accedere alla pagina A, non può sapere quali pagine essa linki; di conseguenza non sa dove far passare il valore che viene perso. Da qui il termine "buco" per indicare una url nella quale il PageRank entra ma non esce.

      Se io aggiungo il Disallow ad una pagina che ha già pagerank, questa continua a passare page rank ai link contenuti?2. No, se blocchi a Google l'accesso ad una pagina, il motore di ricerca non la considera più: non fa calcoli basandosi su quello che conosceva prima del disallow.

      Inoltre se questa pagina ha dei link esterni che la puntano, continua a ricevere page rank e a passarlo oppure non riceve page rank in quanto c'è il disallow che evita allo spider di entrare?3. Continua a ricevere PageRank. Ma, come già detto, non lo passa a nessuno.

      Ci tengo a precisare che in tutta la discussione ho parlato solo di PR, ma in realtà la stessa cosa vale per tutte le valutazioni fatte da Google partendo dai link in ingresso (analisi dell'anchor text, calcoli sull'autorità della pagina, ecc).

      Per quanto riguarda un'ipotesi di struttura, credo che il compromesso ideale possa essere fermare il grado di profondità alle provincie.
      Dalle provincie, eventualmente, si potrà accedere alla divisioni per comuni, su pagine bloccate da robots.txt.

      In questa maniera un'eventuale ricerca "programmatore java melzo" potrebbe restituire la pagina sui programmatori java della provincia di Milano, nella quale si può trovare anche un link alla scheda del comune bloccata via robots.txt.

      Se comunque trovi altri portali che secondo te hanno esigenze simili, possiamo partire da un'analisi di questi e vedere come adattarla al tuo caso.

      Purtroppo Google ha a che fare con risorse limitate e deve selezionare le pagine migliori da tutta Internet: è un vincolo con il quale anche i webmaster si devono scontrare per non veder degenerare lo spam.

      Spero che la discussione continui sui binari della sincerità e del rispetto reciproco, visto che questo tema può interessare tanti proprietari di portali di medie dimensioni. Ogni proposta che rispetti questi canoni è benvenuta!