Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. mauro848
    3. Post
    M

    mauro848

    @mauro848

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 3
    • Post 7
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Età 16
    0
    Reputazione
    7
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User Newbie

    Post creati da mauro848

    • RE: Fenomeno tag excess, cosa fare in questi casi?

      @LaBussola said:

      Ciao mauro848 e benvenuto sul forum!
      Il consiglio che mi sento di darti è di modificare l'architettura del sito: ha veramente senso creare un elenco dei programmatori Java di Lerici? Un programmatore .php residente a Santo Stefano Magra rifiuterà un lavoro freelance ad Ortonovo?

      La Bussola,
      in riferimento al quanto suggerito da te e da tecnology dico purtroppo la struttura del sito ed il modello di servizio offerto è stato concepito in un certo modo e non può essere stravolto.

      Immagino che di portali che abbiamo la stessa struttura di navigazione ce ne siano moltissimi.
      Magari anche in settori dove la navigazione per comune è di fondamentale importanza.

      Da una parte le pagine con gerarchia geografica (regioni, province, comuni) e dall'altra le qualifiche (programmatore php, programmatore java, grafico, sistemista linux, sistemista cisco, etc..)

      L'obiettivo del posizionamento sono stringhe come:
      sistemista linux rimini
      sistemista cisco piemonte
      programmatore java melzo

      Come ben saprete più la ricerca è dettagliata a livello geografico (per comuni) più il traffico che entra è di qualità.

      Se metto un disallow sui comuni vado a penalizzare potenziali ricerche di qualità, inoltro lo stesso problema rimarrebbe comunque per le provincie.

      A rendere ancora più critica la cosa è appunto l'aspetto dei freelance che sono disposti a lavorare a distanza (soprattutto programmatori) questi naturalmente quando inseriscono il loro profilo selezionano tutta Italia e quindi il loro link compare in migliaia di pagine: es. un programmatore java apparirà nelle pagine di elenco di tutte le regioni, di tutte le province e di tutti i comuni circa 8.000)

      La scheda del profilo di questi professionisti ha un URL univoco, quindi non ci sono problemi di duplicazione.

      Il problema è dato dalle pagine di elenco.
      Voi che fareste ipotizzando che la struttura del sito debba rimanere questa?

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848
    • RE: Fenomeno tag excess, cosa fare in questi casi?

      @LaBussola said:

      Bloccare da robots.txt migliora i percorsi di crawling (miglior indicizzazione, visite alle pagine più frequenti) ma crea dei "buchi" nel passaggio del PageRank.

      Il noindex evita i "buchi" ma fa girare il bot di Google quasi a vuoto (di quelle pagine verranno considerati solo i link in uscita).

      Ciao La Bussola ancora 3 domandine per fare più chiarezza sull'argomento:

      Cosa intendi con il fatto che il disallow crea buchi nel passaggio del pagerank?

      Se io aggiungo il Disallow ad una pagina che ha già pagerank, questa continua a passare page rank ai link contenuti?

      Inoltre se questa pagina ha dei link esterni che la puntano, continua a ricevere page rank e a passarlo oppure non riceve page rank in quanto c'è il disallow che evita allo spider di entrare?

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848
    • RE: Disallow nel robots.txt e noindex

      @LaBussola said:

      Ciao mauro848.

      Cerco di approfondire.
      Primo caso: pagina A bloccata attraverso file robots.txt.
      Google trova l'indirizzo della pagina A, lo inserisce nel suo indice ma non accede alla pagina. Valutando fattori off-page (numero di link in ingresso ad A, pertinenza del dominio a cui appartiene, ecc.) tenta di stabilire un valore per quella pagina (che non ha mai visto) e di conseguenza la restituisce nei risultati di ricerca (mostrando solo l'url).

      Grazie per le argomentazioni.

      Approfitto e ti chiedo altre indicazioni 🙂

      Non mi è mai capitato di vedere nei risultati di ricerca solo l'URL potresti indicarmi un caso?

      Sapresti suggerire in che casi è da preferire il noindex e in quali disallow?
      Quanto tempo impiega google ad aggiornare i sui dati una volta che sono state apportate queste modifiche?

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848
    • RE: Fenomeno tag excess, cosa fare in questi casi?

      @LaBussola said:

      Ciao mauro848 e benvenuto sul forum!
      Credo che un conseguente taglio dei contenuti duplicati sia sufficiente a ridimensionare il problema. L'implementazione dettagliata delle modifiche da effettuare è ovviamente un'operazione personalizzata sul tuo dominio sulla quale è difficile pronunciarsi a priori: valuta comunque se ti convenga (a livello di usabilità) eliminare queste pagine identiche o bloccarne soltanto la memorizzazione da parte dei motori di ricerca.

      Grazie per i tuoi suggerimenti!

      In merito a questi ti chiedo. Ipotizzando che opti per i contenuti duplicati in quanto il sito risulta più utile agli utenti, ed ipotizzando che tutti i contenuti duplicati siano contenuti all'interno di determinate cartelle, es.:

      programmatore-php/
      grafico/
      sistemista/
      etc..

      Consigli si mettere all'interno di tutti i file contenuti nelle suddette cartelle l'attributo noindex oppure suggerisci di inserire direttamente all'interno del file robots.txt l'istruzione Disallow: /programmatore-php, etc..

      Una volta effettuata questa modifica quanto tempo occorre affinchè google si accorga del cambiamento, esca dalla penalizzazione, e premi il sito migliorando il posizionamento naturale delle pagine indicizzate?

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848
    • Come mai Trovit utilizza il nofollow sui link in uscita?

      Questo portale verticale, molto ben posizionato nei motori di ricerca, utilizza il nofollow sui link in uscita: URL case. trovit. it/appartamento-torino

      <a title="Foto Appartamento a Torino in TORINO" href="...link" rel="nofollow" onclick="javascript: pageTracker._trackEvent('5_Secondamano', 'search_click', '');">
      <img src="...immagine" alt="Foto Appartamento a Torino in TORINO" class="image" />

      Secondo voi qual'è il suo intento?

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848
    • Disallow nel robots.txt e noindex

      Ciao a Tutti,

      Inserire nel file robots.txt un DISALLOW per un determinato file (es. Disallow: /cartella/pagina.php o mettere) o mettere all'interno del file pagina.php l'attributo noindex, equivale a fare la stessa cosa?

      In entrambi i casi il file non verrà indicizzato dai motori?

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848
    • Fenomeno tag excess, cosa fare in questi casi?

      Ciao a Tutti,

      Sto gestendo un portale verticale, partito da più di un anno, che offre la possibilità a freelance informatici di inserire una scheda descrittiva di presentazione, competenze, portfolio e servizi offerti.

      Ogni freelance pubblica un annuncio composto essenzialmente di Titolo + Descrizione

      Il portale è molto ben fatto sia fa un punto di vista grafico che di codice in ottia SEO:

      1. URL rewring
      2. Title e descriprion personalizzata (es. title )
      3. Tag H1 etc..
      4. table less
        ..

      I motori hanno indicizzato decine di migliaia id pagine ma il traffico di provenienza da google è scarso perchè il posizionamento delle pagine è scarso. Credo sia dovuto alla pensalizzazione tag Excess.

      Ogni prefessionista seleziona uno o più ambiti di specializzazione (es. programmatore PHP, programmatore .NET, grafico web, sistemista windows, sistemista linux, flash developer, sistemista MAC etc..) poi seleziona i comuni dove offre il proprio servizio (in genere vengono selezionati 5 comuni, molti programmatori freelance invce sono soliti selezionare tutti i comuni)

      Quando un utente consulta il sito può filtrare i freelance a livello geografico e di competenze.

      Facendo in modo che un freelance quando inserisce il proprio annuncio nel sito può scegliere più località (es. puoi selezionare tutti i comuni delle province di Genova e di La Spezia) e anche più competenze (es. si può qualificare contemporaneamente sia come programmatore java che come programmaotore php) si generano moltissime pagine di elenco che hanno lo stesso contenuto.

      Anche per ricerche non competitive (es. programmatore java lerici), dove ho una apposita pagina di listing che mi elenca titti i programmatori java del comune di Lerici, le pagine non compaiono nelle prime tre pagine dei motori.

      Questo credo sia dovuto al fatto che gli stessi 3 profili compaiono anche nei comuni d: Sarzana, Lerici, Arcola, Ortonovo, Santo Stefano di Magra) e quindi abbiamo più pagine che sono praticamente uguali come contenuti, nonostate il vari Tag Title siano stati ottimizzati in modo differente (programmatore java lerici, programmatore java sarzana, programmatore arcola, etc..)
      Questo fenomeno

      Il problema quindi credo sia dovuto a pagine con contenuto duplicato, non fatte con lo scopo di avere più pagine indicizzate nei motori, ma proprio per una esigenza di offrire un servizio utile agli utenti che possono in questo modo "taggare" il loro annunci con più province e comuni e con più qualifiche (programmaore java, .php, javascript, etc..)

      Devo dare la possibilità agli utenti del sito di navigare filtrando a loro piacere i contenuti sia ai freelance di inserire il loro profilo associandolo a più località geografiche e associandolo a più competenze.
      Questo fa si che avrò necessariamente molte pagine duplicate.

      Avete mai riscontrato queste problematiche e cosa suggerite di fare per migliorare il posizionamento?

      Grazie,

      Mauro

      postato in News Ufficiali da Connect.gt
      M
      mauro848