• Super User

    può essere deleterio usare strutture di tag fisse?

    Salve smanetta tag :D! Può essere deleterio costruire tutte le pagine del proprio sito web con una struttura pressocche fissa:
    <h1>bla bla</h1>
    <h3>bla bla bla</h3>

    bla bla bla bla bla bla </p>

    poi qualche foto nella stessa tabella, e poi ancora:

    <h1>bla bla</h1>
    <h3>bla bla bla</h3>

    bla bla bla bla bla bla </p>


  • Community Manager

    Ciao micky,

    dipende :lol:

    Se la struttura non la sapessi usare, produrresti pagine con contenuto simile (Title ed alcuni caratteri dopo il tag body) allora sarebbe deleterio.

    Se la struttura la sapessi usare, produrresti pagine con evidente **contenuto diverso **(Title ed alcuni caratteri dopo il tag body) allora non sarebbe deleterio.

    Ma mi chiedo io...quante risorse un motore di ricerca dovrebbe sprecare per controllare la struttura di un sito? Perchè?

    Queste risorse potrebbero portare a un miglioramento delle SERP?

    🙂


  • Super User

    @Giorgiotave said:

    Ciao micky,

    dipende :lol:

    Se la struttura non la sapessi usare, produrresti pagine con contenuto simile (Title ed alcuni caratteri dopo il tag body) allora sarebbe deleterio.

    Se la struttura la sapessi usare, produrresti pagine con evidente **contenuto diverso **(Title ed alcuni caratteri dopo il tag body) allora non sarebbe deleterio.

    Ma mi chiedo io...quante risorse un motore di ricerca dovrebbe sprecare per controllare la struttura di un sito? Perchè?

    Queste risorse potrebbero portare a un miglioramento delle SERP?

    🙂

    Capisco cosa vuoi dire. Già in un altra occasione, il controllo della corretta validazione del codice html, mi rispondesti in questo modo: vale a dire il motore si chiede se ne valga la pena di effettuare calcoli a fronte dell' utilità delle info che posso trarre dagli stessi. Ma allora, quali sono i fattori, al di là di quegli on page, per il quale il motore di ricerca è disposto ad uno sforzo computazionale, a fronte delle informazioni valide che può trarre per filtrare le serp?
    Perchè sembra quasi, viste anche le risposte di Vermut nel famosissimo
    [url=http://www.giorgiotave.it/forum/viewtopic.php?t=9958]topic relativo, che altri fattori che denuncerebbero la bontà di un sito non vengono presi in considerazione, non tanto per lo sforzo computazionale nel procurarsi i dati, quento per la spammabilità degli stessi.
    Allora tra sforzi computazionali, e possibilità di spamming, ci stiamo riducendo a link spontanei, contenuti, age factor, e basta :)!
    Alla fine sempre li vado a parare :D.


  • Community Manager

    Al SES Mauro Lupi disse:

    Sui cento fattori che Google dice di usare, noi se testiamo almeno 1000.

    Ma non ci riduciamo assolutamente a parlare solo di quei fattori, tu stesso avevi fatto un elenco di fattori chiedendo agli utenti del Forum GT quali secondo loro erano i fattori importanti; hai chiesto anche di metterli in ordine di importanza.

    Ora in questo Thread si sviluppa l'argomento: Penalizzazione della struttura di tag ripetuta.

    Secondo me non è assolutamente rilevante studiare se i tag sono sempre gli stessi per tutto il sito....:D


  • Super User

    @Giorgiotave said:

    Al SES Mauro Lupi disse:

    Sui cento fattori che Google dice di usare, noi se testiamo almeno 1000.

    Ma non ci riduciamo assolutamente a parlare solo di quei fattori, tu stesso avevi fatto un elenco di fattori chiedendo agli utenti del Forum GT quali secondo loro erano i fattori importanti; hai chiesto anche di metterli in ordine di importanza.

    Ora in questo Thread si sviluppa l'argomento: Penalizzazione della struttura di tag ripetuta.

    Secondo me non è assolutamente rilevante studiare se i tag sono sempre gli stessi per tutto il sito....:D

    Ok! Concentriamoci sull'argomento del topic. Esulando dallo sforzo computazionale ti dico cosa credo:
    un seo, soprattutto se dicede di creare delle pagine gataway, è solito usare il "trova e sostituisci" negli h1 e nei meta tag o in strutture fisse (es. footer) della pagina; oltre a questo naturalmente, se trattasi di un bravo SEO, scrive di sana pianta un testo per l'una o l'altra pagina. In un approccio naturale, come se i motori di ricerca non esistessero, è più difficile che avvengano tali meccanicismi perchè un utente tende ad essere "disordinato" se la smania di dedizione, che è quella che genera i buoni contenuti, è davvero naturale.
    Cioè in poche parole decido en passant (si dice così, non vorrei pentirmi se Arkane Factors casca di nuovo dalla sedia sbattendo la testa per i miei strafalcioni :D) la struttura naturale di ogni singola pagina a seconda di quello che ho da dire.


  • Super User

    @micky said:

    Può essere deleterio costruire tutte le pagine del proprio sito web con una struttura pressocche fissa:

    Tranne casi rari, non penso. Ci sono in giro fin troppi siti costruiti con CMS, le cui pagine usano tutte gli stessi tag, nello stesso ordine. Pensa solo ai prodotti di un e-shop... I motori di ricerca devono imparare a gestire correttamente anche questa tipologia di pagine.

    Tuttavia... io sono convinto che la varietà e la diversificazione paghi sempre e a prescindere dall'oggetto sotto analisi (tag, testi, link, ecc.).


  • Super User

    @LowLevel said:

    Tuttavia... io sono convinto che la varietà e la diversificazione paghi sempre e a prescindere dall'oggetto sotto analisi

    Questo me lo immagazzino ben bene 🙂