- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Meglio sito in XHTML o in XML
-
Meglio sito in XHTML o in XML
è la prima volta che apro una discussione e spero di farlo nella sezione giusta;
ultimamente nell'ottica di una revisione/aggiornamento delle mie conoscenze in materia di SEO e struttura di un sito mi è sorto un dubbio:
meglio fare un sito in XHTML o in xml con associato un foglio xslt??
al momento uso XHTML-strict, ma non nascondo che vedo TANTI vantaggi nell'uso di xml + xslt
però dal punto di vista SEO è meglio? i file xml vengono indicizzati? e le pagine sono davvero più veloci?
-
Ciao dal punto di vista SEO non c'è alcun vantaggio/svantaggio diretto.
Google supporta tutti gli html/xhtml.
Tuttavia nei suggerimenti per migliorare la velocità consiglia di usare HTML 5 e di rimuovere tutto il codice superfluo, e di spingersi anche oltre, perché ritiene più importante l'esperienza degli utenti della validazione.
Questo per me non giustifica convertire tutti i progetti già esistenti, pure il tempo del webmaster è prezioso, comunque condivido la direzione che da.
Quali sono i vantaggi per gli utenti e per te di xml + xslt?
-
- Mi dovrei concentrare solo sul file xml (possibilmente un unico file da cui prelevare i dati per le singole pagine)
- Voglio modificare l'impaginazione e/o la struttura dei tag della pagina? basta cambiare l'xslt
- Rss? nessun problema: foglio xslt ed è fatta
- Per seguire l'html 5 cambo l'xslt e passo da XHTML.strict a HTML 5 con un nuovo foglio xslt
- Per non dilungarmi... un foglio xslt e trasformo il mio file xml in qualsiasi atro formato, pdf, vml,txt (pensa per un istante se volessi fare un e-book con il materiale che ho nel mio sito )
Certo bisogna studiare l'xslt (o meglio l'xsl) ma ti assicuro che non è difficile, anzi.. basta capirne un attimo la logica e va tutto liscio.
Ponevo la questione perchè stavo riflettendo sui siti monotematici e volevo fare qualche esperimento.
Poniamo che il file xml sia l'index del sito e lo faccio indicizzare da G e gli applico l'xslt;
poniamo che con il php posso ottenere per gli utenti umani la visualizazione con le classiche pagine;
alla fine ottengo che tutto il mio sito è nell'index del sito, che è facoile modificarlo ma soprattutto che devo indicizzare solo l'index e non preoccuparmi più strutture, link building, di passaggio di PR, di keywords, ecc... perché per G ci sarebbe un index sempre aggiornata con tutti i link verso questa pagina;
Il mio unico dubbio: avere tutte le kywords nella stessa pagina diluirebbe l'importanza della stessa???
A fornte dei nuovi algoritmi semantici di G e Y (quest'ultimo l'ha comprato 15 gg fa) non dovrebbe esserci molta differenza; o no?
E poi l'utente sarebbe indirizzato sempre verso l'index del sito con una notevole funzionalità di acchiappo dell'utente e aumento medio di permanenza sul sito (soprattutto per gli utenti mordi e fuggi).
Forse mi sono dilungato tropppo??? Sarà che è la mia prima discussione sul forum, ma soprattutto la passione per la ricerca di soluzioni strane.
PS. Parte dell'esperimento, in termini di flessibilità già l'ottengo su un sito, con php: una comodità quando devo modificare qualcosa.
-
Quindi lo ritieni vantaggioso perché così riuscirai a gestire il sito meglio, e nessun vantaggio per gli utenti, valuta tu, comunque la SEO non c'entra.
@brugneca said:
ma soprattutto che devo indicizzare solo l'index e non preoccuparmi più strutture, link building, di passaggio di PR, di keywords, ecc... perché per G ci sarebbe un index sempre aggiornata con tutti i link verso questa pagina;
Non riesco a seguirti, a capire cosa intendi, posso solo dire che quando non ti preoccuperai più della struttura del tuo sito, delle keywords ecc. starai facendo una cattiva SEO.
-
Forse non mi sono spiegato bene a causa della lunghezza del messaggio.
Credo che i vantaggi dal punto di vista del webmaster li hai capiti: facilità di modifica, concentrazione solo sui contenuti, keywords e struttura..Cerchero di far comprendere meglio la seconda parte del messaggio.
Ho letto il test che stai facendo (link nella tua firma): cerca di offrire all'utente la descrizione più accurata possibile per i contenuti di una pagina, anche di una sua parte.
Pensa cosa si può fare se il contenuto dell'intero sito fosse in un unico file index.xml forniresti meta description dettagliate, title dettagliati e specifici, ed inoltre qualsiasi pagina interna del sito sarebbe sempre l'index.xml, con tutti i vantaggi in termini di posizionamentoPer quanto riguarda la struttura, non mi preoccuperei più di pagine interne, cartelle, sottocartelle, domini di terzo livello ma solo di struttura di link per organizzare semanticamente il sito;
in questo modo offrirei ad ogni utente un percorso specifico e per ognuno di loro!
in poche parole farei link building e una struttura del sito totalmente semantica e non dovrei più preoccuparmi di passagio di PR alle pagine interne del sito perchè qualsiasi pagina interna sarebbe comunque l'index.xml
Sto straparlando o quello che ho in mente non si può fare???
-
Dove tu conservi i tuoi dati, xml, txt, mdb, mysql, sql server, ai motori di ricerca non interessa assolutamente,
è un problema tuo, certo è che non li puoi dare in pasto il tuo database, xml o non, e dirgli "pensaci tu che così io me ne posso fregare della SEO".Secondo me vuoi fare dei passi più lughi delle tue gambe, c'è tempo.
Lascia stare per il momento xml, semantica, ecc. e approfondisci a 360 gradi l'infarinatura di base che un webmaster deve avere, se vuoi fare il webmaster indipendente.Altrimenti se lavori in team, beh allora dovrai metterti d'accordo con il SEO, il DB administrator ecc, e di queste questioni te ne puoi anche fregare, se a loro va bene.
Sai fare delle pagine xhtml strict? Bene bravo, ora passa a tutto il resto, sei al 20% del percorso.
-
Al di là di altre considerazioni... ma non sarebbe molto pesante il tuo file xml?
Direi di si. Probabilmente *troppo *pesante, se deve contenere un intero sito.
Se ho capito bene la domanda - e a prescindere dalle digressioni.
-
se il file è troppo pesante non ti saprei dire... farò delle prove, ma la mia idea partiva da una considerazione.
I network di siti sono molto spesso fatti da siti che non hanno tantissime pagine per cui potrebbero stare in un solo file xmlL'idea: se metto un sito del genere in un solo file xml, mister G indicizzerà la mia index.xml trovando contenuto (tanto contenuto) e che cresce di giorno in giorno.
Domanda: se faccio una pagina del genere le keywords presenti saranno tante, correlate e riguardanti un solo argomento di nicchia.
Funziona un discorso del genere? Per mister G meglio un sito con tante micro pagine o una sola pagina con tanto cotenuto?In altre parole: un sito di una sola pagina, anche in html, con tantissimo contenuto è migliore rispetto ad un sito con tante micro pagine con poco contenuto?
Non so se sono stato chiaro....
per fare un esempio in pratica (sperando che possa scrivere un indirizzo) ho fatto questo file brugneca.net/xml/index.php
-
@brugneca said:
se il file è troppo pesante non ti saprei dire... farò delle prove, ma la mia idea partiva da una considerazione.
I network di siti sono molto spesso fatti da siti che non hanno tantissime pagine per cui potrebbero stare in un solo file xmlGiusto per dei minisiti, infatti, altrimenti ti assicuro che l'Xml 'pesa' parecchio per contenere un intero sito in un'unica pagina.
@brugneca said:
Domanda: se faccio una pagina del genere le keywords presenti saranno tante, correlate e riguardanti un solo argomento di nicchia.
Funziona un discorso del genere? Per mister G meglio un sito con tante micro pagine o una sola pagina con tanto cotenuto?In altre parole: un sito di una sola pagina, anche in html, con tantissimo contenuto è migliore rispetto ad un sito con tante micro pagine con poco contenuto?
Bella domanda. E anche bella idea. Ma se già creare dei network sia procedura non eccessivamente vantaggiosa, allora questa diventerebbe ancora meno proficua se non si riesce ad ottenerne almeno un 'corpus' di URL indicizzate.
Tu produrresti comunque le varie URL o faresti indicizzare solo la index, come hai più volte scritto? In questo secondo caso viene meno l'utilità - se mai ce ne fossa l'urgenza - di creare un network di minisiti.
Un'unica pagina, magari molto grossa, è solo una landing page, al limite.
E' interessante se ti va di testare la tua idea... ma per fare landing, appunto, probabilmente.
Se invece generi le diverse URL allora l'unico dubbio che mi si pone è il peso.
-
La mia idea era proprio di fare un test perché anche Mister Y ha registrato un brevetto per l'indicizzazione semantica delle pagine web e dalla documentazione disponibile in rete pare, sottolineo pare, che risulatano avvantaggiate le pagine con tanto contenuto, vario ma correlato.
Ma prima una domanda: che intendi per generare le singole URL??
Nell'esempio che ho postato prima vi era una chiamata in GET all'index.php, in modo tale che qualunque pagina venga richiesta:- l'utente vedrebbe solo l'informazione che ha richiesto
- mister G si troverebbe come codice della pagina l'intero sito
-
Mentre scrivevo il precedente post mi è venuto in mente una domanda: perché cerchiamo di ottimizzare la struttura e i link di un sito? per far capire a mister G di cosa parla il nostro sito, penso. E inserendo tutto in un solo file non sarebbe meglio?!
Certo fare un sito intero in una sola pagina html diventa improponibile anche per l'utente, ma con l'xml possiamo mostrare all'utente solo una parte di quel file.
In questo modo per l'utente non cambia nulla e mister G avrà modo di conoscere di cosa parla il nostro sito in un sol colpo..I vantaggi che ne otterremo noi altri, che ve lo dico a fare...