• User Attivo

    Ci sto pensando, ma a parte un'orgoglioso "io ho i miei parametri, dei tuoi me ne frego" non mi viene in mente nulla.
    Odio sentirmi una pippa ... -_-


  • Community Manager

    Secondo me non si deve validare per i motori. Anche perchè si rischierebbe di avere un sito senza errori, ma non accessibile a tutti.

    Quindi, la validazione non sarà presa in considerazione dai motori di ricerca.


  • Super User

    Secondo me esiste anche un problema di banda.

    Un codice perfettamente validato è, molto spesso, più lungo... e se faccio gli accessi di google, risparmiare 1k a pagina sono soldi.


  • Bannato User Attivo

    hai indovinato alla perfezione il motivo per cui google NON VUOLE essere w3c standard...
    $$$$$$$$


  • Super User

    Diciamo che a nessuno di noi piace buttare soldi... comunque chiudiamo, è OT


  • Super User

    Insomma, validare non vuol dire necessariamente allungare il codice.

    Diciamo che, nel mio caso, questo accadrebbe solo se volessi validare il forum con tutte le modifiche operative, in quel caso si allungherebbe davvero.

    Ma come impianto base della piattaforma vbulletin, il codice sarebbe anche più corto.

    Continuando a parlare di banda, a questo punto, potrebbe addirittura essere controproducente avere un sito validato ma, per esempio, un 30% più pesante?

    Diventa apparentemente paradossale 😄

    Quindi, ragionando sempre sulla stessa base, sarebbe consigliabile mettere il css in una pagina diversa invece che inserirlo nel corpo della pagina, si alleggerisce di un bel pò il codice, specie per un forum come vbulletin.

    Ho fatto una prova, e le copie cache risultano schematiche e senza la parte grafica quindi davvero molto più leggere.

    Mi chiedo, questo cambia come il motore vede il sito?
    Voglio dire, non sarà che si perde qualcosa?


  • User

    @mix said:

    Google si sta muovendo verso il w3c, un pò di tempo fa sollevai su vari forum/blog il problema degli annunci non validabili, scrissi anche a google e dopo 24 ore esatte un e-mail mi diceva che avrebbero risolto il problema al più presto.

    Dopo 48 ore i nuovi annunci adsense perfettamente validati.

    Con questo non voglio dire che si sono mossi per una mia segnalazione ma che google sta lavorando a sistemare i suoi problemi con il w3c.

    Come hai fatto a mettere un link in firma? Non sono disabilitati? O_o

    Per il resto concordo anche io sul fatto che forse adesso la validazione non conta molto. In futuro però credo che sarà uno dei tanti parametri presi in considerazione dai bot.


  • Bannato User Attivo

    Basti solo pensare agli alt delle immagini (obbligatorie per w3c) per capire come si possa allungare..e tutto questo consuma banda. G non ci pensa nemmeno a mettere gli alt!


  • User Attivo

    Discussione interessante! Novità? 🙂


  • User

    @cosmoweb said:

    Discussione interessante! Novità?

    Il mio sito matteoweb.it, ora rinnovato con joomla (e quindi con css validi), ha perso posizioni rispetto al "vecchio" (matteoweb.it/old) che tutto era meno che w3c standard.

    Ne deduco per esperienza personale che la validazione del css/html non conta quasi nulla per google. Per altri motori non so, non mi interessa, tanto ricoprono solo il 10% delle ricerche.


  • Super User

    @nasozor said:

    Il mio sito matteoweb.it, ora rinnovato con joomla (e quindi con css validi), ha perso posizioni rispetto al "vecchio" (matteoweb.it/old) che tutto era meno che w3c standard.

    Ne deduco per esperienza personale che la validazione del css/html non conta quasi nulla per google. Per altri motori non so, non mi interessa, tanto ricoprono solo il 10% delle ricerche.
    E sbagliata la logica della deduzione che hai usato.
    😉

    Tu hai cambiato tutto.

    Prendendo anche solo le URL, le tue nuove URL sono molto meno friendly per i motori delle vecchie....
    Già questo può essere il responsabile del calo.

    Personalmente non so dirti se conta, e quanto conti la validazione, voglio solo sottolineare che per trarre una deduzione avresti dovuto modificare una sola variabile, ad esempio mantenere inalterato tutto a parte i CSS.

    Se modifichi la struttura del sito, le URL, i contenuti, le immagini, i metatag, ecc. le variazioni nelle SERP possono derivare da una qualsiasi di queste variabili.

    Effettuare deduzioni osservando le SERP è sempre difficile....
    Anche modificando una sola cosa alla volta ci si può sbagliare, perché magari è qualche altro sito ad essere salito e non noi ad essere scesi (o viceversa).


  • User

    @Stefano said:

    E sbagliata la logica della deduzione che hai usato.
    😉

    Tu hai cambiato tutto.

    Prendendo anche solo le URL, le tue nuove URL sono molto meno friendly per i motori delle vecchie....
    Già questo può essere il responsabile del calo.

    Personalmente non so dirti se conta, e quanto conti la validazione, voglio solo sottolineare che per trarre una deduzione avresti dovuto modificare una sola variabile, ad esempio mantenere inalterato tutto a parte i CSS.

    Se modifichi la struttura del sito, le URL, i contenuti, le immagini, i metatag, ecc. le variazioni nelle SERP possono derivare da una qualsiasi di queste variabili.

    Effettuare deduzioni osservando le SERP è sempre difficile....
    Anche modificando una sola cosa alla volta ci si può sbagliare, perché magari è qualche altro sito ad essere salito e non noi ad essere scesi (o viceversa).

    In effetti hai pienamente ragione. Quello che volevo dire però è che per esperienza, anche su altri siti, il css pulito non conta quasi nulla, anzi, tra fare un sito con tanti div riposizionati dallo stile e uno identico nell'aspetto con tabelle annidate, meglio questa seconda scelta. Ho notato che siti del genere google li "legge" molto più agevolmente e restano ai primi posti...

    M'informerò e poi posto tutto quello che ho scoperto...


  • Super User

    @nasozor said:

    M'informerò e poi posto tutto quello che ho scoperto...
    Molto curioso di leggerlo

    :gthi:


  • Moderatore

    Lo stesso Google nei consigli che dà al webmaster per migliorare il posizionamento precisa che un markup validato non influisce direttamente sul posizionamento.


  • ModSenior

    A me viene in mente ad esempio Live che, nel brevetto segnalato qui per identificare i blocchi di contenuto rilevanti delle pagine web, utilizza per la scansione delle pagine un parser DOM ... e quindi per forza legato alla struttura e alla validazione della pagina (fermo restando che avranno implementato dei correttivi).

    Come riporta il titolo del post pero' penserei non tanto alla validazione quanto al fatto che un sito sia in CSS + XHTML:

    1. velocizza e riduce la scansione dei crawler e ridurre la banda occupata.

    2. se Google estendesse il fattore "tempo di caricamento delle pagine" da AdWords al resto del search engine (e il rendering delle tabelle HTML e' notoriamente piu' lento rispetto a soluzioni XHTML + CSS) potrebbe influire non poco.

    3. Ormai Google usa talmente tanti strumenti per determinare l'importanza della pagina che un "peso" (come ad esempio il rapporto tra HTML completo e le parti di contenuto rilevanti) forse sara' anche stato uno dei tanti n-mila parametri calcolati e usati da Big G qualche anno fa ma forse e' un fattore meno rilevante per il SEO di oggi.