A me viene in mente ad esempio Live che, nel brevetto segnalato qui per identificare i blocchi di contenuto rilevanti delle pagine web, utilizza per la scansione delle pagine un parser DOM ... e quindi per forza legato alla struttura e alla validazione della pagina (fermo restando che avranno implementato dei correttivi).
Come riporta il titolo del post pero' penserei non tanto alla validazione quanto al fatto che un sito sia in CSS + XHTML:
velocizza e riduce la scansione dei crawler e ridurre la banda occupata.
se Google estendesse il fattore "tempo di caricamento delle pagine" da AdWords al resto del search engine (e il rendering delle tabelle HTML e' notoriamente piu' lento rispetto a soluzioni XHTML + CSS) potrebbe influire non poco.
Ormai Google usa talmente tanti strumenti per determinare l'importanza della pagina che un "peso" (come ad esempio il rapporto tra HTML completo e le parti di contenuto rilevanti) forse sara' anche stato uno dei tanti n-mila parametri calcolati e usati da Big G qualche anno fa ma forse e' un fattore meno rilevante per il SEO di oggi.