- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- La puzza di SEO
-
La puzza di SEO
Ciao a tutti e buona settimana.
...no,no...non è che non mi sono lavato!Parlando di convalida w3c e reazione di google si è parlato ultimamente di
"puzza di seo" che porterebbero a ipotetici controlli più rigidi attraverso bots e umani.Vorrei discutere a riguardo.
Per creare un po di sana polemica potrei dire, facendo un parallelo
codice validato=puzza di seoche, secondo me, a questo punto, varrebbe anche
pr 6 = "puzza di seo"
keywords in ogni parte della pagina (in modo corretto) = puzza di seo
prime posizioni nelle serp = puzza di seo
sito fatto bene = puzza di seo
e via dicendo.Insomma, vorrei esprimere il fatto che il seo non puzza.
O meglio puzza quello fatto male, cioè vicino allo spam senza la malizia-conoscenza di fare vero spam (che nella suo danno ed inutilità è comunque un arte anch'essa)
Cosa ne pensate?
-
mmmm... non dirlo in giro se no non ci fanno piu lavorare e pediamo clienti...
Scherzo
-
Ma infatti , tanfetto o meno, gli sforzi dei motori son proprio volti a considerare i sitarelli secondo parametri sempre piu generali.
Alla fine, tra l'altro, se si vuol fare un sito perfettino e posizionabile (ora e sempre nei secoli dei secoli.. amen)... ci si trova a fare (in teoria) un buon sito.
Se poi chi scrive dimentica che il vocabolario italiano è vario e bello e, senza poter fare altrimenti, si ritrova a ficcare quella dannata parola in ogni link, titolo, link e immagine.. allora si. Puzzera di SEO.Un bel cane non puzza di cane. E' un bel cane e basta.
Un buon profumo è quello che non senti, ma percepisci.
Cosi come diventa tutt'altro che bella una donna con due poppe grandi come cocomeri, dure e liscie come palle da biliardo, labbra a canotto e trucco agli occhi che somiglia di piu ad un paio di occhiali tatuati.Il trucco, come si suol dire, va bene quando "c'è ma non si vede". Cosi non puzza. E dura di piu.
In conclusione, ben venga l'insospettimento da parte dei motori (e degli utenti!) verso i siti dove la tecnica e l'obiettivo "scalata SERP" prevarica il fine stesso di un sito (fornire un documento on line)!
E credo che sia la speranza, in fondo in fondo, di chi il posizionamento lo fa per lavoro, con partita IVA e professionalita. Verrebbero scremati i seo-fai-da-te, quelli dei testi nascosti, i bannerini "segnalato da", i cms zeppi di bannerini PPC ecc ecc...
-
Smentisco tutto ragazzi non diventiamo paranoici.
A parte che persino www.google.com NON è w3c standard e non passa la validazione (e c'è un motivo ben preciso per questo: non è un caso), ma queste ipotesi sono davvero esagerate. La validazione non con conta assolutamente nulla, certo fare un codice pulito e leggero è meglio che buttare dentro td e tr come immondizia (e questo solo per una questione di contenutistica) ma non succede nulla se non si è w3c compliant al 100%. Il contenuto è sempre stato per G e rimane ancora la vera discriminante. I miei siti li faccio sempre w3c 100% compliant ma solo x una questione mia di accessibilità, non certo x i motori. Escludo categoricamente, in base alla mia esperienza, che vi siano algoritmi simili che influenzano le serp.
Piuttosto...non linkate siti spam o segnati come warning da G, quello si che fa cambiare decisamente le cose.Per il resto (key density massiccia e title nei link ripetuti e massicciamente presenti)... beh ho fatto da tre mesi un sito seo-heavy (quasi a livello di uno spam site) da oltre 1000.000 di pagine...cosi tanto per fare un test. Risultato? sta andando in maniera impressionante.
Molti algoritmi e filtri sono molto piu banali di quello che sembrano. Non fate come Fox Molder che vede alieni anche nei gelati.
Saluti
-
Perdonate l'intromissione, ma secondo voi ad un motore di ricerca con miliardi di pagine indicizzate convenga rimuovere dal proprio archivio le pagine non validate? ci sono tantissimi siti non ottimizzati ma con contenuti top....
Saluti
-
non penso esiste una "puzza di SEO"....l'unico problema è che talvolta i SEO tendono a sovraottimizzare facendo scattare dei filtri automatici
la validazione in particolare non ha nessunissima attinenza col SEO che guardacaso riguarda l'ottimizzazione dei contenuti, la tematizzazione degli stessi, l'accurata gestione dei backlink, ma comunque la validazione non fa parte dell'armamentario SEO
un codice validato è un codice che si presenterà accessibile anche agli user agent che seguono protocolli "strict"......
una cosa da tener conto però sono gli errori nel codice ma non ai fini della validazione quanto piuttosto ai fini del parsing....
come ho detto già altrove Google usa un sistema di correzione degli errori basato su TIdy ( alcuni speculano un misto tra Tidy e BeautifulSoup che sono lo stato dell'arte nel campo della correzione automatica di codice (X)HTML mal formato )
detto questo il problema si pone qualora un codice scritto male induce il parser ad includere pezzi di html o codice javascript o css all'interno del testo estratto....è chiaro che questo falsa la valutazione del documento parsato
l'altro problema è che alcuni errori possono bloccare o far crashare i parser, in conseguenza di ciò la risorsa non viene parsato e così eliminata dal DB
fondamentalmente è meglio avere un codice validato, tuttavia non bisogna esagerare e diventare paranoici....se per esempio il nostro caro validatore W3C ci dice che questo <a href=http://blahblah....> è un errore non stiamolo a sentire e passiamo oltre
-
Bel post! Concordo in pieno.
-
A proposito di validazione vi segnalo un'estensione per Firefox molto utile basata su Tidy e OpenSP e gratuita. La trovate qui: http://users.skynet.be/mgueury/mozilla/index.html
Dario
-
vi consiglio l'estensione per firefox web developer. Fantastica.