- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- quali sono gli errori da evitare nel posizionamento?
-
l'errore sarebbe non considerare [url=http://www.google.it/support/webmasters/bin/topic.py?topic=8521]questo
-
- No server windows
- NO ignorare i log (ho detto i log no le statistiche)
- non avere fretta
- non essere imprecisi nel lavoro
- non trascurare il sito nei primi 6 mesi di vita
-
Oltre a quanto già detto:
-non scegliere un cms (se ne usi uno) che non sia abbastanza FLESSIBILE.
Scegli uno del quale sia facile replicare sia struttura che contenuti, per quando deciderai di passare ad altro.-non registrare un dominio d'impulso.
Mi è capitato di dire "Eureka! Quest'altro era MOLTO meglio! ed è ancora libero, per la miseria!" Ma questo è accaduto anche dopo settimane, quando ormai avevo già avviato il tutto-non cambiare la struttura del sito una volta che è online
Decidi quale sarà la struttura directory / files del tuo sito PRIMA, e non cambiarla quando sei già indicizzato e linkato.
Inutile dire che il rewrite, se non è indispensabile, poco ci manca. Ma che sia un rewrite pensato, e non solo senza querystring.
-
@micky said:
Grande post !!! Potevi dirlo prima :D!!! Addio a tutti, ci vediamo nella sezione web marketing :D!!! Quindi stai dicendo che la link popularity è il fattore più importante ;)? Doop insegna
Nella sezione [url=http://www.giorgiotave.it/forum/viewforum.php?f=29]web marketing c'è sempre posto anche per i SEO di questo forum
-
@Fuffissima said:
Nella sezione [url=http://www.giorgiotave.it/forum/viewforum.php?f=29]web marketing c'è sempre posto anche per i SEO di questo forum
grazie dell ospitalità, Fuffissima :). Ho davvero bisogno di consigli in tal senso, perchè a parte gli scambi link, combino ben poco quanto a popolarità.
Del resto Stuart, nella sua guida, in una sezione dice chiaramente di ricordarsi che internet non significa solo google. Io personalmente, nel mio...ehm settore, vedo leader di mercato che non compaiono assolutamente nelle serp... allora un'unione intelligente di tecniche SEO (e tra l'altro Giorgio sottolinea che i fondamentali a livello di singola pagina sono più che sufficienti) e WEB MARKETING, porta veramente lontano :).
-
Domandina: perchè abbiamo detto NO ai server Windows? Cos'hanno che non va? Grazie mille
-
@Braccobaldo said:
Domandina: perchè abbiamo detto NO ai server Windows? Cos'hanno che non va? Grazie mille
rettificono i server Windows se non sviluppi con tecnologie Microsoft (Asp ecc..)
motivo: server linux ..minor costo, maggior autonomia, maggior possibilità
-
@Fuffissima said:
Nella sezione [url=http://www.giorgiotave.it/forum/viewforum.php?f=29]web marketing c'è sempre posto anche per i SEO di questo forum
Anche perchè per ogni settore ci sono delle possibilità diverse di accumulare BackLink, direi di approfittarne per chiedere Idee, che di questi tempi, seppure semplici e banali, portano grandi risultati
-
Ma in un sito che principalmente è un forum di discussione come posso evitare che gli utenti bellamente mettano link a siti che nulla hanno a che fare con il sito?
Negli off-topic appaiono quotidinamente link verso siti di cavolate...
-
Puoi sempre decidere che in una sezione metti i nofollow o non la fai indicizzare
-
Beh avete detto tutto voi..
a noi non lasciate nullaQUOTO TUTTI!!!!
-
@Giorgiotave said:
Puoi sempre decidere che in una sezione metti i nofollow o non la fai indicizzare
Mi dispiace che non usi più il phpbb come board per il forum...
Chiedo: sarebbe possobile fare questa cosa solo per una determinata stanza del forum?Altro "errore" é quello di non dare contenuti nuovi al sito costantemente (anche pochi) per i primi mesi.
Ed altro errore è di non mettere qualcosa di "variabile" in ogni pagina... che ne so, un contatore di pagine viste, una data che varia, una frase o più a random, possibilità di inserire brevi commenti....
-
non è un vero proprio errore, ma una svista pericolosa:
non essere ossessionati dal pagerank!!!
troppe volte ci preocuppiamo di andare alla ricerca fobica di link, mentre il vero problema del "non decollo" del nostro sito può essere la cosa più ovvia: i contenuti o altri fattori on-page.
-
@simone1971 said:
non è un vero proprio errore, ma una svista pericolosa:
non essere ossessionati dal pagerank!!!
troppe volte ci preocuppiamo di andare alla ricerca fobica di link, mentre il vero problema del "non decollo" del nostro sito può essere la cosa più ovvia: i contenuti o altri fattori on-page.
STRAQUOTO IN PIENO!!
-
@petro said:
-non cambiare la struttura del sito una volta che è online
Decidi quale sarà la struttura directory / files del tuo sito PRIMA, e non cambiarla quando sei già indicizzato e linkato.Salve a tutti ,mi unisco però con una domanda
Purtroppo 1 anno fà ho messo il sito online non pensando bene al futuro...quindi ora che l'ho rifatto sono stato costretto a modificare la struttura delle directory che contengono le foto del sito, anche se le pagine hanno gli stessi nomi ed estensioni, quanto questa cosa può penalizzare?Un saluto a tutti
-
@vision82 said:
Salve a tutti ,mi unisco però con una domanda
Purtroppo 1 anno fà ho messo il sito online non pensando bene al futuro...quindi ora che l'ho rifatto sono stato costretto a modificare la struttura delle directory che contengono le foto del sito, anche se le pagine hanno gli stessi nomi ed estensioni, quanto questa cosa può penalizzare?Un saluto a tutti
Dipende da molte cose, non è detto che cambiando struttura si possa cadere in qualche penalizzazione.
Se il tuo sito è anziano puoi in gran parte fare ciò che vuoi e non cadere nelle serp, dai fattori offpage ecc.ecc.
L'importante è la categoria del sito con i contenuti che non debbono essere stravolti altrimenti..
-
No no i contenuti saranno esattamente gli stessi, il sito è stato rifatto utilizzando i css e pulendo completamente il codice, però ho organizzato i contenuti delle pagine in maniera ordinata e non come prima che era quasi tutto insieme...
Grazie per la risposta :brindisi:
-
Allora non avrai problemi
-
ehm ehm....non linkare chi spamma
non sottovalutare il contenuto come principale mezzo per ottenere BL (non basta chiedere...e doop insegna )
ciao amico mio, buon mare
-
Ai primi posti metterei l'essenzialita' del testo e del codice.
Ogni volta che uno spider passa sul sito a priori si chiede quanti k dovra' leggere, potrebbero essere 1000 come 10.000, dipende da molti fattori.
Non entriamo del merito di quali calcoli faccia il bot, su quali valori si basi per stabilire quanti k di un sito dovra' leggere il suo spider, ma partiamo dal presupposto che i motori sanno di ogni sito se spiderizzarlo, ed in caso affermativo con che frequenza passare e quanti k spiderizzare di volta in volta e nel mese.
Lo stesso discorso per il numero di pagine da spiderizzare, ma il numero di pagine e' consecutivo al valore dei k da leggere, se un sito avesse tutte pagine da 100k e lo spider avesse l'ordine di leggere solo 100k ecco che allora spiderizzerebbe una sola pagina. Se le pagine fossero da 10k ne spiderizzerebbe 10.
Bene, premesso questo si capisce come in una pagina, ogni carattere "inutile" sia di fatto una vera e propria penalizzazione.
Per fare un esempio la frase sopra si potrebbe scrivere: in una pagina ogni carattere inutile e' una penalizzazione.
Oppure: Nella pagina un carattere inutile penalizza.
Inutili giri di parole, rindondanze, eccessi di avverbi congiunzioni e via dicendo penalizzano.
Per non parlare del codice. Commenti che "nascondono" vecchie frasi o immegini non piu' usate, righe di codice html di 50 caratteri quando ne basterebbero 30 e via dicendo pesano esattamente per lo spider come qualsiasi altro testo utile, solo che se lo spider si legge 50k di testo inutile (codice o contenuto che sia) non si leggera' 50k di testo utile.
Se penalizza il testo inutile pensate alle pagini inutili. In moltissimi casi si possono accorpare 2 pagine in una, levando da una delle 2 tutto cio' che hanno in comune, per dire intestazioni, logo... non solo si riduce il peso del sito ma anche i link interni diminuiscono ed i livelli migliorano.
Si aiuta i motori ad aiutarci.