- Home
- Categorie
- Digital Marketing
- SEO
- Lavoro Seo step by step
-
Pure io sarei interessato a conoscere step by step le azioni da eseguire su un sito per ottimizzare il suo posizionamento
ciao
-
Secondo me se un sito e nuovo bisogna andare piano. Quindi comincia con al massimo 30 backlink al tuo sito al giorno, non di più altrimenti rischi in partenza. Poi aumenti il numero.
Bisogna sempre cercare risorse buone, non link scarsi. Da questo fatto dipende dove ti posizioni. Poi ovviamente i social hanno una grande importanza. Ma sopratutto di avere link diversi, questo e fondamentale dopo i aggiornamenti di google.
-
Ciao Dimidrol
scusa la mia domanda ma come fai a reperire 30 backlink al giorno?
Grazie
Salvo
-
Ci sono diversi tool automatici che puoi utilizzare, altrimenti inserisci manualmente commenti nei blog, directory, scrivi articoli per puoi inviarli ai servizi che li accettano con grande piacere.
-
@TheGame90 said:
Supponendo di dover ottimizzare un sito già indicizzato, sapreste indicare step by step le azioni che eseguireste?
Subito farei un'analisi on-site per capire se vi sono ostacoli alla corretta crawlabilità e indicizzazione: contenuti duplicati generati dal URL non previsti, gestione dei canonical, REP, etc... e nel caso individuerei gli interventi minimali.
Poi essendo un sito già esistente ne analizzerei tramite GWT e Analytics (ovviamente nella speranza siano già impostati correttamente) il traffico organico attuale per capire quali keyphrase portano traffico, quali hanno buone potenzialità, etc... paragonandole con quelle inizialmente concepite. Spesso sulle keyword più importanti la concorrenza è troppo forte, ma in seconda pagina si possono trovare ottime opportunità di crescita.
Da questa analisi individuerei gli interventi onsite per migliorare sulle key phrase individuate.Se vi è un account AdWords, sarebbe un'ottimo modo di capire per che keyphrase gli utenti mi cliccano (visto che non soffre del [not provided]) e come queste le pagine si comportano in termini di rendimento.
Poi farei un'analisi del profilo di link per capire lo stato attuale e vedere se vi possono essere link tossici.
@TheGame90 said:
E quali le differenze rispetto ad un sito ancora da costruire?
Per un sito nuovo il discorso è molto più ampio, difficile dirlo in poche righe:
oltre a dover fare l'analisi delle keyphrase da zero e pianificare la campagna SEO, occorre prima ancora secondo le esigenze individuere i requisiti hw e sw (hosting/housing, che CMS/piattaforma, che dominio, per che nazioni se fosse International) anche in base alle esperienze e conoscenze del team (in particolare per la scelta del CMS o ambiente server, es php/java/.net) oltre che ovviamente il tipo di sito (lead generation? e-commerce? blog? portale?)
Ogni ambiente ha limiti e punti di forza cui il SEO dovrà adattarsi... discorso troppo ampio, passo!
-
Grazie per le risposte.
Federico il tuo commento mi ha ampliato un pò gli orizzonti; Vediamo se commenta ancora qualcun'altro credo sia un discorso interessante!
-
Ciao Dimidrol
conosci una lista aggiornata di directory dove poter inserire manualmente il mio sito ?
tra questi tool automatici a cui fai riferimento me ne puoi indicare qualcuno non a pagamento?
grazie
Salvo
-
Ciao Federico
mi accorgo che ho tanto da imparare...
Subito farei un'analisi on-site per capire se vi sono ostacoli alla corretta crawlabilità e indicizzazione: contenuti duplicati generati da URL non previsti, gestione dei canonical, REP, etc... e nel caso individuerei gli interventi minimali.
volendo iniziare da questo primo step, quale strumento posso utilizzare per individuare "contenuti duplicati generati da URL non previsti, gestione dei canonical, REP" ??
Grazie
Salvo
-
@salvo1 said:
volendo iniziare da questo primo step, quale strumento posso utilizzare per individuare "contenuti duplicati generati da URL non previsti, gestione dei canonical, REP" ??
Non sono sicuro di riuscire a rispondere in poche righe... a beneficio di tutti gli utenti del forum dò qualche spiegazione in più, sperando di non tediarvi con banalità troppo noiose. Nulla di quanto scrivo è bibbia, né vuole ricoprire tutti i casi possibili.
Mi limito a sfiorare gli argomenti citati dalla domanda di Salvo.
Magari vedremo in futuro di organizzare in glossari e faq di sezione un po' di materiale.Crawlabilità
Significa controllare se lo spider del motore di ricerca è in grado di visitare il sito correttamente come ci aspettiamo.
Per prima cosa di solito si googla [site:sito.it] per vedere cosa Google (o un altro motore di ricerca) ha indicizzato.
Se non viene fuori nulla: o il sito è nuovo e non è mai stato visitato, o vi è una penalizzazione seria, oppure - come più spesso accade - c'è un problema di crawlability.Nota: prima ho usato l'acronimo REP, sta per "Robots Exclusion Protocol" e consiste nell'insieme di protocolli e sintassi che descrivono il file robots.txt, e robots meta-tag, gli header HTTP x-meta-robots, e l'attributo rel="nofollow" applicato ai link.
Quali sono i possibili problemi che impediscono un search crawler di visitare?
Una lista non esaustiva, disordinata:- robots.txt impedisce visita
- robots meta tag impostato in tutte le pagine erroneamente a "noindex" (o "none", capita di vederlo usato per errore)
- analogo per x-robots-tag, caso molto più raro
- errori server HTTP 50x non previsti alla visita del crawler (un esempio: alcuni siti cercano di fare dei redirect in base alla lingua dell'utente, ricavata da un header HTTP chiamato "accept-language"; googlebot non lo fornisce e se la logica lato server non prevede il caso potrebbe generare un errore).
- canonical path impostati erroneamente a un dominio diverso, o tutti alla stessa pagina (ho visto entrambi gli scenario, non sono così rari come sembra)
- etcetera etcetera etcetera...
Tutte queste cose si possono controllare a mano, con browser e al più uno sniffer http: si visita una pagina, si guarda l'HTML, etc... farlo per tutte le pagina di un sito potrebbe essere un'impresa, sicuramente prenderebbe un sacco di tempo e sarebbe prono all'errore.
Vi sono tool che assistono proprio in questo tipo di diagnosi, sono i vari programmi online e offline genericamente chiamati "seo audit software", "seo spider", "site crawler", etc...
La mia preferenza personale è nota, ma le alternative non mancano.Contenuti duplicati causati ad URL non previsti
sono quegli URL che non t'aspetti debbano essere considerati da Google, di solito non realizzi nemmeno esistano.
casi tipici sono:- home page raggiungibile sia come / che come /index.html (o pagina di default dell'ambiente usato lato server, es index.php, Default.asp, Default.aspx, index.htm, etc...)
- indicizzazione doppia delle versioni con e senza www degli URL
- link a versioni di pagine con commenti
- link a versioni di pagine stampabili
- link a versioni di pagine previste per versione mobile
- link a versioni di pagine con parametri di tracking vari
- etc.. etc.. etc...
Per individuarli puoi iniziare da GWT, "Ottimizzazione" -> "Miglioramenti HTML" -> "Tag title duplicati"
di solito (non sempre) titoli duplicati potrebbero essere causati da URL non previsti. Non è però un metodo che ricppre tutti i casi (salta casi di titoli mancanti, URL che ritornano HTTP diversi da 200 OK, pagine con canonical diverso dall'URL crawlato, etc..).Magari GWT non è configurato, o non vi hai accesso, e comunque le informazioni che dà sono sempre poco aggiornate e difficili da organizzare. Un approccio più sistematico e anche in questo caso è fare una crawlata con uno spider, così da avere una vista completa e più aggiornato rispetto quanto fornito da GWT.
Questi programmi permettono d'avere una vsita d'insieme organizzata, ordinarla, filtrarla, e se il tool da solo non basta si possono esportare i dati su un foglio elettronico.
Spero d'essere stato utile
-
@salvo1 said:
Ciao Dimidrol
conosci una lista aggiornata di directory dove poter inserire manualmente il mio sito ?
tra questi tool automatici a cui fai riferimento me ne puoi indicare qualcuno non a pagamento?
grazie
Salvo
Hai bisogno di una lista delle directory italiane oppure estere?
Purtroppo gratuite non conosco nessuno, ma ci sono tool molto validi che valle la pena di acquistarli.
-
Ciao grazie della risposta
le directory vanno bene sia italiane che estere, il mio sito si occupa di religione.
salvo
-
@salvo1 said:
Ciao grazie della risposta
le directory vanno bene sia italiane che estere, il mio sito si occupa di religione.
salvoNon sono sicuro se posso lasciare link che porta ad altre risorse che non sono mie, promuovendo altre directory, ma se giorgio mi permette posso inserire alcuni.
Ma intanto sicuramente potresti iniziare con la directory di giorgiotave. Anche se non sono sicuro che vieni accettato, sto aspettando anche io, ma sicuramente quando avrà tempo ci prenderà in considerazione le nostre richieste!
-
Ciao Dimidrol
puoi cortesemente indicarmi una lista di directory dove poter inserire il mio sito? credo che si possano lasciare link che portano ad altre risorse
Salvo