• User Attivo

    Sitemap automatiche vs manuali

    Ciao a tutti,

    volevo creare una sitemap per il mio sito e ho trovato diversi tool gratuiti che mi permettessero di fare ciò.
    Ne ho provati 2 e ho ottenuto due sitemap diverse tra loro.
    Gli ho dato un po' una occhiata ma non sono riuscita a capire in che modo hanno analizzato il mio sito.. una mi sembra che sia stata generata a casaccio ma risulta avere più url mentre l'altra mi sembra che più o meno rispecchi la struttura vera e propria del mio sito ma ha meno link. Quale devo preferire per sottoporre a google webmaster tool? posso sottoporgliele tutte e due?

    Sul mio sito ho più o meno 1000 pagine.. come faccio a sapere che me le sitemap le abbiano lette tutte? (i tools che ho usato arrivavano a indicizzare più pagine).

    C'è qualcuno che ha mai provato a fare le sitemap a mano per essere sicuro sia di dare una gerarchia corretta sia di prendere tutte le pagine?

    :mmm:

    grazie


  • Moderatore

    Ciao sissa,

    @sissa said:

    Quale devo preferire per sottoporre a google webmaster tool? posso sottoporgliele tutte e due?
    Dire quale preferire è arduo, senza averle viste, la risposta sarebbe "la più corretta" 🙂
    Tranquilla, puoi sottoporle entrambe senza problemi, anche se avranno in gran parte gli stessi contenuti.

    @sissa said:

    Sul mio sito ho più o meno 1000 pagine.. come faccio a sapere che me le sitemap le abbiano lette tutte? (i tools che ho usato arrivavano a indicizzare più pagine).
    Quando inoltri la sitemap a GWT ti dice quante ce ne sono, ma per saperlo prima dipende dal tool usato.
    Anche sapere esattamente quante sono le tue pagine ti aiuterebbe, normalmente i tool che generano le sitemap dovrebbero dirtelo.

    @sissa said:

    C'è qualcuno che ha mai provato a fare le sitemap a mano per essere sicuro sia di dare una gerarchia corretta sia di prendere tutte le pagine?
    Creare a mano una sitemap non è impossibile, vedi per esempio (accatìtìpìduepuntislàscslàsc)emmastill.com/creating-a-flawless-xml-sitemap/
    devi solo stare attenta nei casi di caratteri speciali negli URL...

    ...però usare uno strumento fatto apposta rende la vita molto più facile.

    A questo punto devo consigliarti quello che considero lo strumento migliore.. mani avanti: sono sicuramente influenzato dal fatto che ne sono l'autore, quindi occhio che potrei scadere in una autopromozione tale da attirare farmi tirare le orecchie dai moderatori.

    Lo strumento è Visual SEO Studio, è uno spider come quelli che puoi già aver usato, ed è offline (ossia gira su desktop windows, quindi se hai Mac 'gnisca).
    L'opzione "Crea Sitemap" ti permette di selezionare tutti i contenuti e solo una parte, visualizzare l'elenco degli url da esportare e specificare anche l'ordine di esportazione (alfabetico o in ordine di visita).
    L'xml generato è garantito corretto, e in un commento in testa riporta ancora data di generazione e numero di URL elencati (per agevolarne la consultazione all'utente umano).

    Ora per par condicio riporto anche gli altri strumenti Desktop simili più popolari:

    Screaming Frog è sicuramente il più popolare (e gira anche su Mac), ma la versione gratuita impone un limite di massimo 500 URL, e non puoi specificare l'ordine di esportazione.

    **Xenu **è l'altro strumento di riferimento, non pone limiti sul numero di URL, è veloce, ma anch'esso non permette di controllare cosa esportare e in che ordine.

    Spero d'esserti stato utile, 'se vedemmu


  • User Attivo

    Grazie per la risposta!

    Avevo iniziato a fare una sitemap "manuale" e ho letto l'articolo che mi hai suggerito, anche io stavo procedendo più o meno in quel modo.
    Chi meglio di me conosce il mio sito? 😃
    Del resto non so spiegarmi come mai alcune sitemap includono delle immagini... boh.
    In quella che farò manualmente non lo farò!

    Solo una volta che avrò fatto la mia sitemap manuale potrò valutare i tools che ho trovato online... per lo meno saprò con certezza quante pagine ha il mio sito e quindi saprò se gli spider le avranno effettivamente lette tutte!

    Gli ultimi due che hai suggerito tu non li provo nemmeno in quanto leggono poche pagine, invece ho scaricato il tuo programma per "metterlo alla prova" 😉
    (spero di saperlo usare bene... non si può impostare in italiano vero?)


  • Moderatore

    ciao Sissa!

    Felice di sapere hai già provato l'approccio fai-da-te, è un'ottima palestra.
    Sta solo attenta per i caratteri strani nei nomi di file, per esempio se ci fosse un "&", per sicurezza apri il file con IE - a qualcosa ancora serve 🙂 - per controllare che non dia errori di formattazione dell'XML. Se puoi, cerca di salvare in formato UTF-8

    L'inclusione delle immagini nelle sitemap è una scelta, serve per sottoporle a Google che le indicizzi in Google Image Search. Personalmente non ne ho mai sentito il bisogno (cmq indicizzare bene delle immagini è abbastanza semplice).

    Se il tuo sito è puramente statico, sapere il numero esatto di pagine è immediato, l'approccio di Emma Still nell'articolo (nel suo caso era un sito asp tradizionale, dove ogni pagina del sito corrisponde a una pagina .asp), ma devi comunque prestare un po' di attenzione a diversi particolari:

    • gli URL di pagine noindex vanno saltate
    • gli URL di pagine esclude da robots.txt vanno saltate
    • gli URL di risorse che risultano non essere html vanno saltate (a meno che tu non voglia includere alcuni contenuti speciali come pdf, immagini, video, usando dove serve la sintassi corretta)
    • gli URL le pagine soggette a password (non pubbliche) vanno saltate
    • gli URL le pagine con canonical tag diverso dal proprio url normalmente vanno saltate
    • ...

    se però è tutto pubblico e tutto index è facile.

    Quando il sito invece non ha una corrispondenza 1:1 con il numero di file fisici è più complesso, allora devi fidarti di cosa ti dice lo spider; lo spider può poi evindenziarti problemi di contenuti duplicati dati da di cui magari non sei conscia (a me è capitato tante volte, è sorprendente per siti grossi quanti possano essere gli URL "accidentali").
    Un buon spider poi è in grado di "normalizzare" gli URL ordinando i parametri in querystring, ignorando i parametri di sessione, risolvendo bene gli URL relativi, etc...

    Su Xenu: non legge poche pagine, se ben ricordo non pone limiti tangibili nel numero degli URL.
    Sul mio tool in versione italiana: ancora no, arriverà 🙂

    Spero d'esserti stato utile, ciao!