• User

    Sto usando un software per fare la mia sitemap....

    Sto usando un software per fare la mia sitemap,si chiama VIGOS Gsitemap !!
    Allora,finora la costruzione della mia site map da inserire a fondo pagina nel mio sito ( così mi è stato detto ) è arrivata a questi valori,ma che stanno a significare ?
    IN QUEUE 147
    INDEXED 1471
    NOT INDEXED 126


  • Super User

    @requiema said:

    ( così mi è stato detto )

    Da chi? Chiunque sia stato, picchialo.

    Il sitemap è un file a parte, da copiare online nella directory del tuo sito.

    Trovi informazioni corrette leggendo la [url=http://www.google.com/webmasters/sitemaps/docs/en/protocol.html]documentazione ufficiale.

    Non conosco il software di cui parli, ma limitandomi a tradurre letteralmente, "in queue" significa "in coda", "indexed" significa "indicizzate" e "not indexed" significa "non indicizzate.

    Andando ad intuito, presumo si riferisca alla normale attività del software, che preleva le pagine per costruire il file sitemap ed indica quante pagine deve ancora visitare, quante ne ha già visitate e quante non ha voluto/potuto includere nel file sitemap.

    La documentazione del software non dice nulla, in proposito?


  • User Attivo

    Anch'io uso Vigos, è un buon programma che permette dopo la scansione del sito di poter modificare o completare i dati.
    Sono presenti due comandi, uno per salvare il file xml, l'altro per salvare la configurazione di lavoro.
    Se è stato configurato per farlo, è in grado di collegarsi via Ftp allo spazio server e depositarvi il file altrimenti occorre farlo a parte.
    Un altro comando è per inviare direttamente a Google l'informazione del file disponibile. :ciauz:


  • User Attivo

    Non conosco Vigos, che sicuramente e' un buon programma, ma in compenso ho un mia personale idea del servizio Google Sitemap.

    Lo sconsiglio vivamente.

    Sappiamo che un sito 'e composto da una o piu' pagine e che ogni pagina e' raggiungibile dal visitatore, partendo dalla home, attraverso uno o piu' click. Per accedere alla home (in teoria) non servono click, pertanto per definizione la home ha livello 0. Se dalla home per accedere alla pagina C devo cliccare 2 volte un link allora C avra' livello 2.

    Esempio : home linca A che linca B che a sua volta linca C, allora C = livello 3.

    Ora i livelli sono fondamentali, vitali, per cercare di dare un primo iniziale valore ad una pagina.

    Un esempio pratico, se un wm pone una pagina di un suo sito a livello 15, cosa volete che valga questa pagina per lui, per gli utenti del suo sito, per un motore?
    Vuol dire che un utente dovra' cliccare ben 15 link prima di potervi accedere, praticamente una caccia al tesoro.
    Pertanto per lui sara' una pagina assolutamente secondaria, mediamente introvabile dai sui utenti e di conseguenza di scarsissimo iniziale valore-peso per i motori.


    Ok, premesso questo un buon wm sa che deve stare attento a non usare livelli troppo alti (a meno che sia un sito storico-istituzionale con centinaia di migliaia di pagine, in questo caso discorso a parte) per le sue pagine, cosi' come per un motore e' fondamentale capire a che livello sono le pagine di un dato sito per poterlo "giudicare". Diciamo che esiste una giusta proporzione tra numero di pagine e distribuzioni dei livelli.

    Attenzione, se si parla di livelli non si discute di ottimizzazione verso i motori, ma di buon senso nei confronti dei visitatori.
    Si parla di aiutare un utente a trovare cosa vuole-cerca nel miglior modo possibile, possibilmente con pochi e chiari passaggi-click... e' una questione di priorita', di accessibilita', di stile, ecc ecc, direi anche di intelligenza e di saper fare per un wm il proprio mestiere cosi' come va fatto.


    Quanto sopra' e' un fondamento, una base solida dalla quale partire nell'atto di creare un motore di ricerca. Poi gli algoritmi si sprecheranno, ma le basi ci vogliono ed i livelli sono una di queste basi.

    Adesso G offre un nuovo servizio, e dice: ora potete aiutare il nostro spider a spiderizzare le pagine che preferite.

    Perche' g offre questa possibilita' che va apparentemente contro la logica dei livelli? Il suo spider deve sapere i livelli delle pagine, partendo dalla home, ed allora G non ha nessun interesse a seguire l'elenco delle url cosi' come le fornisce il wm, sarebbe controproducente al fine di una corretta catalogazione.

    Ma Google non sarebbe Google se non tenesse conto di queste cose e pertanto il lavoro del suo spider, le sue valutazioni sui livelli sono quelle di sempre, fregandosene bellamente del servizio Google Sitemap.


    Ma allora come dare un senso...

    G ci dice, questa vostra lista e' utile ad informarmi di pagine slegate da link, magari prodotte da ricerche interne al sito...

    Bene, seguiamo la logica, le pagine "classiche" devono essere analizzate da G in modo classico, lo spider parte dalla home, segue i link ecc ecc.
    Ma pero' potrebbrero esserci sul vostro sito pagine statiche o pagine dinamiche orfane. Allora G ci offre la possibilita' di suggerirne la spiderizzazione!

    Abbiamo scelto di seguire la logica, ma allora che logica c'e' che un wm suggerisca a G un elenco di pagine che lui stesso non si spreca di lincare??

    Se le linca dal sito allora il servizio per il wm e' assolutamente inutile, se non le linca, a maggior ragione, perche' ritiene che non siano importanti, o per pigrizia, o per qualsiasi altro motivo che gli pare, ed allora non mette una pagina map sul suo sito che linchi queste pagine (in modo che ogni motore possa spiderizzarglie) che senso ha fare un map ad esclusivvo uso e consumo di G?


    Ricapitoliamo, se un wm mette nell'elenco un url che puo' essere raggiunta via link allora per logica G di questo url se ne frega, perche' sara' il suo classico spider a fare il suo lavoro in base ai livelli.

    Se um wm mette nell'elenco un url che non puo' essere raggiunta via link allora G se ne freghera' ancora piu' di prima, in quanto se quella url vale 0 per il wm immaginiamoci per G...

    ????????????????????????

    Ma allora come dare un senso...

    Un senso a tutto questo c'e', ma purtroppo ha senso solo per G.

    G fondamentalmente ha bisogno, deve, catalogare, accorpare, valutare i siti in base ai proprietari o gestori degli stessi. Ogni sistema e' lecito.

    Ip, server, whois, ecc ecc sono dati pubblici, e i dati pubblici pongono tutti allo stesso livello di partenza, pertanto nessun vantaggio per G rispetto un Msn.

    Ma se io G creo ad hoc un tot di miei servizi ad uso e consumo dei wm, questo fara' la differenza.

    Potro' sapere quali siti sono di-gestisce un wm in base ad adsense, in base al "servizio" Google Sitemap, al Remove url, o come register, ecc ecc

    A questo serve a G fondamentalmente Google Sitemap, a "mapparci", per noi wm serva a quasi nulla. Anzi, mediamente e' controproducente per la categoria.


    Ho provato per test il servizio 2 mesi fa. Aperto l'account, gli ho passato 3 file txt con l'elenco ovviamente delle url di 3 miei siti (perche' sbattersi con un xlm quando con un txt ti sbrighi e risolvi in un attimo?), siti da me cosi' scelti: un sito bannato da tempo, un sito di 5000 pagine ma che presentava nel db di G solo 400 pagine, un sito di 9.000 pagine ma con "solo" 4000 nel db di G.

    Questi 3 siti avevano un unica cosa in comune: erano tutti e 3 da bannare in quanto siti di totale inutilita' al genere umano. Tutti e 3 erano stati creati piu' di un anno fa ma 2 di 3 erano vivi e vegeti nel db di G da allora.

    Di fatto quello bannato dopo un mese era ovviamente e giustamente sempre bannato, quello di 4000 pagine e' stato bannato anch'esso (strana coincidenza) e quello di 400 pagine nel db ha tuttora sempre 400 pagine nel db (alla faccia del map).


    Personalmente mi auguro di cuore che i seo italiani utilizzino il meno possibile il servizio Google Sitemap ed anzi ne prendano le distanze.

    Amo G e lo ritengo attualmente il miglior motore sul mercato, ma quando e' troppo e' troppo.

    P.S. Tornando a quel programma di nome Vigos... ma mette nell' elenco le url che non "esistono"? Si, parlo di quelle url che non hanno link, quelle frutto di ricerche o cose simili. Perche' a G queste servono, le altre del resto le estrapola dopo una normale spiderizzazione....


  • Super User

    che senso ha fare un map ad esclusivvo uso e consumo di G?

    A far risparmiare un po' di banda.

    Il sitemap non serve semplicemente a fornire una lista, ma anche ad indicare, per ogni pagina, ogni quanto viene aggiornata.

    Ci sono pagine che io non voglio che Google si sciroppi ogni santo giorno. Allora gli dico che non le aggiorno mai (ed è vero), e Google usa quell'informazione per ridurne lo spidering.


  • User Attivo

    P.S. Tornando a quel programma di nome Vigos... ma mette nell' elenco le url che non "esistono"? Si, parlo di quelle url che non hanno link, quelle frutto di ricerche o cose simili. Perche' a G queste servono, le altre del resto le estrapola dopo una normale spiderizzazione....
    Vigos è a tutti gli effetti uno spider e si comporta di conseguenza, segue i links statici e dinamici nelle pagine e crea il file xml (non txt) di cui GG ha bisogno.
    Puoi settare e modificare i singoli parametri, aggiungere o togliere riferimenti a pagine.

    Un motore di ricerca quando deve indicizzare un sito lo visita a "rate" perche deve prima leggersi un "livello" e poi andare a visitare le pagine linkate dal livello stesso.
    Se consideri che GG come gli altri MDR non sono in grado di operare scelte durante la navigazione, ne dedurrai che molte pagine o intere sezioni del sito non sono raggiungibili, per esempio: se come fanno molti WM in una pagina inserisci un form per eseguire una scelta, l'utente potrà seguire un percorso anzichè un altro, ma il MDR si fermerà perchè incapace di scegliere un'opzione.
    Sono nati i Sitemap tradizionali proprio per eliminare questi inconvenienti e per ridurre oltremodo in maniera consistente i "livelli" permettendo con solo un paio di click di arrivare a qualsiasi pagina del sito, con lo stesso principio GG ha chiesto di fornirgli i Sitemap in un formato che possa essere letto e interpretato automaticamente (xml) proprio per evitare numerosi passaggi e leggersi in un solo colpo tutto il sito.
    Io con Vigos gli fornisco l'intero sitemap del sito, ma solo dei file, non delle immagini o dei file include o altro e se accidentalmente il programma ne dovesse inserire uno posso comunque intervenire manualmente ad eliminarlo.
    Il sitemap di GG non è la manna dal cielo ma quando hai a che fare con siti composti da un numero molto elevato di pagine, hai comunque uno strumento che ti permette di accelerare i tempi di indicizzazione, se questo non avviene e GG non si legge tutto il sito, è quasi sempre a causa di errori nel sitemap che gli è stato dato o nel codice delle pagine :ciauz: .


  • User Attivo

    Low, Shade, per gestire gli spider c'e' il robots.txt. Ha regole base comuni ma ogni motore puo' implementare e suggerire regole proprietarie. Per esempio la frenquenza.

    A logica il servizio Google Sitemap dovrebbe essere usato per suggerire solo le pagine senza un link.

    Ok, in teoria mi apro un sito di 1 pagina, ci metto un form di ricerca, e poi iscrivendomi a Google Sitemap gli dico di spiderizzarmi 50.000 pagine dinamiche, tutto questo sostituendo 50.000 volte in un file la key nella mia url di ricerca.

    Se il servizio fosse tale, occhio e croce, credo che potrei creare 100-1000? siti di spam in una sera e poi farmeli spiderizzare tutti.


    Comunque al di fuori di tutto, in informatica ci sono regole e standard precisi. Non esistono misure di lunghezza, peso, temperature, ecc ecc uguali in tutto il mondo.

    Per me l'informatica e' come la distanza tra i binari del treno, posso incontrare in india un informatico cinese in vacanza e sapere con certezza che in comune avremo qualcosa, proxy, server, ip4 o 6, tabelle di routing, per me e per lui avranno le stesse regole.

    Ora ipotizziamo che Google Sitemap sia stato pensato per aiutare realmente i wm, ipotizziamo che spiderizzi sempre le pagine orfane suggerite dai wm, ipotizziamo che non usi le informazioni per penalizzare o valorizzare i siti dei wm, ok, ammettiamo che sia cosi', anzi e' cosi', e allora? Il mio giudizio di-da informatico non cambia.

    G alla prima riga delle informazioni per i wm dice:

    Make a site with a clear hierarchy and text links. Every page should be reachable from at least one static text link.

    Come potrebbe dire diverso? Questa e' la prima regola per tutti i motori.

    Poi pero' offre un servizio che va oltre-contro questa regola. Oggi lo fa G, domani Y o M ed avremo tanti file map con specifiche proprietarie per motore. E che gli standard vadano a farsi benedire...


    Ok, ammettiamo pure che G avendo avuto una buona ed onesta idea abbia voluto-dovuto creare un servizio ad hoc, perche' non voleva condizionare la scrittura dei robots. G pensa: il robots e' bene comune, non lo "sporco" con le mie specifiche ed apro un mio servizio a parte.

    Ma allora perche' obbligare il wm ad iscriversi, ad identificare tutti i suoi siti? Bastava dire che nella pagina dell'add era possibile suggerire anche questo benedetto file map e question finita. O poteva fare una pagina con form a parte, ma pubblica, senza obbligo di registrazione. Avrebbe avuto almeno un riscontro 10 volte tanto.


    Ehi wm che ti fai un "mazzo tanto" per migliorare i tuoi siti e guadagnarti la pagnotta anche questo mese, hai saputo la novita'?? Da oggi G spiderizza anche le pagine orfane!

    Come dici? A te che importa?
    Ah, le pagine dei tuoi siti sono gia' ben lincate e con i giusti livelli e pertanto la cosa non ti interessa?

    Beh, ma anche tu il mazzo te lo fai o no perche' ami il tuo lavoro sul web e con lo stesso ci campi o arrotondi?

    Come? Mi dici che ti fai il mazzo ma chiedi questa cosa cosa centri con G ed il suo servizio di Sitemap (cosa cosa, i motori faranno eccezione per questa ripetizione di parole o la penalizzeranno?)?

    Senza offesa, ma allora sei de coccio, o visto che non ti offendi ti dico che sei scemo col botto. Da oggi si fa cosi':

    1. Vai su mail.com e apri a mano o in semi-automatico un centinaio di indirizzi email.

    2. Vai su G e ti apri in automatico 100 account per il servizio Sitemap.

    3. Ti compri un 300 domini da poco, tipo i biz...

    4. Crei una sola pagina con un form di ricerca, magari in asp o php, form che usera' uno dei 1000 programmi gratuiti di metaengine in commercio.

    5. Metti quella pagina come home per ogni dominio.

    6. Crei per ogni dominio un bel file txt con l'elenco di 10-20.000 pagine, tutte url uguali con solo la variabile del campo key diversa.

    7. Per ogni account di G suggerisci 3 siti, 3 map file.

    8. Aspetta qualche giorno e poi inizia a godere dei futuri guadagni, diciamo un paio di dollari al giorno di media per dominio... diciamo una media di 500$ al giorno. Tutto questo con un investimento di un 1500$ ed un paio di giorni di sbattimento.

    Come dici? Nessun motore spiderizzerebbe mai una pagina orfana che non sia la home, immaginiamoci migliaia di pagine? Ah miscredente, cosa discuto a fare con te... del resto se da anni ti sbatti per migliorare i contenuti del tuo sito giorno dopo giorno e non sfrutti certe occasioni, piu' che un coglione non puoi essere.

    Beh, fai come credi coglionazzo, ma non farmi perdere piu' tempo. Devo aprire i miei 1000 account e sputtanare le serp alla grande con poca spesa e sforzo.

    Come come? E' scorretto imbastardire il web con questo sistema? Ma io non imbastardico il web, ma solo G che e' conseziente e complice.

    Come come come? Dici che G non permetterebbe mai una cosa del genere e pertanto questo suo sevizio ha altri scopi? Azz, coglionazzo, non e' che ti stai andreottinando?


    Low per risparmiare banda c'e' il code 304. Non devo dire nulla a nessuno.

    Shade Vigos fa onestamente il suo lavoro di spider e pertanto non si sogna di spiderizzare pagine orfane. Pertanto e' inutile per questo aspetto, l'unico aspetto serio che potrebbe giustificare il servizio di G.

    Per quanto riguarda: "uno strumento che ti permette di accelerare i tempi di indicizzazione" so che intendevi tempi di spiderizzazione. Ma i tempi di spiderizzazione non possono-devono poter essere svelocizzati da parte dei wm. Possono essere gestiti&rallentati, ma non svelocizzati.


    Comunque, al di fuori di ogni teoria ed ipotesi, G e' quotato in borsa. E' quotato in quanto seria societa' di ricerca, sviluppo e servizi nel settore informatico. Per questo suo ruolo istituzionale non puo' esentarsi dal rispetto delle regole scritte e non del web. Non lo ha mai fatto, anzi a volte ne e' baluardo. Allora come poter pensare che stradedisca ora?

    Il nuovo servizio Google Sitemap se non rispettasse le storiche regole che regolano il web andrebbe contro le stesse, se le rispettasse non solo sarebbe inutile ma anzi per molti versi dannoso ai wm.


    A mio avviso con Sitemap, Google ha toppato clamorosamente. L'ha fatta troppo facile, forse sperando che il tutto passasse in sordina.
    L'idea di spiderizzare pagine "orfane non home" poteva essere geniale tanto era innovativa, ma a volte nelle cose si puo' essere innovativi proporzionalmente a quanto si e' stupidi.

    G in questo caso ha fatto eccezione. Google in questo caso fa eccezione. E' riuscito a essere piu' stupido che innovativo. Non male. Da record.


    A volte mi rigiro nel letto sudando. Il perche' avvenga e' un mio problema. Forse stanotte dormiro' meglio al pensiero che anche page e company hanno la coscienza sporca e forse prima o poi anche loro dovranno fare i conti. Magra consolazione.

    Ehi magrini, ma quanto ti pagano per accettare e digerire tutto questo? Ah, scusa, probabilmente non sai manco di cosa parlo.