- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- creazione mappe dinamiche xml
-
creazione mappe dinamiche xml
Salve,
io ho un web site che genera pagine dinamiche, per cui nel mio strumenti per webmaster di google ho notato che il googlebot, non trova le mie pagine dinamiche (quelle con php?).
Ho letto da varie parti che conviene, come prima cosa installarsi uno script php autoaggiornante e poi creare dei contenuti statici, pero' non so come fare?
Mi potete dare una mano a tal proposito?
Come guida, riporto cosa ho letto :
".....se le pagine sono già presenti nell'indice, puoi renderle comunque statiche, e poi fare un redirect lato server, usando il codice 301 MOVED PERMANENTLY, nel caso che l'url (REQUEST_URI, ovvero l'url richiesto) sia dinamico, e reindirizzare in tal caso alla pagina statica.
Dovresti costruirti uno script che tramite espressione regolare ti identifichi se la pagina è dinamica, e reindirizzarla alla pagina statica tramite un'altra regexp. Molto probabilmente queste due espressioni saranno MOLTO simili a quelle che useresti nell'htaccess per il rewrite.
Perchè fare questo sbattimento del 301? Perchè se le pagine dinamiche sono già presenti nell'indice, e lo spider trova un contenuto identico -è la medesima pagina a tutti gli effetti- su un url diverso (statico) potresti incappare nel filtro antiduplicazione, e non è bello.Oppure conviene usare uno script pronto a pagamento tipo questo?Tra l'altro consigliato dallo stesso google
http://www.softswot.com/sitemapinfo.php
Grazie in anticipo!
-
Scusate ma nessuno ha un sito dinamico?
-
quasi tutti ormai hanno un sito dinamico. il fatto è che io, ad esempio, non rilevo problemi di sorta nel far vedere le mie pagine a Google... le pagine sono linkate in modo corretto?
-
veramente google non prende nella sua sitemap le pagine dinamiche se non li trasformi in statiche, per cui come fai?
-
Ciao Geronimo_007,
mi pare tu stia facendo confusione fra due aspetti differenti ... una cosa sono gli spider e l'indicizzazione di pagine dinamiche , una cosa la creazione della sitemap xml...
Nella sitemap si devono indicare URL non viene specificato se dinamiche o statiche... l'importante è pero' specificarle tutte, quindi per un sito dinamico è necessario esprimerle con tutti i possibili parametri ... per fare questo e per poter gestire anche eventuali aggiornamenti e nuovi contenuti tipici di un sito dinamico ci si appoggia piu' facilmente a tools, script o programmi per la generazione delle sitemap XML (qui ne trovi molti) . Occhio pero' perchè proprio oggi sono stati definiti nuovi protocolli per la sitemap che verranno integrati anche da Msn e Yahoo.
Riguardo l'indicizzazione di un sito dinamico e il paragrafo da te riportato, la questione è che spesso viene valutato migliorativo (ma non "per forza" necessario!) "riscrivere" le URL con un "REWRITE URL" staticizzandole e ottimizzandole con le keyword di interesse, operazione che viene accompagnata, per i siti già indicizzati, con un attività di REDIRECT 301 sulle vecchie pagine dinamiche in modo da comunicare in maniera indolore ai MDR il cambio avvenuto...
Spero di aver capito ed interpretato i tuoi dubbi corrrettamente,
Nicolap.s. quando scrivi: "Scusate ma nessuno ha un sito dinamico?" ti inviterei a ricordare che questo è un forum NON un servizio di consulenza ... gli utenti non sono obbligati a rispondere per forza, ma lo fanno quando possono, quando riescono, quando, soprattutto, capiscono le richieste perchè chiare e circostanziate, e quando sono in grado di rispondere... non trovi?
-
ciao, allora. Attualmente io ho creato la mia mappa xml, il problema che quelle pagine php?, che a volte ci sono a volte non ci sono, perchè interpretano una query dal database che non sempre c'e'. Ovviamente nella diagnostica mi portano degli errori, per questo ho letto che essendo il sito dinamico, bisognerebbe creare delle copie statiche delle stesse, per questo facevo riferimento a questo link
-
onestamente non ho capito cosa vuoi realizzare.
se hai un sito dinamico che funziona è sufficiente per gg.
il fatto che tu dica che una pagina a volte c'è a volte non c'è non comprendo.
se richiedo la pagina: leggi.php?id=1 mi dici che a volte restituisce contenuti ed a volte no?in ogni caso. la sitemap di gg non è indispensabile per l'indicizzazione e posizionamento (io non la uso ad esempio).
E' comprovato che qualche beneficio in termini di indicizzazione lo fornisce quindi se riesci a programmare un sistema di creazione automatica della sitemap hai risolto il problema.Quello che non comprendo è:
se tu sottoponi la sitemap a gg dove riporti dei link a pagine che possono non esistere ... perchè le segnali?
-
beh, io penso che la gogle map è uno strumento importantissimo perche' ti permette di essere a passo con i tempi dell'evoluzione marketing e perche' permette ai motori di ricerca di prendere notizie aggiornate dalla tua mappa.
Ad ogni modo, io aggiorno notiziei ogni 4gg circa, per cui a volte le pagine ci sono ed altre volte no, per questo mi causa errore ed è per questo che tra le varie notizie cercate, non sono il primo a lamentarsi di questo...
Dalle guide lette, ti mostro questa :
Come guida, riporto cosa ho letto :".....se le pagine sono già presenti nell'indice, puoi renderle comunque statiche, e poi fare un redirect lato server, usando il codice 301 MOVED PERMANENTLY, nel caso che l'url (REQUEST_URI, ovvero l'url richiesto) sia dinamico, e reindirizzare in tal caso alla pagina statica.
Dovresti costruirti uno script che tramite espressione regolare ti identifichi se la pagina è dinamica, e reindirizzarla alla pagina statica tramite un'altra regexp. Molto probabilmente queste due espressioni saranno MOLTO simili a quelle che useresti nell'htaccess per il rewrite.
Perchè fare questo sbattimento del 301? Perchè se le pagine dinamiche sono già presenti nell'indice, e lo spider trova un contenuto identico -è la medesima pagina a tutti gli effetti- su un url diverso (statico) potresti incappare nel filtro antiduplicazione, e non è bello.Oppure conviene usare uno script pronto a pagamento tipo questo?Tra l'altro consigliato dallo stesso google
http://www.softswot.com/sitemapinfo.php
Altro link :
http://www.prozone.it/forum/index.php?showtopic=1270)
-
tra l'altro aggiungo questo errore che google mi da dopo la scansione.
Dalla scansione del sito trova mostra tali dati :
Errori di scansione del Web
Errori HTTP 0
--
Non trovato 16Timeout degli URL 0
--
URL limitati da robots.txt 0
--
URL non raggiungibili 0
--
URL non seguito 0
--
Totale: 16Google riporta nei dettagli
Questa pagina riporta gli URL del tuo sito di cui Googlebot non è riuscito ad eseguire la scansione. Googlebot ha trovato queste pagine nella tua Sitemap o seguendo i link da altre pagine durante una scansione di individuazione. Scegli la categoria di errori da visualizzare:
dalle spiegazioni di google :
- Non utilizzare &ID= come parametro nei tuoi URL.
- Se utilizzi pagine dinamiche (ad esempio se l'URL contiene un carattere ? ), tieni presente che non tutti gli spider dei motori di ricerca eseguono la scansione di pagine dinamiche e statiche. È utile prevedere un numero esiguo di parametri brevi.
- Per impostare un reindirizzamento da una pagina a un'altra in modo permanente, utilizza un reindirizzamento permanente (301).
- Se possibile, utilizza link assoluti anziché link relativi (ad esempio, quando inserisci un link a un'altra pagina del tuo sito, inserisci un link a www.esempio.it/lamiapagina.html invece che a lamiapagina.html).
Cliccando sul link che non ha trovato, mostra ovviamente pagina bianca, per cui google porta il seguente dettaglio :
** 404 (Non trovato) **
Il server non trova la pagina richiesta. Ad esempio, il server spesso restituisce questo codice se la richiesta è per una pagina che non esiste sul server. Se nel tuo sito non è presente un file robots.txt e nella pagina robots.txt della scheda Diagnostica di Google Sitemaps compare questo stato, significa che è lo stato corretto. Tuttavia, se è presente un file robots.txt e compare questo stato, il tuo file robots.txt potrebbe essere stato erroneamente denominato o collocato nella posizione sbagliata (deve essere collocato nel dominio di livello principale e denominato robots.txt). Se viene visualizzato questo stato per gli URL di cui Googlebot ha provato ad eseguire la scansione (nella pagina Errori HTTP della scheda Diagnostica), Googlebot molto probabilmente ha seguito un link non valido da un'altra pagina (un link obsoleto o un link erroneamente digitato).
CHE DEBBO FARE? STO ESAURENDO PER RISOLVERE QUESTO PROBLEMA:x