nessuno hai mai incontrato questa esigenza?
- Home
- geronimo.007
- Post
geronimo.007
@geronimo.007
Post creati da geronimo.007
-
RE: Fare in modo di fare girare uno script solo per un dominio
-
Fare in modo di fare girare uno script solo per un dominio
Salve,
ho codificato un file in php ed ora vorrei evitare che questo file venga utilizzato in altri domini web, ma solo per il medesimo
E' possibile fare cio' con qualche software?
Grazie
-
RE: Proteggere un file in php dalle copiature altrui
Grazie, il fatto che ho fatto le mie valutazioni, io sono disposto a dare tutto il software tranne il cuore del programma per cui voglio poter codificare questa.
Dopo tanti soldi spesi e' il minimo, non devono poi rettificare questa parte ma altre parti.
Grazie del consiglio
-
Proteggere un file in php dalle copiature altrui
Salve,
ho fatto realizzare il web site della mia azienda ad una software house ed adesso ho necessità di cambiare un po il design e la struttura.
Per far ciò, mi sono rivolto ad un altra software house più professionale, però questa mi chiede che vuole tutte i file del sito per clonarlo e farlo girare nei loro server. Allorchè mi è venuto in mente l'idea di fare in modo di rendere illegibile il cuore del programma in modo che loro non siano in grado di copiarselo
Esiste un software che permettere di fare cio'?
Grazie mille:x
-
RE: gsitecrawler.com e Database
per curiosita', tu quale usi? PErche' prevede l'accesso al database?
-
RE: conviene usare il sitemap ufficiale di google?
quindi a questo punto conviene
-
sitemap per MSN
Salve,
sapete il link dove posso inviare la mia sitemap ad msn?
Grazie
-
gsitecrawler.com e Database
Salve,
ho creato una sitemap con questo software qui.
-
Cosa ne pensate di questo software, meglio un altro?
-
Perche' prevede l'accesso al database?
-
-
RE: Monitorare i bot con Analytics?
scusate l'ignoranza, ma cosa sono i bot?
-
conviene usare il sitemap ufficiale di google?
Salve,
conviene utilizzare lo script ufficiale di google per realizzare una sitemap, o conviene affidarsi a terze parti?
Grazie
-
Nuovo protocollo sitemap
Fino a due giorni fa lo standard sitemap era la versione 0.84, da ieri è la versione 0.9 . Ovviamente Google continuerà ad accettare sitemap create con il vecchio standard, ma inviata tutti i webmaster ad adattare le proprie sitemap alla nuova versione.
Si ma come fare?
Grazie
-
RE: info su gsitecrawler
secondo me perche' il tuo sito e' dinamico, perche' presenta il mio stesso errore
-
RE: creazione mappe dinamiche xml
tra l'altro aggiungo questo errore che google mi da dopo la scansione.
Dalla scansione del sito trova mostra tali dati :
Errori di scansione del Web
Errori HTTP 0
--
Non trovato 16Timeout degli URL 0
--
URL limitati da robots.txt 0
--
URL non raggiungibili 0
--
URL non seguito 0
--
Totale: 16Google riporta nei dettagli
Questa pagina riporta gli URL del tuo sito di cui Googlebot non è riuscito ad eseguire la scansione. Googlebot ha trovato queste pagine nella tua Sitemap o seguendo i link da altre pagine durante una scansione di individuazione. Scegli la categoria di errori da visualizzare:
dalle spiegazioni di google :
- Non utilizzare &ID= come parametro nei tuoi URL.
- Se utilizzi pagine dinamiche (ad esempio se l'URL contiene un carattere ? ), tieni presente che non tutti gli spider dei motori di ricerca eseguono la scansione di pagine dinamiche e statiche. È utile prevedere un numero esiguo di parametri brevi.
- Per impostare un reindirizzamento da una pagina a un'altra in modo permanente, utilizza un reindirizzamento permanente (301).
- Se possibile, utilizza link assoluti anziché link relativi (ad esempio, quando inserisci un link a un'altra pagina del tuo sito, inserisci un link a www.esempio.it/lamiapagina.html invece che a lamiapagina.html).
Cliccando sul link che non ha trovato, mostra ovviamente pagina bianca, per cui google porta il seguente dettaglio :
** 404 (Non trovato) **
Il server non trova la pagina richiesta. Ad esempio, il server spesso restituisce questo codice se la richiesta è per una pagina che non esiste sul server. Se nel tuo sito non è presente un file robots.txt e nella pagina robots.txt della scheda Diagnostica di Google Sitemaps compare questo stato, significa che è lo stato corretto. Tuttavia, se è presente un file robots.txt e compare questo stato, il tuo file robots.txt potrebbe essere stato erroneamente denominato o collocato nella posizione sbagliata (deve essere collocato nel dominio di livello principale e denominato robots.txt). Se viene visualizzato questo stato per gli URL di cui Googlebot ha provato ad eseguire la scansione (nella pagina Errori HTTP della scheda Diagnostica), Googlebot molto probabilmente ha seguito un link non valido da un'altra pagina (un link obsoleto o un link erroneamente digitato).
CHE DEBBO FARE? STO ESAURENDO PER RISOLVERE QUESTO PROBLEMA:x
-
RE: creazione mappe dinamiche xml
beh, io penso che la gogle map è uno strumento importantissimo perche' ti permette di essere a passo con i tempi dell'evoluzione marketing e perche' permette ai motori di ricerca di prendere notizie aggiornate dalla tua mappa.
Ad ogni modo, io aggiorno notiziei ogni 4gg circa, per cui a volte le pagine ci sono ed altre volte no, per questo mi causa errore ed è per questo che tra le varie notizie cercate, non sono il primo a lamentarsi di questo...
Dalle guide lette, ti mostro questa :
Come guida, riporto cosa ho letto :".....se le pagine sono già presenti nell'indice, puoi renderle comunque statiche, e poi fare un redirect lato server, usando il codice 301 MOVED PERMANENTLY, nel caso che l'url (REQUEST_URI, ovvero l'url richiesto) sia dinamico, e reindirizzare in tal caso alla pagina statica.
Dovresti costruirti uno script che tramite espressione regolare ti identifichi se la pagina è dinamica, e reindirizzarla alla pagina statica tramite un'altra regexp. Molto probabilmente queste due espressioni saranno MOLTO simili a quelle che useresti nell'htaccess per il rewrite.
Perchè fare questo sbattimento del 301? Perchè se le pagine dinamiche sono già presenti nell'indice, e lo spider trova un contenuto identico -è la medesima pagina a tutti gli effetti- su un url diverso (statico) potresti incappare nel filtro antiduplicazione, e non è bello.Oppure conviene usare uno script pronto a pagamento tipo questo?Tra l'altro consigliato dallo stesso google
http://www.softswot.com/sitemapinfo.php
Altro link :
http://www.prozone.it/forum/index.php?showtopic=1270) -
Software per catalogare pagine web offline
Ciao, esiste un software per catalogare le pagine web "salvate" offline, come documenti?
Grazie
-
RE: creazione mappe dinamiche xml
ciao, allora. Attualmente io ho creato la mia mappa xml, il problema che quelle pagine php?, che a volte ci sono a volte non ci sono, perchè interpretano una query dal database che non sempre c'e'. Ovviamente nella diagnostica mi portano degli errori, per questo ho letto che essendo il sito dinamico, bisognerebbe creare delle copie statiche delle stesse, per questo facevo riferimento a questo link
-
sitemap in tutte le pagine
Salve,
è necessario inserire il tag di verifica il tutte le pagine del sito, o basta nell'index?
Grazie
-
RE: creazione mappe dinamiche xml
veramente google non prende nella sua sitemap le pagine dinamiche se non li trasformi in statiche, per cui come fai?