- Home
- Categorie
- Coding e Sistemistica
- Coding
- Protezione contro Programmi scarica sito
-
Protezione contro Programmi scarica sito
Non so se sia la sezione giusta...
Ragazzi stavo cercando, come da oggetto, una protezione per bloccare lo scaricamento del mio sito con programmi tipo webreaper. Ho notato che inserire l'user-agent nel file robots.txt non serve a un bel niente.
Consigli?
-
Che server web usi?
-
@Legolas said:
Che server web usi?
linux
-
Nessuna news?
-
non sono un esperte di php, ma credo che puoi giocare con il file htaccess negando l'accesso del sito agli user agent dei programmi usati per scaricare interi siti.
Comunque ti sposto nella sezione php dove sicuramente ti sapranno dare una risposta più precisa.Ciao
-
@Legolas said:
credo che puoi giocare con il file htaccess negando l'accesso del sito agli user agent dei programmi usati per scaricare interi siti.
Qualcuno saprebbe dirmi come fare?
Thanks
-
se il programma che dici è simile a HTTRack, non credo che si riesca, dato che scarica la pahine html finali ed è "credo" come una specie di spider, che al posto di analizzare scarica, questa è solo un'opinione, io uso HTTRack e non mi è mai stato bloccato l'accesso a nessun sito, se trovi qualcosa, fallo sapere anche a me se puoi.
ciao!!!