• Super User

    redirect 301 per le vecchie pagine che trovano nuovi sostituti.
    se vecchie pagine non vengono sostituite ma semplicemente rimosse, che restituisca 404.

    se il sito ha una buona struttura di linking, dovresti avere, a mio avviso, pochissimi problemi nel passaggio.


  • User

    Grazie per la risposta, ma...

    Dunque, il redirect 301 va bene se...

    1. La pagina è già in asp e la sposto:

    (<%
    Response.Status = "301 Moved Permanently"
    Response.AddHeader "Location", "http://www.miodominio.it/nuovapagina.asp"
    %>)

    1. La pagina è già in php e la sposto:

    (<? header("Status: 301 Moved Permanently");
    header("Location: http://www.miodominio.it/nuovapagina.php");
    exit;
    ?>)

    1. La pagina è in html e la sposto con il file .htaccess.....

    ...ma mi pare che .htaccess funzioni solo per hosting linux.

    E se il dominio è su server condiviso windows ?
    Andrebbe prima trasferito il dominio ?

    Esisterebbe un metodo simile ad .htaccess (per le pagine html) che funzioni su server Win ?....


  • Super User

    ci tocca aspettare qualcuno che sappia mettere mano su windows.
    io non riesco neanche a evitare le schermate blu al boot di un XP fresco d'installazione...
    :sbonk:


  • User

    :arrabbiato: :arrabbiato: :arrabbiato: :arrabbiato: .............


  • User

    Ho trovato:

    http://www.elixirsystems.com/seo_tips/search-engine-friendly-redirect-file.php

    Ma francamente il sistema meta http-equiv="REFRESH" non mi ispira molta fiducia per quel che riguarda le serp....


  • Super User

    anche perche' di tutti quelli elencati e' l'unico che non fa un redirect 301.


  • Super User

    il redirec 301 lo devi applicare alle pagine vecchie quindi .html, nn puoi inserire li in codice asp per il redirect 301 e nn puoi utilizzare il file .htaccess perchè sei su windows.... l'unica soluzione e rivolgerti al tuo hosting o lasciare le vecchi in .hmtl e creare vicino ilnuovo sito in asp/php

    oppure come hai detto ti trasferisci su un server linux , fai i redirect 301 e il sito in php....

    ciao 🙂


  • User

    Ciao Alex,
    i tuoi dubbi sono infondati: la trasformazione di pagine html convertite in dinamiche asp per i motori di ricerca non fa alcuna differenza.

    I linguaggi dinamici lato server (ASP, PHP, JSP etc) hanno, specialmente i primi due, la funzione principale di generare pagine HTML. Le pagine generate sono ciò che i motori di ricerca scansionano. Essi non vanno ad esaminare in ftp (né potrebbero) il codice dinamico che le genera.

    Quindi, per il robot di un motore di ricerca una pagina statica con estensione html è esattamente la stessa cosa che una pagina con estensione asp o php. Pertanto non temere di trasformare tutte le tue vecchie pagine html in asp. Se non ci credi prova, indicizzane una su un motore e poi ricercala.

    Un discorso a parte merita javascript: per gli spider gli script JS sono dinamici, nel senso che danno output differenti sulla pagina a seconda delle operazioni dell'utente. Per questo non indicizzano link in output JS generati da codici tipo

    document.write&#40;'[url="bye.php"]bye'&#41;;
    

    come invece lo fanno per php con un

    echo "<A href=\"bye.php\">bye</A>";
    

    lato server, che genera il semplice codice html

    [url="bye.php"]bye
    

    E' una cosa piuttosto ovvia, basti pensare che per un robot sarebbe un vincolo inimmaginabile scansire tutte le pagine del web eseguendo i relativi codici javascript, valutarne i link in output e filtrarli. In quel caso lo spider di googlebot girerebbe solo tre volte all'anno!

    Detto questo, passiamo ai redirect in javascript: alla luce di quanto detto, il robot non indicizzerebbe le pagine asp se lanciate da redirect javascript in quanto non legge per esempio l'output del codice JS

    location.href="home.asp";
    

    Inoltre per un utente che navighi con quel tipo di redirect l'attesa per il caricamento delle pagine sarebbe praticamente doppia: prima deve essere caricata completamente la pagina html statica, poi viene eseguito il redirect, quindi si dovrebbe attendere il caricamento della pagina vera e propria. Per non parlare dell'impatto grafico instabile... Non credo tu voglia perdere delle visite preziose!


  • Super User

    @emanueledg said:

    Ciao Alex,
    i tuoi dubbi sono infondati: la trasformazione di pagine html convertite in dinamiche asp per i motori di ricerca non fa alcuna differenza.

    hai ragione, ma lui parlava di avere una pagina pagina.html indicizzata e doverla sostituire con pagina.php facendo in modo di non "sprecare" l'indicizzazione di pagina.html


  • User

    In che modo la sprecherebbe?
    Per l'indicizzazione legata al nome della pagina, che poi varierebbe in seguito alla conversione?
    In tal caso basterebbe aspettare una settimana, il tempo di re-boot degli spider più comuni, no?


  • Super User

    vedi sotto.
    esatto.
    esatto.

    ma quella specifica pagina e' linkata da qualche altro sito, di cui non si ha il controllo, il link diventerebbe a tutti gli effetti sprecato. mettere una pagina di errore 404 personalizzato con la mappa aiuterebbe a non perdere un utente che arriva da questo link, ma il motore di ricerca vedrebbe comunque il codice 404...

    :ciauz:


  • User

    Ottimo, allora in questo caso la soluzione di redirect tramite metatag di refresh mi pare la migliore.
    Se può essere difficile trovare un browser in uso che non supporti javascript, trovarne uno che non gestisca un semplice redirect da meta credo sia pressoché impossibile.

    Ma se proprio si vuole esser sicuri potremmo generare un redirect con l'header http generato per esempio da php:

    <? Header&#40;"Location: ". $link_destinazione&#41;; ?>
    

    (ovviamente prima di qualsiasi output).

    Personalmente progetterei per bene il sito interamente dinamico (php o asp) in cartelle con nomi differenti, lasciando un "mirror site" versione statica con le pagine contenenti i soli header di redirect.
    A quanto pare servirebbe conservare la link popularity e non perdere contatti utili già lanciati, e in questo modo si otterrebbe quanto richiesto.


  • Super User

    ma perchè non prendi un bel hosting linux, sviluppi il sito in php e ci piazzi un bel url rewriting?

    in questo modo puoi mantenere tutte le pagine con estensione html, quelle attuali fai in modo che restino pari nei contenuti però hai la funzionalità di php nonostante mostri pagine in html.
    :ciauz:


  • Super User

    @emanueledg said:

    Ottimo, allora in questo caso la soluzione di redirect tramite metatag di refresh mi pare la migliore.

    i mdr li seguono?


  • Super User

    Se l'obiettivo è non cambiare il nome delle pagine, si può fare in modo che le pagine con suffisso .html vengano fatte passare attraverso l'interprete PHP.

    Questo può richiedere un cambiamento nella configurazione del web server, l'uso di .htaccess o, in mancanca di tutto ciò, un bel passaggio su un web server Apache.

    In alternativa, si può usare un sistema per la riscrittura degli URL, che esiste anche per i web server Microsoft.

    Il meta tag refresh lo escluderei nonostante alcuni motori abbiano capito che si tratta del "redirect dei poveri" e lo trattino come tale.


  • User

    Sì Must, ma non tutti. Gli MDR non vedono di buon occhio i meta di refresh perché generano lavoro in più poco utile per loro.
    Infatti spesso nei post tecnici consigliano (chiedono) di inserire refresh in javascript (vedi il key positioning di aruba.it)

    Alcuni spider escludono a priori tutti i meta tag, il ché potrebbe essere limitante per chi non ha possibilità di URL rewriting. Non credo sia il caso di Google perché come sapete tutti il tag```
    <META NAME="robots" CONTENT="noindex,nofollow">

    su google funziona di sicuro.
    Non solo, Google ha persino creato dei meta appositi per googlebot:```
    <META NAME="GOOGLEBOT" CONTENT="NOARCHIVE">
    

    simile a no-cache per chiedere di non conservare le pagine in memoria, oppure```
    <META NAME="GOOGLEBOT" CONTENT="NOSNIPPET">

    Non credo che tutti i meta tag siano invariabilmente accettati, prendiamo ad esempio il vecchio```
    <META NAME="revisit-after" CONTENT="30 days">
    

    che praticamente indicava agli spider dopo quanto tempo dovevano rieffettuare una scansione... Ormai le google-dance vengono lanciate quasi ogni 5 giorni, e credo che prescindano da quel meta seppure fosse indicato.

    Comunque credevo che in [url=http://it.php.net/parse-ini-file]php.ini ci fosse un comando specifico per far passare al parser anche le .htm e .html, ma non riesco a trovarlo...


  • Super User

    ciao EmanueleDG e benvenuto nel forum 🙂

    alexwebbing vorrebbe nn perdere la popolarità delle vecchie pagine .html durante il passaggio a una versione del sito in un linguaggio dinamico dove lasciarle così vorrebbe dire ritrovarsi con n pagine distaccate del nuovo standard adottato...indipendentemente dall'estenzione l'unica soluzione è il redirect permanente 301 ma con server windows deve richederlo all'assistenza e nn è detto venga aiutato...

    domanda a alexwebbing , quanto sono importanti? quante pagine sono? è da considerare un loro sacrificio?

    comunque l'idea di cambiare server (vai su linux) e poi fare il redirect 301 dal .htaccess nn è malaccio 😉

    ciao 😉


  • User

    Salve a tutti!
    Mi intrometto nella discussione perchè ho più o meno lo stesso problema di alexwebbing, però forse sono un pochino più fortunata, nel senso che posso usare .htaccess.

    Io ho un sito con pagine statiche (indicizzato) su un hosting linux gratuito; ora lo sto rifacendo in PHP e intendo sposatrlo su un altro hosting, sempre linux, a pagamento.

    Non mi è chiaro se facendo un Redirect Permanent dall'htaccess del vecchio sito per tutte le pagine indicizzate e mandandole ai nuovi indirizzi faccio qualche danno all'indicizzazione attuale.

    Help me! 🙂


  • Community Manager

    Un Benvenuto a emanueledg ed a Jem in questo forum 🙂

    alexwebbing, se sei ancora in tempo cambia server e prendi linux.

    Se non vuoi/puoi e intendi rimanre a windows allora ecco cosa ti consiglio:

    • sappi che un giorno ti pentirai 😄
    • crea un link in home page che porta ad una mappa del sito vecchio e metti tutti i link al sito vecchio-
    • crea un link "guarda la versione precedende" e lasci tutti gli url
    • modifica le pagine html inserendo un link alla nuova versione (questo serve per gli utenti che arrivano dai motori)
    • contatta tutti quelli che ti linkano e fai cambiare i link
    • cerca di aumentare la popolarità delle pagine php che non compaiono nelle serp

    Io stesso ho ancora pagina di anni fa nelle serp solo perchè non ho eseguito tutti i passaggi sopra 🙂

    In alternativa, si può usare un sistema per la riscrittura degli URL, che esiste anche per i web server Microsoft.

    Per quanto riguarda il rewrite su IIS
    http://www.pstruh.cz/help/url-replacer-rewriter/iis-mod-rewrite.asp

    Andrebbe installato sul tuo server, dovresti chiedere all'hoster di farlo.

    Licenza dello script:
    Freeware You can register to get source code

    Se lo fai e hai intenzione di utilizzarlo stai attento perchè alcune operazioni possono rallentare il tuo server, quindi appena fai una modifica con l'url replacer corri a verificare il caricamento delle pagina.

    Se hai un server dedicato e hai più siti attenzione perchè quasi sempre le modifiche saranno per tutti i siti sul server (dipende come lo impostano) e quindi potresti avere problemi.

    Fammi sapere in che modo opererai e magari dopo facci una case-history che serva per le persone che vorranno effettuare le tue stesse modifiche.

    Giorgio


  • Super User

    @emanueledg said:

    Comunque credevo che in [url=http://it.php.net/parse-ini-file]php.ini ci fosse un comando specifico per far passare al parser anche le .htm e .html, ma non riesco a trovarlo...

    sta in httpd.conf