• Super User

    PageRank sceso da 4 a 3

    Di recente ho aggiornato il modulo xmlsitemap alla 6.x.2 beta 5 al posto della 6.1 stabile e da un po' di tempo, googlewebmaster tools sta trovando delle url probabilmente dalla xmlsitemap che non esistono, come posso fare a risolvere il problema? Puoi trovare qui le oltre 5000 url inesistenti:
    www . drupalitalia.org / sites / drupalitalia.org / files / Scansione_web_errors_www_forniture-alberghiere_net_20091102T174157Z.zip
    Fra l'altro il sito mi è passato da PR4 a PR3, nonostante le migliaia di pagine e i migliaia di link ricevuti.
    Alla parola "forniture alberghiere" su google.it il sit orimane in 5° riga, ma non vorrei avere ripercussioni sgradevoli future per via di questa situazione strana.

    Dominio:
    forniture-alberghiere.net

    Motori:
    Google

    Prima indicizzazione o attività:
    link e aggiunta contenuti

    Cambiamenti effettuati:
    sembra un problema di sitemap

    Eventi legati ai link:
    non so cosa scriere qui

    Sito realizzato con:
    drupal 6.14

    Come ho aumentato la popolarità:
    link e inseriemento di contenuti

    Chiavi:
    forniture alberghiere

    Sitemaps:
    Si


  • User Attivo

    Fai un 301 delle vecchie pagine sulla home o su altre pagine interne del tuo sito. Il PR google lo ha aggiornato il 29 ottobre evidentemente ha preferito farti scendere.

    Il PR non si basa solo sulla quantità di BL, ma anche: sulla qualità dei bl ricevuti. I siti con cui scambi pr devono essere a tema con alto PR (meglio se godono di un alto trust) e presentare pochi link in uscita.


  • Super User

    Hai ragione, grazie, però è anche vero che questo piccolo mostro (pre sia il modulo domain access) sta continuando a generare altre url e non posso ogni gorno correggerne altre 10 o 100, che ne dici se dico anche a robots.txt o .htaccess di non andare a visitare quelle url, di non considerarle? Parlo del famoso noindex.


  • User Attivo

    Si bravo era proprio la soluzione che fa al caso tuo, e che stavo per consigliarti.

    Per comodita, se tali pagine appartengono tutte a una directory, non fare indicizzare tutta la sezione/directory o le singole pagine.
    Basta il robots.txt comunque.

    Non so se esiste un metodo automatico per mettere il 301 a un gruppo si pagine. Sarebbe bello trovarlo.... Se ci riesci fammi sapere.


  • Super User

    Drupal ha dei moduli al riguardo per gestre i redirect 301, ma vanno messi uno a uno daadmin, wordpress invece ha un plugin spettacolare che fa anche link multipli, circa i redirect di quei 500 link mai esistiti, dovendoli mandare a pagine esistenti, ma casuali, penso di prendere la lista delle pagine esistenti, e metterla a fianco di quelle inesistenti, o qualcosa delgenere, è un metodo semiautomatico.
    Circa la sitemap, disattivo e disinstallo il modulo xmlsitemap per evitare altri problemi simili e mi metto a usare gsitecrawler che già uso con grande successo su lavorohotel.net .


  • Super User

    Il file .htaccess mi è diventato intorno ai 700Kb con dentro 5000 redirect, mentre al file robots.txt ho aggiunto quetse righe:
    Disallow: /ar/taxonomy/term/
    Disallow: /ru/taxonomy/term/
    Disallow: /fr/taxonomy/term/
    Disallow: /pl/taxonomy/term/
    Disallow: /es/taxonomy/term/
    Disallow: /de/taxonomy/term/
    Disallow: /en/taxonomy/term/
    Disallow: /ro/taxonomy/term/
    anche se lo vedo online ma non lo trovo nella root del sito, cissà dove devo andare per sovrascriverlo in drupal 6.