• User

    @Panebianco3d said:

    ciao Francesco,
    riguardo alla penalizzazione come ti dicevo c'e' sicuramente stata verso il 25 ottobre, ma vedevo un andamento strano anche verso il 15 settembre (prima di quella data non c'erano i picchi che descrivi tu, o almeno non sembra, ma ci sono troppo pochi giorni sul grafico che hai postato per verificare), ma comunque non e' quello il problema adesso.
    Per i tag, come ti dicevo in passato aspetta almeno un paio di settimane per trarre delle conclusioni, non avere fretta perchè google prima di ridarti quello che ti ha tolto ci mette sempre un po' di piu'.
    Per il resto, dici che stai togliendo il ultimi banner. Ti suggerirei di non eliminare le cose un po' oggi un po' domani: se ti e' possibile effettua tutte le modifiche delle occorrenze in locale ed effettua l'upload di tutto solo quando hai terminato, cosi' è più facile capire se sei stato penalizzato o no (se devi riparare ad una situazione in poco tempo).

    Eventualmente per velocizzare l'aggiornamento del sito potresti provare a reinoltrare la sitemap sui webmaster tools, a volte funziona.

    Capito.
    Io di solito facevo il contrario, aggiornavo una pagina e la pubblicavo, e così via.
    Per quanto riguarda la sitemap non la ho mai inoltrata a google.


  • User

    Poiche a distanza di un mese non è passata la penalizzazione ho notato che nella pagina degli strumenti per webmaster risultano due tipi di avvisi e in entrambi è coinvolta la home page.

    1. n. 1 avviso di META DESCRIZIONI DUPLICATE in cui si riporta la home page

    2. n. 2 avvisi di TAG TITLE DUPLICATI in cui c'è due volte la home page.

    Potrebbe essere questo il problema che ha generato la penalizzazione?

    Ringrazio anticipatamente tutti coloro che vogliano darmi un consiglio.

    ps.1 ho inoltrato due giorni fa la sitemap a google.

    ps.2 se è neccessario posto le foto degli avvisi visto che sto per arrivare a 50 messaggi e le regole del forum mi consentiranno di farlo (ora non mi è consentito).


  • User

    Ciao Francesco,
    secondo me si, è questo. Insieme anche ad altri problemi.

    Con il programma Screaming frog seo, citato anche nella pagina seo-tool di questo sito puoi analizzare tutta la struttura del tuo sito.

    Gli errori del webmaster tool sono riferiti alla duplicazione dei tag html del tuo template. Utilizzando il tool citato riesci a capire le pagine con url diversa che hanno lo stesso tag title o description duplicato.

    Ti faccio un esempio: il tuo sito risponde ad un url per la pagina dell'articolo e ad un altro per i commenti. queste due pagine risultano duplicate sia nel tag title sia nella descrizione.
    la pagina con url del commento dovrebbe essere noindex per i motori di ricerca e con un tag canonical che hai già implementato.
    Stesso discorso per le pagine degli archivi, dovresti tenere indicizzate solo la prima e non anche tutte le altre.

    Oltre a questo, ad occhio, forse sei incappato anche nella penalita contenuti duplicati, derivanti da tutte la pagine tag. Es: pagine tag diverse ma con stesso contenuto.


  • User

    Ciao haser,
    il problema è che non so come risolverlo.
    Ho inviato l'url duplicato della home page tramite la sezione strumenti per webmaster dicendo di ignorarlo. (circa 5 giorni fa e sto ancora aspettando) ma non penso sia sufficiente come operazione. Se non sbaglio occorre anche inserire lì'indirizzo nel file robot.txt.
    Stesso discorso per i tag duplicati. Ne ho eliminati tantissimi ma stavo pensando di non far indicizzare tutti i tag inviando l'url principale indirizzosito/tags sempre tramite strumenti per webmaster.
    Ora controllo questo tool che hai citato.


  • Moderatore

    Ciao Francesco, io lavorerei in questo modo:

    • noindex dei tag, con il rebuilt della sitemap (e la ridiamo in pasto a Google);
    • modificare titoli e descrizioni uguali o troppo corti, e correzione di altri errori segnalati su Google Webmaster;
    • la procedura di "Visualizza come Google" del GWT, che accelera il processo di indicizzazione dopo le modifiche.
    • verifica se hai contenuti duplicati utilizzando un tool come Copyscape.

    Dopo, vediamo come va.


  • User

    Ciao,
    come indicato da zackmckacken, metti il noindex, follow a tutte le pagine tag. Poi le rimuovi dall'indice google tramite il GWT. (questa operazione in base a come google si comporta, forse la devi ripetere più volte per una pagina tag) e invii la sitemap senza pagine tag.

    Per implementare il noindex,follow per alcune pagine:
    Il tuo tema già incorpora le seguenti istruzione nel codice html:

    <meta name="robots" content="index, follow">
    <meta name="googlebot" content="index, follow">

    il secondo comando puoi eliminarlo perchè è già racchiuso nel primo. e poi modifichi index con noindex. Ultimo passaggio rimuovi dall'indice google la pagina che hai deciso di non far indicizzare.

    Attento a toccare troppo il file robots.txt, rischi di inibire l'accesso a pagine che vuoi siano indicizzate.

    Per il problema alla tua homepage, con un redirect 301 risolvi.

    Quando hai terminato le ottimizzazioni del tema, puoi concentrarti sui contenuti. Lunghezza titolo, meta description e tag html h1,h2 e ecc.

    Se non hai capito qualcosa, fammi un esempio pratico.


  • User

    Grazie a tutti, per me non è facile ma ci provo.

    1. dunque inserisco nella pagina che voglio eliminare dal motore di ricerca questo codice:

    <meta name="robots" content="noindex, follow">

    Google dice di inserire questo ma saranno uguali?

    <meta name="robots" content="noindex">

    1. Questo per ogni pagina giusto? poi per ognuna faccio la richiesta di rimozione tramite gwt.

    2. Fatto questo rinvio la sitemap.

    Per quanto riguarda la homepage (ora sono tre le home, una originale e due duplicate) come si inserisce questo redirect 301?


  • Moderatore

    Non ho capito se stiamo parlando dei sito che hai in firma. Sei su Wordpress? C'è il plugin Seo Redirection che potrebbe aiutarti, per i 301. Per deindicizzare i tag, o alcune pagine, ci sono diversi plugin, così non devi necessariamente incasintarti con il codice (o nel caso dei Redirect 301, con il file .htaccess)


  • User

    Si è il sito che ho in firma ed è fatto con webnode. Se reputi complicato agire non preocuparti.

    In ogni caso voglio aggiungere che le home page duplicate sono tre:

    La prima è la home corretta:caf-sassari.com
    La seconda è la home duplicata: caf-sassari.com/home/newscbm_247407/14/
    La terza è la Home duplicata: caf-sassari.com/home/newscbm_247407/6/

    Ho scritto all'assistenza e mi hanno fatto notare come, cambiando il numeretto alla fine delle pagine duplicate, la pagina appare ugualmente.
    In sostanza, togliendo il 6 finale e mettendo 7,(o togliendo il 14 e mettendo il 15) la pagina esce ugualmente. Mi hanno detto di inviare la pagina tramite il servizio di google per non indicizarla e basta.
    Naturalmente non si preocupano molto di me.


  • User

    Francesco, se non gestisci tu i file html o php o quello che sia, la vedo difficile agire.

    Webnote non lo conosco, e quindi dovresti controllare se ti da la passibilità di modificare i file che compongono il tuo tema, per aggiungere codice html nella testata del tuo sito per modificare il tag robots.

    Dovresti controllare se hai accesso in scrittura ai file robots.txt e/o .htaccess o altri per il tuo web-tool.

    Per le due pagine copie della home, potresti cancellarle se esistono in webnote e poi rimuoverle dall'indice google.


  • User

    Ciao haser,
    webnode mi da la possibilità di inserire qualunque codice html nella pagina con un tool. Nello stesso modo in cui incollo i codici di adsense o altro. Posso incollare qualunque cosa o qualunque codice.
    Il file robot.txt non lo posso modificare direttamente dagli strumenti per webmaster?
    Lo misi nel sito due anni fa quando iniziai. Ma potrei metterne uno nuovo e sostituire il vecchio. La sitemap la crea lui automaticamente.
    Le pagine copia della home quando le visualizzo e gli dò l'ordine di cancellarle mi dice "impossibile".


  • User

    Riesci a togliere codice html?

    Per le pagine copia della home, penso che ci voglia un redirect, se riesci ad inserire il redirect seguente solo in quelle due pagine sei a cavallo:

    <META HTTP-EQUIV="Refresh" CONTENT="0;URL=caf-sassari.com">

    NOTA BENE: il campo url dovrebbe essere l'url completa della home del tuo sito, o il file home.html. Il codice va tra i tag <head>.
    NOTA BENE2: Vedi che se sbagli qualcosa e applichi questo codice su tutte le pagine del sito hai fatto un casino.


  • User

    @Haser said:

    Riesci a togliere codice html?

    Per le pagine copia della home, penso che ci voglia un redirect, se riesci ad inserire il redirect seguente solo in quelle due pagine sei a cavallo:

    <META HTTP-EQUIV="Refresh" CONTENT="0;URL=caf-sassari.com">

    NOTA BENE: il campo url dovrebbe essere l'url completa della home del tuo sito, o il file home.html. Il codice va tra i tag <head>.
    NOTA BENE2: Vedi che se sbagli qualcosa e applichi questo codice su tutte le pagine del sito hai fatto un casino.

    Si posso inserire il codice in qualunque punto.
    Quindi:

    1. il codice va tra i tag head. Ok nessun problema.
    2. l'url della home: metto www nome sito punto com (mannaggia non mi fa mettere indirizzi) oppure semplicemente quello che hai scritto tu?
      Comunque so bene dove i codici funzionano solo nella pagina e dove funzionano in tutto il sito. Lo stesso vale per widget e per banner adsense.
      In ogni caso la uso come ultima chanche. Prima attendo la risposta del servizio premium. Oggi li ho contattatti di nuovo.
      In ogni caso ho i beckup a disposizione da ricaricare. Dovrebbero evitare casini no?
      Ti ringrazio tantissimo per l'aiuto che mi stai dando.

  • Moderatore

    In bocca al lupo Francesco, fai tutti i tentativi e facci sapere qui sul forum com'è andata. A tempo perso, ti consiglio di passare ad un CMS più "facile", come Wordpress o Joomla (ma questo è un parere strettamente personale) e ti evitare il mega menù laterale: anni addietro, per questo motivo, furono penalizzati diversi siti...


  • User

    Ciao, devi mettere tutta la url completa partendo da http : // senza spazi.


  • User

    Ok lo farò e vi faccio sapere.


  • User

    Strano effetto.
    Ho messo il codice prima in uno dei siti di prova per capire come funzionava e ho capito.
    Poi ho messo il codice su una delle pagine duplicate e ho pubblicato. Poi sono andato sulla pagina duplicata e correttamente mi portava alla home principale (facendo il suo mestiere di redirect) solo che la pagina principale si ricaricava in continuazione, ovvero si rimandava a se stessa di continuo.
    Ergo ho tolto il codice.
    Suggerimenti?


  • User

    Curioso. Se metto una password alla pagina copia per impedire l'accesso a googlebot mi mette la pass anche alla home vera.
    Insomma, sembrerebbe che qualunque azione faccia alla copia la faccio anche alla vera.
    Questo spiega il redirect in tondo.
    Mi chiedevo, non sarebbe meglio a questo punto inserire un comando no follow nel robot txt e nel contempo chiedere l'eliminazione delle pagine duplicate a google tramige gtw?


  • User

    Strano..., a questo punto, si. La modifica del file robots.txt sembra che sia l'unica modifica che tu possa fare.

    Ti dovrebbe bastare modificare il file robots.txt nel seguente modo:

    User-agent: *
    Disallow: /home/newscbm_247407/

    e poi rimuovi le due pagine dall'indice google. Dovresti controllare anche se hai qualche link che punta a quelle 2 pagine. Sia interno al tuo sito che esterno.


  • User

    Ciao haser,
    Si penso proprio che farò cosi come hai scritto.
    Sono solo indeciso se eliminare l'intera directory oppure dare un singolo comando per ogni copia.