Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. haser
    3. Post
    H

    haser

    @haser

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 4
    • Post 31
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Età 48
    0
    Reputazione
    31
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    Post creati da haser

    • RE: Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%

      Strano..., a questo punto, si. La modifica del file robots.txt sembra che sia l'unica modifica che tu possa fare.

      Ti dovrebbe bastare modificare il file robots.txt nel seguente modo:

      User-agent: *
      Disallow: /home/newscbm_247407/

      e poi rimuovi le due pagine dall'indice google. Dovresti controllare anche se hai qualche link che punta a quelle 2 pagine. Sia interno al tuo sito che esterno.

      postato in SEO
      H
      haser
    • RE: Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%

      Ciao, devi mettere tutta la url completa partendo da http : // senza spazi.

      postato in SEO
      H
      haser
    • RE: Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%

      Riesci a togliere codice html?

      Per le pagine copia della home, penso che ci voglia un redirect, se riesci ad inserire il redirect seguente solo in quelle due pagine sei a cavallo:

      <META HTTP-EQUIV="Refresh" CONTENT="0;URL=caf-sassari.com">

      NOTA BENE: il campo url dovrebbe essere l'url completa della home del tuo sito, o il file home.html. Il codice va tra i tag <head>.
      NOTA BENE2: Vedi che se sbagli qualcosa e applichi questo codice su tutte le pagine del sito hai fatto un casino.

      postato in SEO
      H
      haser
    • RE: Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%

      Francesco, se non gestisci tu i file html o php o quello che sia, la vedo difficile agire.

      Webnote non lo conosco, e quindi dovresti controllare se ti da la passibilità di modificare i file che compongono il tuo tema, per aggiungere codice html nella testata del tuo sito per modificare il tag robots.

      Dovresti controllare se hai accesso in scrittura ai file robots.txt e/o .htaccess o altri per il tuo web-tool.

      Per le due pagine copie della home, potresti cancellarle se esistono in webnote e poi rimuoverle dall'indice google.

      postato in SEO
      H
      haser
    • RE: Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%

      Ciao,
      come indicato da zackmckacken, metti il noindex, follow a tutte le pagine tag. Poi le rimuovi dall'indice google tramite il GWT. (questa operazione in base a come google si comporta, forse la devi ripetere più volte per una pagina tag) e invii la sitemap senza pagine tag.

      Per implementare il noindex,follow per alcune pagine:
      Il tuo tema già incorpora le seguenti istruzione nel codice html:

      <meta name="robots" content="index, follow">
      <meta name="googlebot" content="index, follow">

      il secondo comando puoi eliminarlo perchè è già racchiuso nel primo. e poi modifichi index con noindex. Ultimo passaggio rimuovi dall'indice google la pagina che hai deciso di non far indicizzare.

      Attento a toccare troppo il file robots.txt, rischi di inibire l'accesso a pagine che vuoi siano indicizzate.

      Per il problema alla tua homepage, con un redirect 301 risolvi.

      Quando hai terminato le ottimizzazioni del tema, puoi concentrarti sui contenuti. Lunghezza titolo, meta description e tag html h1,h2 e ecc.

      Se non hai capito qualcosa, fammi un esempio pratico.

      postato in SEO
      H
      haser
    • RE: Forte penalizzazione di google nel motore di ricerca e perdita di traffico del 70-80%

      Ciao Francesco,
      secondo me si, è questo. Insieme anche ad altri problemi.

      Con il programma Screaming frog seo, citato anche nella pagina seo-tool di questo sito puoi analizzare tutta la struttura del tuo sito.

      Gli errori del webmaster tool sono riferiti alla duplicazione dei tag html del tuo template. Utilizzando il tool citato riesci a capire le pagine con url diversa che hanno lo stesso tag title o description duplicato.

      Ti faccio un esempio: il tuo sito risponde ad un url per la pagina dell'articolo e ad un altro per i commenti. queste due pagine risultano duplicate sia nel tag title sia nella descrizione.
      la pagina con url del commento dovrebbe essere noindex per i motori di ricerca e con un tag canonical che hai già implementato.
      Stesso discorso per le pagine degli archivi, dovresti tenere indicizzate solo la prima e non anche tutte le altre.

      Oltre a questo, ad occhio, forse sei incappato anche nella penalita contenuti duplicati, derivanti da tutte la pagine tag. Es: pagine tag diverse ma con stesso contenuto.

      postato in SEO
      H
      haser
    • RE: Problema meta description wordpress + wp seo yoast plugin

      Ciao,
      sembra che il plugin vada in conflitto con qualcosa.
      Nel codice della tua homepage ci sono due tag:
      <meta name="description"
      Questo non mi sembra corretto, se non sbaglio, normalmente il plugin ti disabilita il tag description di wordpress.

      Hai modificato il file heder.php del tuo tema come indicato nelle faq del plugin per l'attributo title? dovrebbe essere impostato nel seguente modo:
      <title><?php wp_title(''); ?></title>

      postato in CMS & Piattaforme Self-Hosted
      H
      haser
    • RE: PERMALINK: cambiare indirizzo di destinazione

      Ciao,
      non so se ho capito bene quello che intendi, comunque ti dico che in wordpress non si possono assegnare categorie o tag alle pagine. Potresti provare a creare un nuovo post con nome Categoria 1 ed assegnargli la categoria-madre.

      postato in CMS & Piattaforme Self-Hosted
      H
      haser
    • RE: Problemi con il codice del mio tema WordPress

      Si, mi sembra un errore banale, è anche descritto in questo link:
      wordpress.org/support/topic/function-_category_transient_flusher-not-found

      postato in CMS & Piattaforme Self-Hosted
      H
      haser
    • RE: Problemi con il codice del mio tema WordPress

      Ciao ClaireDelatour,
      ad occhio non dovrebbe essere un errore ma un warning. Mi sembra che nel file function.php del tuo tema sia stata nominata male la funzione _category_transient_flusher o richiamata con un nome diverso.
      Sulla pagina Facebook lo dicono.

      Guarda il file function.php del tuo tema e cerca il nome della funzione incriminata.

      postato in CMS & Piattaforme Self-Hosted
      H
      haser
    • RE: Filtri per Mod_Pagespeed

      Ciao,
      mi unisco alla discussione perchè interessa anche me 🙂

      @Juanin grazie per l'interessante indicazione. Cosa ne pensi dei filtri per comprimere le immagini e il filtro Lazy load. Non ricordo i nomi precisi.
      Secondo te possono andare bene con il filtro "convert_jpeg_to_webp" che hai inserito?

      @Ranma io su hosting condiviso abilitando pagespeed e W3 Total Cache ho fatto un mezzo casino. Le performance erano decisamente migliori senza W3 Total Cache. Il mio hosting è dreamhost e nel wiki consigliano con Pagespeed abilitato WP Total cache. Sicuramente però ho sbagliato io qualcosa nella configurazione del plugin.

      postato in SEO
      H
      haser
    • RE: Penalizzato? No. e allora cos'è?

      Ciao Indoorseo,
      se il plugin Seo by yoast ti dice quello che hai riportato, penso che il file robots.txt è settato in modo da essere solo letto. Dovresti cambiare i permessi al file, in modo che si possa anche scrivere.
      Lo fai con ftp. Puoi utilizzare anche filezilla che è più semplice.

      Una volta cambiato i permessi al file lo puoi modificare anche con il plugin Seo. La modifica che hai inserito va bene. Però su due righe.
      Quando lo modifichi, dovrebbe cambiarti anche il risultato del google wmt se non sbaglio.

      postato in SEO
      H
      haser
    • RE: Penalizzato? No. e allora cos'è?

      Ciao, penso che sia il tuo file robots.txt. Io nel Disallow metterei solo la directory plugin.
      Se non sbaglio, il tuo problema è dovuto al fotto che hai inserito Disallow: /wp-admin/.

      postato in SEO
      H
      haser
    • RE: Come controllare i contenuti Contenuti Duplicati

      Per come l'ho utilizzato io, non sono un esperto. Prendiamo in esame il tag mp3 del tuo sito.

      Quindi clicchi sulla voce tag/mp3 che è uno dei primi risultati. Nella pagina seguente sulla destra ti evidenzia quello che reputa duplicato.
      La prima voce con 1063 parole duplicate nel tag/musica. E cosi via...

      Sul tuo sito hai mantenuto l'indicizzazione dei tag. Questo io lo eviterei. Se consideri che quando fai un post, e gli associ più di un tag. Come ti mostra Siteliner, generi un contenuto duplicato. Come l'esempio tra mp3 e musica.

      Poi eviterei di inserire riassunti di post negli archivi cosi lunghi. Utilizza l'Excerpt con una lunghezza di 30/40 caratteri.

      postato in SEO
      H
      haser
    • RE: Cancellare errori identici da WMT

      Ciao,
      dovresti controllare anche se hai altri siti che linkano quelle pagine o directory. E valutare se applicare un redirect 301. Se non hai siti che linkano i tuoi contenuti puoi rimuovere l'url dall'indici di google.
      Tramite Google Webmaster tool -> Indice Google -> Rimozione URL. Crei una nuova richiesta e poi richiedi di eliminarlo dall'indice e dalla cache.

      postato in SEO
      H
      haser
    • RE: Come controllare i contenuti Contenuti Duplicati

      Ciao,
      per contenuti duplicati interni io utilizzo: siteliner.com
      per contenuti duplicati esterni utilizzo: copyscape.com

      Il primo nella versione gatuita non ti analizza tutto il sito. Ma ti aiuta a capire quali sono i contenuti duplicati interni.

      postato in SEO
      H
      haser
    • Sito penalizzato per contenuti duplicati e backlink non buoni

      Ciao a tutti,
      vi scrivo per chiedere un aiuto per il mio blog. Il blog è basato su wordpress ed utilizza il plugin wordpress seo by yaost. Penso di avere una penalizzazione per contenuti duplicati ed anche per backlink.

      Le attività che ho eseguito tramite il plugin seo sono la rimozione dell'indicizzazione dei tag, pagine archivi e redirect alla home visto che, per il momento il blog è mono autore. Ho anche riorganizzato le categorie in modo da avere 5 macro categorie e ovviamente declassato a tag tutte le altre.
      Rimozione manuale tramite Google Webmaster Tool delle url indicizzate dei tag e archivi vari.
      Al momento rimarrebbero solo le categorie indicizzate.

      Per cercare di risolvere il problema dei contenuti duplicati ho rimosso anche tutti gli articoli che potevano essere considerati come duplicati ed ho creato un pagina apposita o racchiuso tutte le informazioni di più articoli in un unico articolo. Effettuando poi i dovuti redirect 301.

      Dopo queste attività ho iniziato a vedere un miglioramento delle query di ricerca nel GWT con incremento delle visite sul blog.

      Al riguardo volevo una conferma. Elimino anche le categorie dall'indicizzazione?

      Dopo queste modifiche non sono ancora riuscito a risolvere un problema con l'indicizzazione della sitemap.xml inviata a google. Il problema è che puntualmente non mi indicizza gli articoli riguardanti Ubuntu e inseriti nella categoria Linux. Ubuntu è un argomento molto trattato sul blog. Per gli altri articoli non ci sono problemi.

      Per questo problema, ad esempio, l'ultimo articolo riguarda syncdrive, un programmino per google drive. Ga GWT nella sezione sitemap.xml non risulta indicizzato, ma in realta google l'ha indicizzato dopo un paio di giorni. Dopo una settimana circa ha indicizzato anche la sitemap.

      Questo problema sulla sitemap può essere dovuto al fatto di avere dei widget nella sitebar e nel footer che elencano gli articoli recenti, gli articoli più visti e gli ultimi commenti? o è grazie a loro che google in realtà quell'articolo l'ha indicizzato dopo due giorni?

      Questi widget li rimuovo o gli aggiungo il nofollow?

      La mia sitemap contiene 144 voci comprese tra articoli, pagine e categorie. con il comando site: mi dice che sono 169 circa, ma in realta sono 148 voci indicizzate da google.

      Per quanto riguarda i backlink, premetto che ho una pagina noindex che contiene alcuni siti con link nofollow. Ho voluto lasciare una sezione di siti amici.
      A parte qualche sito dove hanno inserito il nome preciso del blog nella sitebar. Che sto cercando di: in alcuni casi farli togliere o al massimo fargli inserire il nofollow ed in altri ho utilizzato il tool disavow per siti aggregatori stranieri che linkavano male i miei articoli.

      Per questi siti aggregatori stranieri che linkavano male i miei articoli, ho anche applicato un redirect all'articolo corretto.
      Ho fatto bene? O era meglio lasciarli con errore 404?

      Volevo porvi un'altra questione che ho già iniziato ad analizzare. Quando ho iniziato a scrivere sul blog ho utilizzato un plugin che mi traduceva gli articoli del blog in molte lingue. Ai primi segni di pagine duplicate l'ho rimosso e applicato un redirect 301 a tutti gli url che contenevano il flag della lingua verso la homepage, per evitare una marea di segnalazioni di pagina non trovata.

      Ora, non sono sicuro, ma penso che sia un possibile problema. Le attività che sto facendo è la rimozione dal redirect per alcune lingue e vedere se ricevo segnalazioni da qualche sito che mi linka e che non trova la pagina. poi valuterò se applicare un nuovo redirect solo per quel sito o inserirlo nel disavow file.

      Secondo voi è corretto procedere in questo modo?

      Per il resto, so che devo migliorare la stesura degli articoli e la loro lunghezza. Oltre al fatto di aumentare le pubblicazioni e ovviamente i backlink buoni.

      Grazie in anticipo per il vostro aiuto. Quel poco che so l'ho imparato leggendo questo forum. 🙂

      Dominio:
      anxurweb.com
      Motori:
      Google
      Prima indicizzazione o attività:
      03-Luglio-2008
      Cambiamenti effettuati:
      Tema e noindex tag e pagine archivio
      Eventi legati ai link:
      alcuni url inseriti nel disavow tool
      Sito realizzato con:
      Wordpress
      Come ho aumentato la popolarità:
      Inizialmente inserimento di articoli in aggregatori come upnews, diggita, friendfeed. Ora solo Facebook, twitter e Google+.
      Chiavi:
      anxur, ubuntu
      Sitemaps:
      Si

      postato in SEO
      H
      haser
    • RE: Visualizzazione errata del forum

      Se fosse cosi, sarebbe solo questione di tempo.
      Aspettiamo.

      Questa sera provo con un'altra connessione.

      Nel frattempo, grazie per il supporto.

      postato in News Ufficiali da Connect.gt
      H
      haser
    • RE: Visualizzazione errata del forum

      Si, ne ho utilizzato un' altro di servizio per gli sceenshot ed il layout si vede bene.
      Forse ho capito qual'è il problema.
      In questo momento sono in ufficio, accedo ad internet tramite proxy.

      Per adesso lo stesso problema lo abbiamo io ed altri 4 colleghi a cui ho chiesto di verificare. Al quinto collega si vede bene, accede ad internet in vpn con un'altro proxy. Impostando il mio stesso proxy si vede male.

      Ma il proxy cosa centra?

      postato in News Ufficiali da Connect.gt
      H
      haser
    • RE: Visualizzazione errata del forum

      Le estensioni sono Firebug e LastPass.
      I plugin sono molti di più. Li ho disabilitati tutti, ma il problema rimane.

      Si, il problema si verifica anche con altri Browser e su differenti pc. Anche con sistema operativo diverso.

      postato in News Ufficiali da Connect.gt
      H
      haser