Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. seoluke
    3. Post
    S

    seoluke

    @seoluke

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 2
    • Post 17
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    0
    Reputazione
    17
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    Post creati da seoluke

    • RE: Ristrutturazione sito multilingua per ottimizzazioni seo

      io sto facendo la seconda lingua per un mio cliente. la versione italiana la lascerò su un dominio di secondo livello .it e quella inglese la metterò sul .com, entrambe le versioni saranno ottimizzate.

      mi consigliate questo metodo?

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: Doorway su dominio esterno

      @WillyLord said:

      Che intendi per Network di siti?
      Devono essere linkati tra loro?
      sono molto interessato anche io a delle risposte autorevoli 😄

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: pagine "nascoste"

      @carlodg said:

      Ciao
      ritorno sull'argomento:
      nel mio sito vi è la possibilità di effettuare una registrazione per andare a vedere delle pagine relative a un argomento specifico "legislazione e sicurezza". E' stato fatto per fornire indicazioni solo a persone realmente interessate e che ci abbiano fornito i loro nomi.

      Quesito: le pagine nascoste, vengono viste dai motori di ricerca o no, dato che per entrarci bisogna effettuare un login con password?
      E' chiaro che se i motori non le vedono perdono di importanza.
      se sono pagine contenute in una area riservata mi sembra scontato che google non le veda.
      io personalmente se ci sono pagine che non sono direttamente linkate al sito, le inserisco nel file sitemap.xml
      concordate?

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: problema Black List

      a un mio cliente lo hanno inserito nella black list della posta perchè secondo il provider inviavano involontariamente troppa posta con virus e arbitrariamente gli hanno bloccato sia il pop3 che l'smtp 😮
      ma non credo sia il tuo caso

      postato in Help Center: consigli per il tuo progetto
      S
      seoluke
    • RE: link sponsorizzati aiutano il ranking?

      argomento interessante, piacerebbe anche a me leggere delle risposte, ho letto pareri discordanti sull'argomento...

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: Come fa ad essere primo

      @Girovago said:

      OT, per non aprire un nuovo thread.

      Come si vede l'anzianità di un sito?
      basta vedere la data di registrazione 😉
      puoi utilizzare qualsiasi tipo di whois, se è un .it puoi anche direttamente andare sul sito del nic www.nic.it

      whois: http://www.nic.it/cgi-bin/Whois/whois.cgi
      stato registrazioni: http://www.nic.it/SR

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: forum, cartella interna o dominio di terzo livello?

      @riga75 said:

      Riprendo la questione anch'io....io ho un dominio dal 2000 e prmo per diverse key e ora vorrei fare un forum e da quello che avevo capito è che era meglio metterlo nel domoinio di terzo livelloma leggendo questo post le mie idee si sono offuscate....sareste così gentili da schiarirmele?

      In futuro poi vorrei dare la possibilità di fare in modo che ogni utente avess un prorprio blog e una galleria immagini (farò il tutto con vBulleting e suoi componenti)

      Cosa mi consigliate? Grazie millle
      io generalmente taglio la testa al toro e creo ad es. la cartella
      www.mionome.it/forum e poi un dominio di terzo livello forum.mionome.it che punto all'url appena indicato (www.mionome.it/forum).
      Insomma faccio entrambe le cose!

      postato in CMS & Piattaforme Self-Hosted
      S
      seoluke
    • RE: Il robot divora banda del server (Twiceler-0.9)

      Sono sempre io 🙂 Vi tengo aggiornati magari questa mia esperienza può essere utile a qualcun'altro.
      Ho escluso il robot tramite il file robots.txt, ho chiesto a chi mi gestisce il virtual server di bannare gli ip che vi ho indicato e alla fine ho scritto direttamente a chi ha creato il succitato robot chiedendogli (assieme a qualche velata bestemmia) di escludere gli ip dei miei virtual server dalle ricerche del robot. spero di aver risolto, magari nei prossimi giorni, appena avrò dei dati, vi dirò se l'uso della banda si è ridimensionato a livelli normali.

      Ecco la loro risposta:

      Dear,

      Twiceler is the crawler that we are developing for our new
      

      search engine. It is important to us that it obey robots.txt, and that it
      not crawl sites that do not wish to be crawled. It would help us debug it
      if you could send us some examples of its failing to obey your robots.txt.

      Recently we have seen a number of crawlers masquerading as Twiceler, so
      

      please check that the IP address of the crawler in question is one of ours.
      You can see our IP addresses at http://cuill.com/twiceler/robot.html

      You may wish to add a robots.txt file to your sites. 
      
      Also be aware that changes to robots.txt take 24 to 48 hours to take
      

      effect.

      I have added xx.xxx.xxx.xx and xx.xxx.xxx.xx to our list of IPs to exclude,
      

      and I apologize for any inconvenience this has caused you.

      Please feel free to contact me if you have any further questions.

      Sincerely,

      James Akers
      Operations Engineer
      Cuill, Inc.

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: Il robot divora banda del server (Twiceler-0.9)

      @robaldo said:

      secondo me dovrebbe bastare: hai notato cali di accessi da parte di questo bot?
      non ho dati al momento visto che stiamo cercando e applicando oggi gli interventi necessari a limitare il consumo improprio di banda, vi saprò dire qualcosa nei prossimi giorni

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: Il robot divora banda del server (Twiceler-0.9)

      se vi può interessare questi sono gli ip del robot succhia banda

      38.99.13.121
      38.99.13.122
      38.99.13.123
      38.99.13.124
      38.99.13.125
      38.99.13.126
      38.99.44.101
      38.99.44.102
      38.99.44.103
      38.99.44.104
      38.99.44.105
      38.99.44.106
      64.1.215.162
      64.1.215.163
      64.1.215.164
      64.1.215.165
      64.1.215.166
      208.36.144.6
      208.36.144.7
      208.36.144.8
      208.36.144.9
      208.36.144.10

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • Il robot divora banda del server (Twiceler-0.9)

      Salve ragazzi, sperando di non aver sbagliato la sezione in cui inserisco questo post, vi segnalo e vi chiedo aiuto per un "fenomeno paranormale".

      Ho i miei clienti su un virtual server. La soluzione acquistata quasi 2 anni fa è ottima per caratteriste offerte e per un prezzo abbordabilissimo, ma carente per assistenza e per affidabilità del servizio. 2 mesi fa il virtual server ha incominciato a rallentarsi vistosamente e spesso è down. Ci è sembrato naturale bestemmiare il fornitore visti altri precedenti e alcune risposte davvero evasive o improbabili alle nostre domande disperate sul problema in questione.

      Però ieri ho fatto una scoperta a mio modo di vedere sconcertante. Osservando attentamente le statistiche di Awstats di un mio cliente che ha circa 2000 utenti unici al mese, mi ha stupito il consumo di banda che questo sito produce negli ultimi tempi (non coerente con quello di tutti i 12 mesi precedenti). Nel mese di settembre 50gb di traffico visualizzato (derivante dai visitatori del sito) e quasi 200gb di traffico NON visualizzato (derivante da spider, robots e roba simile). 😮 Il trend è in linea anche nel mese di Ottobre. Questi dati degli ultimi 2 mesi sono circa 10 volte o più superiori ai mesi precedenti a Settembre.

      Andando a spulciare nei log vari, ci siamo resi conto che questo robot Twiceler-0.9 ritorna a scandagliare le pagine del sito ogni 2/3 secondi,
      producendomi nel mese di settembre circa 3.000.000 di accessi per un consumo di banda di più di 150gb. C'è un altro dato stranissimo, le statistiche mi riportano quasi 1.000.000 di pagine viste, roba improponibile per un sito che ha solo 2.000 visitatori unici.

      Oltre che disabilitare l'accesso a questo spider dal file robots.txt o segnalare gli ip da cui proviene da bannare a chi mi fornisce il virtual server, cosa posso fare?
      Alcuni di voi si sono trovati nella stessa situazione? E' ipotizzabile che questo robot sia se non il responsabile, ma almeno co-responsabile del generale rallentamento? Nel contratto non si parla di un limite di banda, ma deduco che uno ce ne sia per forza.

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: L'inclusione di una sitemap può penalizzare il posizionamento del sito?

      @artistic101 said:

      Certo, non può che far bene inserire la Sitemap anche se, coincidenza, anche a me da quando l'ho inserita le visite sono scese...!
      @Giorgio e @jck, cosa intendete per tecniche border line...?

      intendo duplicazione pagine in grande quantità per esempio

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: Requisiti per un sistema di statistiche mirato ai SEO

      @Virgilio_x said:

      io uso AWstats. Ho

      • numero visitatori dirversi e numero visite totali
      • statistiche mensilizzate
      • statistiche giornaliere
      • statistiche divise per i sette giorni della settimana
      • statistiche per orario
      • statistiche per dominio (it, de, com, net, ecc)
      • elenco degli hosts da cui arriva la visita
      • elenco degli spider, numero delle loro visite ed ultima data di accesso
      • durate delle visite
      • statistiche dei tipi di file letti (html, php, gif, ecc)
      • statistiche per TUTTE le pagine del sito visitate
      • statistiche dei sistemi operativi adoperati dai visitatori
      • statistiche dei browser adoperati dai visitatori
      • statistiche delle provenienze dei visitatori (google, virgilio, DMOZ, ecc)
      • statistiche degli accessi da BL
      • rapporto delle frasi e delle singole parole tramite le quali il visitatore mi ha trovato
      • rapporto errori dettagliato per numero di volte, pagina con l'errore e provenienza

      Può bastare? 😎
      no purtroppo no, maledetto AWSTATS... il serp, il serp mancaaaaaaaa

      postato in Google Analytics e Web Analytics
      S
      seoluke
    • RE: Novità di rilievo per la comunicazione della Sitemap ai motori

      come posso segnalare il file sitemap a msn?

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: Sito in aspnet [e navigazione in JS] come lo vedono gli spider?

      secondo me risolvi riportando il menu nel footer in maniera testuale e lasci , senza dover modificare nulla, il menù in javascript nell'header!

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • RE: sitemap online, senza installazioni, ecc (compatibile con google)

      vi segnalo un altro sito assolutamente gratuito 😄
      http://www.mypagerank.net/service_sitemap_index

      postato in News Ufficiali da Connect.gt
      S
      seoluke
    • L'inclusione di una sitemap può penalizzare il posizionamento del sito?

      Salve ragazzi, sono un nuovo arrivato, mi chiamo Luca, un passato da progettista e designer,da un anno e mezzo mi occupo anche di SEO e questo forum per me è una bella scoperta 🙂

      Volevo porvi una domanda su un argomento che per me è nuovo. Ho incluso da alcuni giorni la sitemap per un sito da me realizzato www.rosso41.com.
      In precedenza come supporto per le tecniche seo non l'avevo mai utilizzata.

      Il sito è abbastanza giovane, è online da circa 8 mesi. Gli accessi al sito erano in crescente crescita, come il posizionamento di alcune keywords.
      Ho notato una cosa strana: da quando ho incluso la sitemap e l'ho segnalata a google tramite i suoi strumenti per webmasters, gli accessi sono in calo, come ho notato anche una caduta libera di alcune parole chiave (che come dicevo avevano in precedenza un trend di crescita).

      • Può la sitemap penalizzarmi in qualche modo invece di essere un supporto?
      • Può essere che cosi google si renda più facilemente conto di alcune tecniche da me utilizzate un pò bordeline o forse per nulla consentite dalle sue linee guida (es. duplicazione pagine)?
      • **E' effettivamente cosi utile e indispensabile ai fini del posizionamento?**Vi prego datemi qualche risposta. Vi ringrazio infinitamente!
      postato in News Ufficiali da Connect.gt
      S
      seoluke