Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. luvme2tms
    3. Discussioni
    L

    luvme2tms

    @luvme2tms

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 4
    • Post 15
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Sito Internet www.cercacasa.it/ Età 44
    0
    Reputazione
    39
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    badges

    0
    Bookmarks
    0
    Voti
    0
    Ringraziamenti
    0
    Miglior risposte
    Inizia una nuova discussione
    di cosa vuoi parlare?

    Discussioni create da luvme2tms

    • Topic
      Post
      View
      Votazioni
      Post
      Attività
    • L

      PageRank - LP - User Ranking ed altri concetti ideali
      Teecno • • luvme2tms  

      2
      1717
      Visualizzazioni
      0
      Votazioni
      2
      Post

      giorgiotave

      Ciao luvme2tms,

      quanto pensi che questo gravi in termini di calcolo?

    • L

      Spider ideale
      Teecno • • luvme2tms  

      7
      5765
      Visualizzazioni
      0
      Votazioni
      7
      Post

      C

      Ok, infatti pure io nn metterei mai in crontab una entry per ogni url da analizzare.

      Ma preso spider.php tu come lo implementeresti?
      1.
      while ( url_da_analizzare ){
      analizzo_pagina();
      }

      recupero_url_da_DB();
      analizzo_pagina();
      header( spider.php?url_successivo );

      La criticità dei due metodi sta però nel fatto che se un anello della catena si spezza io non percorro tutta la catena. Però per voi non è un gran problema dato che invocate continuamente lo spider.

      Io invece dovrei fare uno script che viene lanciato una volta a notte.

      Ciao!

    • L

      SEO e Webmaster
      News Ufficiali da Connect.gt • • luvme2tms  

      9
      1292
      Visualizzazioni
      0
      Votazioni
      9
      Post

      L

      Ci ho pensato e ripensato... ho fatto un elenco delle 104 provincie e relativi link ai risultati delle ricerche... ho ripulito gli url da almeno 8 variabili che non erano nemmeno utilizzate (madonna che schifo...) e ora sono in procinto di uppare tutto su una paginetta a PR0 ...
      Il fatto è che linkare 104 pagine di un sito senza un minimo di contenuti può essere visto solo come spam... ARGH...

      Ho pensato di procedere in questo modo (anche se richiederà molto tempo) installo mediawiki sul sitarello farlocco, gli sbatto dentro dei contenuti originali, pertinenti e non scopiazzati, qua e la gli infilo A TEMA i link che ho preparato... Mi faccio un po' di BL qua e la, submitto il sitarello a google e poi incrocio le dita... nell'arco di 3 o 4 mesi dovrebbe indicizzarsi... spero...

      @eLLeGi
      Sono perfettamente e assolutissimamente daccordo... peccato che io non abbia un sito.... non ancora almeno!
      Sto organizzando un sito ma per il momento sono ancora offline, ci vorrà ancora qualche mese, e anche ammesso che lo avessi già non avrebbe nessuna LP

    • L

      Salve Salvino!
      Presentati alla Community • • luvme2tms  

      4
      481
      Visualizzazioni
      0
      Votazioni
      4
      Post

      S

      ciao