Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. cached
    3. Post
    C

    cached

    Bannato

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 1
    • Post 18
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Località Milano Età 121
    0
    Reputazione
    18
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    Post creati da cached

    • RE: Cached.it: contenuti copiati dai nostri siti

      @Mamilu said:

      Caro Cached, certo che ti puoi unire, sei il benvenuto 🙂

      Pensa se non lo ero 🙂

      postato in SEO
      C
      cached
    • RE: Cached.it: contenuti copiati dai nostri siti

      e poi quelli non sono esperimenti di spam

      Ma un servizio

      se non piace essere presente li sopra che li rimuova qualcuno li avrà inserito

      postato in SEO
      C
      cached
    • RE: Cached.it: contenuti copiati dai nostri siti

      @Mamilu said:

      io ne ho spiderizzati circa 6 mila
      e ci sto lavorando sopra per il momento

      Tra questi 6 mila a quanto pare, credo tu abbia *spiderizzato * ed inserito nei tuoi Esperimenti di SPAM pure le home dei miei siti professionali, aggiungendovi pure AdSense:
      [url=http://www.google.it/search?hl=it&c2coff=1&client=firefox-a&rls=org.mozilla%3Ait-IT%3Aofficial&q=site%3Awww.cached.it+velocipedi-equestri&btnG=Cerca&meta=]Cached e Ve

      [url=http://www.google.it/search?hl=it&c2coff=1&client=firefox-a&rls=org.mozilla%3Ait-IT%3Aofficial&q=site%3Awww.cached.it+frittomistovilla&btnG=Cerca&meta=]Cached e Fritto

      [url=http://www.google.it/search?hl=it&c2coff=1&client=firefox-a&rls=org.mozilla%3Ait-IT%3Aofficial&q=site%3Awww.cached.it+krabiemerald&btnG=Cerca&meta=]Cached e Krabiemerald

      assieme a quelli di mezzo forum:
      [url=http://www.google.it/search?hs=D8Q&hl=it&c2coff=1&client=firefox-a&rls=org.mozilla%3Ait-IT%3Aofficial&q=site%3Awww.cached.it+giorgiotave&btnG=Cerca&meta=]Cached e Giorgiotave

      Personalmente, non mi piace per nulla che si usino i miei testi e le mie pagine per sostenere i tuoi business.

      Ti informo che ho già incaricato il mio legale di verificare se appaiono palesi violazioni di leggi vigenti e quindi se esistono gli estremi per presentare un esposto denuncia alla Polizia Postale ed alla Magistratura.

      si si prego fai pure
      Magari non hai visto la pagina remove che ti spiega tanto !!!
      Magari prima di farlo mi sono informato anche io 🙂

      postato in SEO
      C
      cached
    • RE: Estrarre urls da una pagina

      prova questo costruttore :

      
      class LinkExtractor {
      	/* private Array variable: $linkReg [ contains pregs to parse links ]*/
      	var $linkReg = Array(
      	"/&#40;?i&#41;<a&#40;&#91;^\a&#93;+?&#41;href='&#40;&#91;^\a&#93;+?&#41;'/i",
      	"/&#40;?i&#41;<a&#40;&#91;^\a&#93;+?&#41;href=\"&#40;&#91;^\a&#93;+?&#41;\"/i",
      	"/&#40;?i&#41;<a&#40;&#91;^\a&#93;+?&#41;href=&#40;&#91;^\a&#93;+?&#41;&#91; |>&#93;/i"
      	&#41;;
      
      	/**
      	* Public constructor.
      	* Create a global Array with no value, used for parsing
      	* and an internal array with valid pregs for links parsing.
      	*/
      	function LinkExtractor&#40;&#41; &#123;
      		global $__linkExtractor_linkRecipient;
      		$__linkExtractor_linkRecipient = Array&#40;&#41;;
      	&#125;
      
      	/**
      	* Private method, popolate internal Array with preg matches
      	* .
      	* @Param	String		String to push into internal array
      	* @Return	nothing
      	*/
              function __manageLinkRecipient&#40; $replacement &#41; &#123;
      		global $__linkExtractor_linkRecipient;
      		array_push&#40; $__linkExtractor_linkRecipient, htmlspecialchars&#40; $replacement&#91;2&#93; &#41; &#41;;
      	&#125;
      
      	/**
      	* Private method, call preg_replace_callback function with string.
      	* .
      	* @Param	String		String to parse
      	* @Return	nothing
      	*/
      	function __callBackCaller&#40; $st &#41; &#123;
      		preg_replace_callback&#40; $this->linkReg, Array&#40; &$this, '__manageLinkRecipient' &#41;, $st &#41;;
      	&#125;
      
      	/**
      	* Public method, read remote page or file and parse them
      	* .
      	* @Param	String		valid url address to parse
      	* @Return	Boolean		true if readed , false in other cases
      	*/
      	function parseUrl&#40; $url &#41; &#123;
      		if&#40; @$fp = fopen&#40; $url, "r" &#41; &#41; &#123;
      			$st = '';
      			while&#40; $text = fread&#40; $fp, 8192 &#41; &#41; &#123;
      				$st .= $text;
      			&#125;
      			fclose&#40; $fp &#41;;
      			$this->__callBackCaller&#40; $st &#41;;
      			return true;
      		&#125;
      		return false;
      	&#125;
      	
      	/**
      	* Public method, parse links in a file
      	* .
      	* @Param	String		string to parse
      	* @Return	nothing
      	*/
      	function parseFile&#40; $st &#41; &#123;
      		return $this->parseUrl&#40; $st &#41;;
      	&#125;
      
      	/**
      	* Public method, parse links in a string
      	* .
      	* @Param	String		string to parse
      	* @Return	nothing
      	*/
      	function parseString&#40; $st &#41; &#123;
      		$this->__callBackCaller&#40; $st &#41;;
      	&#125;
      	
      	/**
      	* Public method, return an array with all found links
      	* .
      	* @Param	no	no params need
      	* @Return	Array	Array with all links &#40; if there're &#41;
      	*/
      	function getLinks&#40;&#41; &#123;
      		global $__linkExtractor_linkRecipient;
      		return $__linkExtractor_linkRecipient;
      	&#125;
      &#125;
      function linkExtractor&#40; $what, $url = false &#41; &#123;
      	
      	
      	$myLinks = &new LinkExtractor&#40;&#41;;
      	if&#40; $url == false &#41; &#123;
      		$myLinks->parseString&#40; $what &#41;;
      	&#125;
      	elseif&#40; $url == true &#41; &#123;
      	        if&#40; $myLinks->parseUrl&#40; $what &#41; == false &#41; &#123;
      	        	return false;
      		&#125;
      	&#125;
      	return $myLinks->getLinks&#40;&#41;;
      &#125;
      
      // EXAMPLE
      $url = "http&#58;//www.php.net/"; // site to parse
      
      $arrayLinks = &linkExtractor&#40; $url, true &#41;;
      
      if&#40; $arrayLinks != false &#41; &#123;
      	for&#40; $a = 0, $b = count&#40; $arrayLinks &#41;; $a < $b; $a++ &#41; &#123;
      		echo $arrayLinks&#91;$a&#93;."
      ";
      	&#125;
      &#125;
      
      ```[/img]
      postato in Coding
      C
      cached
    • RE: mod_rewrite

      Non puoi farlo

      Tu nella regola dichiari 3 variabili e la pagina si rigenera con 3 vabiabili

      Quello che ti consiglio io è se tu hai scritto la rule per questo obbiettivo :

      www.dominio.it/Casa/Salotto/Divano.html

      e poi puoi avere anche :

      www.dominio.it/Casa/Divano.html

      non ti conviene fare il rewrite con una cosa simile ?

      www.dominio.it/Casa/Salotto/Divano/

      e cosi avrai anche :

      www.dominio.it/Casa/Salotto/

      Ovviamente a posizione corrisponde variabile 🙂

      postato in Coding
      C
      cached
    • Cached.it: contenuti copiati dai nostri siti

      io ne ho spiderizzati circa 6 mila
      e ci sto lavorando sopra per il momento

      postato in SEO
      C
      cached
    • RE: Progettare e fare un semplice motore di ricerca -Discussione

      @Rinzi said:

      non è tra le priorità... inizialmente svilupperanno la simulazione degli algoritmi

      come no ??

      e come fai ? il bot è la base
      gliela devi far leggere la pagina e la devi incamerare secondo me

      postato in SEO
      C
      cached
    • RE: Progettare e fare un semplice motore di ricerca -Discussione

      un bot di partenza l'abbiamo ??
      uno spider che prelevi c'e ?

      postato in SEO
      C
      cached
    • RE: url rewrite su sito già indicizzato

      @pieru said:

      La domanda è: ci sono controindicazioni o misure particolari da seguire per applicare questa tecnica a un sito esistente? Rischio di antiduplicazione? Macumbe?

      rischi tantissimo perchè la tua vecchia pagina esiste ancora e la nuova contiene gli stessi contenuti

      postato in News Ufficiali da Connect.gt
      C
      cached
    • RE: Progettare e fare un semplice motore di ricerca -Discussione

      @Mamilu said:

      Ovviamente qui approfondiamo *questa *esperienza e potrebbe risultare fuorviante aprire discussioni sulle proprie esperienze personali, per le quali ti consiglio eventualmente di aprire un altro thread.

      :ciauz:

      Complimenti per l'avatar (sei carina 🙂 ) cmq certo che allora mi aggrego
      Se mi dite da dove posso iniziare a trovare o mettere materiale ..

      postato in SEO
      C
      cached
    • RE: Google Ranking Tool (versione approfondita):lavoriamoci su..

      @Stealth said:

      secondo me è una gran perdita di tempo.
      tralasciando le N combinazioni fattoriali possibile del title il problemasorge nellarichiesta delle query su google, in quanto il motorestesso riconosce N request da un ipunivoco in un piccolo periodo di tempo.
      a questo punto c'è il temporaneo ban dell'ip.

      basta che fai query in xml e te ne fa fare quante ne vuoi

      postato in SEO
      C
      cached
    • RE: Progettare e fare un semplice motore di ricerca -Discussione

      Mi posso unire anche io ??
      Io avevo gia incominciato qualcosa da solo per me
      Ho utilizzato openwebspider leggermente modificato

      Sto usando mysql come db anche se non mi sembra il massimo Io sono arrivato a spiderizzare qualcosa come 500 mila siti ed il db supera i 2 giga per questo dico che non va troppo bene perchè appena mi fa una query complessa muore li e arriva anche a 2 minuti

      Io sto usando lavorando in una sorta di logica fuzzy (anche se la trovo parecchio inadatta per come ho strutturato io) e dove attribuisco al numero dei caratteri della pagina un valore massimo di 1 la numero decimale delle lettere presenti e lo divido per il numero fuzzy degli spazi e cosi ottengo una sorta di coefficiente che mi da la media di distanza tra parola e parola . A questa guardo quanti spazi ho tra una frase mia e quella che è stata cercata dall'utente. Poi provo a suggerire con la funzione levenshtein in php 5 eventuali possibilità di suggerimento (ma anche questo lo devo ottimizzare perche troppo lento - salvo i valori in un array e poi li estraggo ma non mi piace) . Ora mi sono fatto un bot in php che segue gli url nelle pagine (avevo pensato a sto bot per far creare online la mappa di google proprio per risolvere il problema dei siti dinamici e dover far mettere a mano agli utenti i singoli link) e devo dire che funziona davvero bene . Il limite è il timeout di esecuzione che ha i limiti di apache

      A me la cosa interessa tantissimo
      se mi posso aggregare mi farebbe piacere

      PS : io so programmare in php e mysql

      postato in SEO
      C
      cached
    • RE: Tool per SEO

      [quote="shade"]
      Chiedo scusa se non mi sono accorto subito della risposta ma sotto le feste ...

      Non c'e problema

      Dunque,
      Ho detto che Cached dà i numeri a caso per il semplice fatto che se un tool mi dà una risposta sbagliata o casuale, tendo a considerare "tutti" i dati presenti in quella stessa risposta come errati (anche se l'errore dovesse essere circoscritto).

      Non credo cmq ti devo dare ragione sul fatto della data di oggi sbagliata (avevo errato una query e la facevo ordinare per asc anziche per desc) pero sotto al grafico c'e una bella dicitura che ti da l'ordine del grafico e cioè from 27-12-2005 to 20-12-2005 dunque bastava leggere quella dicitura che capivi che il grafico era corretto ma l'errore stava nella data delll'array . Cmq ti ringrazio di cuore cosi ho corretto l'errore

      Interrogando il tool per sapere quante pagine sono indicizzate da Google, ho avuto nella prima sezione della risposta una serie di dati del tipo:
      In data di oggi 2005-12-14 il valore minimo è ...
      peccato che oggi sia il 27-12-2005 e che i dati citati sono vecchi di due settimane.

      L'errore stava semplicemente nella data che ora grazie a te ho corretto gli altri dati erano corretti

      Che i dati successivi possano essere giusti non ha per me più alcuna rilevanza poichè l'errore precedente mi fa dubitare di "tutto" il responso.
      Non me ne voglia l'autore, ma avevo quasi pensato che il tool fosse in panne al pari dei simili in questo periodo.
      Ciao a tutti e Buone Feste :ciauz:

      Non te ne voglio anzi. Adesso cmq dopo questa tua maleinterpretazione farò una semplice interfaccia per segnalare eventuali anomalie o dubbi

      Grazie tante

      postato in SEO
      C
      cached
    • RE: Tool per SEO

      @Giorgiotave said:

      Ciao Cached, Benvenuto e grazie per la spiegazione.

      Mi chiamo Mario

      postato in SEO
      C
      cached
    • RE: Tool per SEO

      @Giorgiotave said:

      Complimenti per i tool 😉

      Grazie Giorgioa presto ora devo scapper

      postato in SEO
      C
      cached
    • RE: Tool per SEO

      @Giorgiotave said:

      ì
      Spero sia un caso, sai succede di rado che un fans abbia lo stesso ip dell'autore del sito e che su 4 discussioni in cui ha partecipato ha messo in 3 volte il tuo link 😉

      sai se hai gia controllato il mio ip vedrai che io son fastweb e sai che gli ip sono condivisi da piu persone spesso e volentieri
      Ma non ti preoccupare se mi pensi un clone bannami

      postato in SEO
      C
      cached
    • RE: Dmoz e presenza

      @nandonando2 said:

      OK ma non ti dice in quale categoria o per quale parola chiave.
      Possofarlo anche manulamente se mi dice come

      si che te lo dice se un sito è presente in dmoz. Leggi le categorie sotto al Gift

      postato in News Ufficiali da Connect.gt
      C
      cached
    • RE: Tool per SEO

      @shade said:

      Lui "funziona" ma dà i numeri... a caso :arrabbiato:

      Perchè darebbe i numeri a caso ??
      I numeri sono generati sui vari datacenter e poi viene fatta una media

      postato in SEO
      C
      cached