• Super User

    Sembra che Alekhine, al quale succedeva di lamentarsi di non poter abitualmente eseguire meravigliose combinazioni, poiche' solo raramente poteva contare su adeguati avversari che gli consentissero di giocare nella maniera migliore, fosse uso sedersi lui stesso dall'altra parte della scacchiera al fine di porre in essere tali fantastiche combinazioni.

    Nella foresta mentale di Alekhine cadevano quindi alberi dei quali il rumore veniva udito solo dall'Alekhine medesimo, oltre che dal suo alter ego ovviamente. Ma senza dubbio questo era sufficiente per considerare l'albero caduto, anche se nessun altro ne veniva a conoscenza.
    :vai:


  • Super User

    "Io c'ero". Ma se avessi assunto un ruolo avrei rovinato tutto.


  • User Attivo

    Elena, vado a dormire felice.

    Non so se hai fatto tesoro del giochino del profondo rosso, forse per fortuna, probabilmente perche' hai una sensibilita' pazzesca.

    Per superare il Gap degli orrori, a mio avviso basta contrappore-eludere-ovviare a cio' che avviene solo nella propria mente (e nessuno vede) con un qualcosa che e' si solo principalmente nella propria mente, ma un qualcosa che in seguito anche un tuo alter ego sara' in grado di vedere ed analizzare.

    Il bosco virtuale degli orrori di marshall puo' essere sconfitto grazie ad un qualcosa di altrettanto virtuale, un secondo io che sia in grado di prendere coscienza, capire, mettere in discussione, competere con i pensieri dell'io nativo.

    L'albero che cade nella mente di uno solo allora cadra' nella mente di due e pertanto il luogo non sara' piu' non luogo. Proprio vero che le cose piu' evidenti si rivelano essere quelle piu' introvabili.


  • Community Manager

    Agoago grazie, la tua esperienza è ottima anche per capire e gestire il forum 😉


  • User Attivo

    ago potresti mandarmi l'indirizzo del tuo pusher ?
    Mi sembra roba buona.. 🙂

    Ad ogni modo:
    hai ma sniffato la Gbar ? (domanda stupida)
    Io l'ho seguita per un paio d'ore poi mi son stufato, però c'era un parametrino carino che mi sembrava tipo un checksum.

    Se io G ho 10 milioni di pc con su installata la tb, perchè dovrei inventarmi bot fantascientifici per comparare due versioni di una pagina ?


  • User Attivo

    @uMoR said:

    ago potresti mandarmi l'indirizzo del tuo pusher ?
    Mi sembra roba buona.. 🙂

    Ad ogni modo:
    hai ma sniffato la Gbar ? (domanda stupida)
    Io l'ho seguita per un paio d'ore poi mi son stufato, però c'era un parametrino carino che mi sembrava tipo un checksum.

    Se io G ho 10 milioni di pc con su installata la tb, perchè dovrei inventarmi bot fantascientifici per comparare due versioni di una pagina ?

    Si anche se l'avevo fatto per alexa, ma non chiudendo la gtb mi ero passato anche i suoi dati.

    Pero' ad onor del vero non mi ricordo se la gtb passava a g anche il codice di cosa vede l'utente. Se non mi ricordo male gli passava url, time e cose simili.

    Forse mi ricordo male, comunque se la tb passasse a g tutto il contenuto di cosa un utente vede quell'utente avrebbe un danno pesantissimo in termini di banda, se scaricasse 100k di testo allora invierebbe altrettanti k, ma siccome le bande spesso sono differenziate (un top per down, un tot per up), un utente sarebbe fritto.


    Per quanto riguarda i bot "fantascientifici" non li definirei tali, in fondo si tratterebbe di veri spider di note societa' collegate. Niente di inventato, di forzato, ma semplici e storici bot che da anni si leggono i nostri siti senza apportare nessun vantaggio per i wm e gli utenti.

    Per quanto riguarda il pusher mi basta una bottiglia di single malt. Se invecchiata spendi di piu' che farti di qualsiasi altra sostanza alterante, ma ne vale la pena. Bisogna essere coerenti.

    Prima mi capitava di discutere con colleghi americani. Capivo al volo se qualcuno diceva idiozie ottimistiche perche' appena fatto di coca, se le idiozie erano del tipo mollo tutto, troppo dura e cose simili era perche' erano in down.

    Almeno avevo un paramentro per distinguere le 2 situazioni. Facevo una media tra le 2 e qualcosa ne ricavavo. Poi molti sono passati alle metanfetamine, lasciamo perdere.

    I seo americani (a mio parere) non sono propio quello che si potrebbe definire fenomeni e questo da sani, da lucidi. Immaginarsi...

    Credo che nella storia di ogni popolo ci sia un tot di genialita' da poter esprimere. L'america ha giocato-consumato tutti i suoi punti con Edison... (se non vi e' capitata l'occasione vi consiglio di leggere la sua bibliografia, la sua vita, da non credere fino a che punto un uomo possa eccellere, per intelligenza, abnegazione, praticita', sembra persino irreale che sia realmente esistito un uomo cosi') non pretendiamo di piu' da loro almeno per quelche secolo.


  • User

    Per poter fotografare una pagina "utente", io motore, dovrei presentarmi come un utente qualsiasi, con un ua qualsiasi e non come bot specifico del motore, con un ip diverso dal range assegnato al motore, ecc ecc.

    Se lo facessero, se si nascondessero dietro i dati di un ipotetico visitatore qualsiasi, e poi si scoprisse, sarebbero rovinati come immagine, troppo il rischio.
    Inoltre questo ipotetico trucco non avrebbe vita lunga, vi immaginate un wm che analizzando il suo file log vedesse un utente che accede velocemente a mezzo sito? Troppo sospetto, sarebbe un trucco che non avrebbe vita lunga.

    ago non capisco perchè si rovinerebbe l'immagine di un motore se facesse dei controlli con User Agent diversi dal canonico robot, per smascherare un cloaking su un sito bastano poche pagine non c'è bisogno di scaricarsi centinaia di pagine in poche ore.

    Credo che nella storia di ogni popolo ci sia un tot di genialita' da poter esprimere. L'america ha giocato-consumato tutti i suoi punti con Edison... (se non vi e' capitata l'occasione vi consiglio di leggere la sua bibliografia, la sua vita, da non credere fino a che punto un uomo possa eccellere, per intelligenza, abnegazione, praticita', sembra persino irreale che sia realmente esistito un uomo cosi') non pretendiamo di piu' da loro almeno per quelche secolo.

    Edison non è esattamente un esempio di "genialità" le sue tanto strombazzate invenzioni erano frutto del lavoro dei suoi dipendenti.
    Si incaponi con la corrente continua e mise in giro voci sulla pericolosità della corrente alternata per spingere le sue obsolete centrali a corrente continua.
    Di quell'epoca un grande genio è stato Nikola Tesla.


  • Super User

    Forse mi ricordo male, comunque se la tb passasse a g tutto il contenuto di cosa un utente vede quell'utente avrebbe un danno pesantissimo in termini di banda, se scaricasse 100k di testo allora invierebbe altrettanti k, ma siccome le bande spesso sono differenziate (un top per down, un tot per up), un utente sarebbe fritto.
    si anche io dubito che la toolbar invii a Google il codice scaricato da browser, troppa la divverenza tra dati in ingresso e in uscita e comunque scorretto ad esempio di chi naviga con tariffe a traffico consumanto (UMTS ecc...)


  • Super User

    se inviasse un checksum della pagina, verrebbe usata poca banda per controllare eventuale cloacking, pero'.


  • Super User

    @must said:

    se inviasse un checksum della pagina, verrebbe usata poca banda per controllare eventuale cloacking, pero'.

    Un normale checksum non potrebbe essere, perché con tutte le pagine dinamiche che ci sono in giro, anche la minima variazione (tipo quelle inutili scritte che ti indicano che ore sono) farebbero cambiare il checksum di molto e si generebbero un mucchio di "falsi positivi".

    Però potrebbe effettivamente essere un checksum più raffinato, che si basa solo su alcuni dei contenuti della pagina o addirittura solo sul codice HTML, che solitamente varia parecchio dalla pagina col cloaking a quella per l'utente.

    Detto questo, non credo che nessuna toolbar di nessun motore faccia queste analisi. A seconda delle pagine, temo che potrebbero rallentare la navigazione e i tempi di reazione del browser.

    Ritengo invece più fattibile un uso della toolbar per individuare i redirect Javascript o Flash, registrando "lato server" semplicemente il tempo trascorso tra il caricamento di due pagine da parte dello stesso browser e costruendo statistiche basate su più utenti.

    Ma io non ho notato ancora nulla di simile.


  • User Attivo

    Bartender scrive:

    "ago non capisco perchè si rovinerebbe l'immagine di un motore se facesse dei controlli con User Agent diversi dal canonico robot, per smascherare un cloaking su un sito bastano poche pagine non c'è bisogno di scaricarsi centinaia di pagine in poche ore."

    Se um motore ha un accordo commerciale con un altro motore minore e non sospetto nessuno se ne accorgerebbe e non ci sarebbe nessun tipo di danno di immagine, rispetta le regole. Per esempio, prendiamo il psbot.

    Passa che e' un piacere, nessun wm lo degna di considerazione perche' e' un bot minore ma serio, normalmente gli si lascia fare quello che vuole.

    Appartiene a picsearch.com, sito oltre al decimillesimo posto nella classifica di alexa, sito che se incassa qualche centinaio di dollari al giorno e' tanto. Ma usa risorse folli, inspiegabili in termini economici di uscite-entrate.

    Allora viene il dubbio:

    http://www.picsearch.com/menu.cgi?item=Licensing

    e qui prendiamo atto la loro tecnologia e' sfruttata anche da msn, yahoo, ecc ecc

    Allora uno pensa (che a pensar male...) ecco dove arrivano i soldi per tutte quelle risorse utilizzate.

    Sempre per il detto andreottiano... allora uno si chiede... ma passeranno ai partner solo la loro tecnologia, oppure anche o solo le immagini, oppure i dati delle pagine che spiderizzano?

    Secondo voi??

    E quanti bot minori passano tutti i giorni sui nostri siti senza che nessuno di noi li consideri per quello che realmente potrebbero essere? Tutto regolare, tutto in netiquette, tutto legale.

    Ma questi bot minori agiscono solo per loro stessi o anche per conto altrui?


    Per quanto riguarda Edison per me era un genio per cosa e' riuscito a ideare e creare, per come ha cambiato la nostra vita, per come ha lavorato sodo credendo sempre in quello che faceva. Per la sua testardaggine, perche' e' stato uno dei piu' grandi imprenditori dei nostri secoli, perche' non si arrendeva mai. Certo era un uomo, con i limiti e le meschinita' di ogni uomo. Ha coniugato la teoria alla pratica, non era solo un pensatore ma anche una persona concreta.

    Forse tutto questo non fa di lui un genio ma solo un uomo per molti versi unico, e quanto lui o i suoi collaboratori (tra i quali Testla, che poi dopo esser stato ingannato da edison se ne ando') hanno realizzato concretamente in mezzo secolo trova pochi riscontri al mondo.

    Un uomo che realizza nella sua esistenza un migliaio di brevetti.

    Tenuto conto che stiamo parlando di 2 persone di eccezionale livello, non c'e' dubbio che testla sta ad edison per moralita' e amor della scienza pura come un elefante sta ad un moscerino.

    Ma era il piu' grande, grande anche nella sua immoralita' e presunzione, nonostante la sua immoralita' e presunzione.