• Super User

    @Desertstorm said:

    un analisi dei backlink cosi come tu proponi secondo me è assolutamente impossibile.

    motivo?

    1. dovresti analizzare i backlink dei backlink stessi (scusate la ridondanza)
    2. dovresti conoscere vita, morte e miracoli dei siti dai quali provngono i backlink (per evidenziare anomalie dovute magari a penalizzazioni ecc)
    3. anche ammesso che sia possibile avere i punti 1 e 2, dovresti formulare una scala di punteggio in base ai vari subfattori da considerare ai punti precedenti
    4. qualsiasi punteggio ottenuto a seguito di tutti gli studi vale al massimo per un settore...
    5. dovresti monitorare attentamente tutti i siti che ti danno i link e a loro volta quelli che li linkano

    ...dimenticavo..

    non si puà fare un'analisi basata sul tradizionale metodo scientifico quando si trattano valore ignoti.... 😄

    Ciao Desertstorm, cercavo proprio un contraddittorio ma ho come l'impressione che tu abbia capito poco di cio' che volevo dire...
    (evidentemente non mi sono spiegato bene)

    La mia analisi voleva cercare di approfondire un argomento di cui probabilmente i MDR (parlo dei "big 4" G-Y-M + ask) già tengono conto...

    Un algoritmo ampiamente piu' semplice per esempio del calcolo del PR...

    Infatti si tratta in ultima analisi di tenere traccia (cioè di storicizzare) un dato che gli spider di tutti i motori considerano: il numero di BL...

    La mia analisi ipotizza e descrive il modo in cui un MDR potrebbe tenere conto di una soricizzazione del dato... cioè di memorizzare il numero di Bl nel tempo e estrapolarne poi attraverso un opportuno algoritmo un valore di influenza positiva o negativa sul ranking.

    Dopo che è stata organizzata una indicizzazione infatti è possibile applicarci sopra qualunque calcolo o algoritmo ti venga in mente! (si fa per dire) al fine di creare nuovi valori o migliorarne altri fra gli n fattori di cui poi terranno conto gli algoritmi di ranking (soppesandoli e miscelandoli a dovere) che si attivano in base e al momento dell'inserimento della query da parte di un utente del MDR...

    Ti è piu' chiaro, ora, il ragionamento che ho fatto?

    Non capisco infatti il senso delle tue affermazioni di cui sopra... nello specifico:

    dalla 1) alla 4) non capisco cosa c'entrano nel discorso...

    mentre per la 5) la mia risposta è : "ma come pensi che allora venga calcolato il Page rank? 🙂

    e infine sulla "...non si puà fare un'analisi basata sul tradizionale metodo scientifico quando si trattano valore ignoti..."

    ti direi che apparte il fatto che quella è una semplice analisi matematica (non assolutamente un metodo scientifico) e non capisco quali siano i fattori ignoti che nomini...

    Grazie, ciao,
    Nicola


  • Moderatore

    Ottima analisi nbriani, ritengo però che data la mole di pagine/siti che un MDR deve analizzare un discorso di questo tipo si può fare solo per alcune tipologie (cluster) di siti e siccome qualcuno (Low 😉 ) mi disse che ai MDR piacciono le cose semplici non andrei oltre le retta come funzione interpolatrice.
    Y =ax+b
    Un ipotesi potrebbe essere:
    a) Rilevo il num di BL ogni tre mesi e calcolo il coefficente angolare rispetto alle ultime 2 rilevazioni precedenti [BLa1] e [BLa2] in modo tale che nel DB mi servono solo 2 campi per conoscere la "storia" del num. di BL.
    b) Definisco il "trend" dei BL come:

    BLTr = (BLa1 + BLa2)

    In questo modo posso mitigare eventuali picchi temporanei intervenuti negli ultimi 6 mesi dovuti a diversi motivi: news, BL spamming, ecc...

    PS: Aggiungo che siccome i BL: nascono, vivono e muoino si possono applicare gli studi (e le simulazioni) relativi al "gioco della vita"


  • Bannato User Attivo

    @nbriani said:

    La mia analisi voleva cercare di approfondire un argomento di cui probabilmente i MDR (parlo dei "big 4" G-Y-M + ask) già tengono conto...
    Un algoritmo ampiamente piu' semplice per esempio del calcolo del PR...
    Infatti si tratta in ultima analisi di tenere traccia (cioè di storicizzare) un dato che gli spider di tutti i motori considerano: il numero di BL...

    e con google come fai visto che non ne tiene traccia di tutti ma ne visualizza solo una minima parte?
    sei davvero certo che Yahoo e Google li tengono tutti in considerazione mentre magari nel loro algoritmo anche loro non applichino filtri?

    e poi non esiste nessun algoritmo di Google a noi noto.
    Quello che viene spacciato per algoritmo di pagerank è semplicemente una formula matematica che nessuno al mondo, ad eccezione di google, è in grado di calcolare e quindi verificare l'attendibilità.

    quando sommi e moltiplichi variabili a cui nessuno è in grado di determinarne il valore, qualsiasi formula può essere vera.

    posso dirti che la formula per trasformare il piombo in oro è radice quadrata di infinito.
    fino a prova contraria, la mia formula è corretta visto che nessuno potrebbe calcolarne l'effettivo valore e quindi capire se è reale o meno.

    poi senza contare il fatto che nel ranking intervengono cosi tanti fattori che di fatto i soli BL di per sè non valgono niente.

    dovresti avere 10 siti uguali, con 10 domini molto simili e anche cosi il margine di errore di paragone sarebbe eccessivo.

    io posso calcolare il consumo di benzina di 10 auto, ma se ho 10 auto di diversa marca, cilindrata, ecc ecc avrò 10 valori diversi.

    sicuramente posso avere una media come riferimento, ma è un risultato che rapportato a milioni di casi possibili non mi serve a niente.

    Dopo che è stata organizzata una indicizzazione infatti è possibile applicarci sopra qualunque calcolo o algoritmo ti venga in mente! (si fa per dire) al fine di creare nuovi valori o migliorarne altri fra gli n fattori di cui poi terranno conto gli algoritmi di ranking (soppesandoli e miscelandoli a dovere) che si attivano in base e al momento dell'inserimento della query da parte di un utente del MDR...

    Puoi farlo in un sistema noto, non certo in un sistema completamente ignoto di cui si conoscono i risultati e le origini ma si ignora completamente tutto quello che ci sta in mezzo.

    nessuno sa come effettivamente un risultato X sia posizionato in posizione Y per una determinata keyword.

    possiamo ipotizzare motivi di carattere generale e con un'analisi più attenta arrivare anche a motivi di carattere specifico e localizzato ma non sapremo mai come questi valori vengono poi elaborati insieme.

    mentre per la 5) la mia risposta è : "ma come pensi che allora venga calcolato il Page rank? 🙂

    Nessuno lo sa perchè se qualcuno lo sapesse avrebbe tutti sit ia Pr 10 con il minimo sforzo.
    il fatto che si lavora per principio generale è il motivo per cui avere anche un pr 6 è per molti ai limiti dell'impossibile.

    ti direi che apparte il fatto che quella è una semplice analisi matematica (non assolutamente un metodo scientifico) e non capisco quali siano i fattori ignoti che nomini...

    analisi matematica o metodo scientifico il problema è lo stesso.

    tu conosci una parte degli ingredienti ma non potrai mai sapere in quale dosi e con quali procedimenti questi saranno mischiati per ottenere un risultato finale.

    contrariamente a questo, sapresti perfettamente posizionare un sito X alla posizione Y che meglio preferisci.

    saresti in grado di dire ad un cliente, ti posiziono questo sito in settima posizione per la keyword X.

    questo non puoi farlo perchè ignori tutto quello che sta in mezzo tra la domanda e la risposta di google...


  • Super User

    @Desertstorm said:

    e con google come fai visto che non ne tiene traccia di tutti ma ne visualizza solo una minima parte?
    sei davvero certo che Yahoo e Google li tengono tutti in considerazione mentre magari nel loro algoritmo anche loro non applichino filtri?

    e poi non esiste nessun algoritmo di Google a noi noto.
    Quello che viene spacciato per algoritmo di pagerank è semplicemente una formula matematica che nessuno al mondo, ad eccezione di google, è in grado di calcolare e quindi verificare l'attendibilità.

    quando sommi e moltiplichi variabili a cui nessuno è in grado di determinarne il valore, qualsiasi formula può essere vera.

    posso dirti che la formula per trasformare il piombo in oro è radice quadrata di infinito.
    fino a prova contraria, la mia formula è corretta visto che nessuno potrebbe calcolarne l'effettivo valore e quindi capire se è reale o meno.

    poi senza contare il fatto che nel ranking intervengono cosi tanti fattori che di fatto i soli BL di per sè non valgono niente.

    dovresti avere 10 siti uguali, con 10 domini molto simili e anche cosi il margine di errore di paragone sarebbe eccessivo.

    io posso calcolare il consumo di benzina di 10 auto, ma se ho 10 auto di diversa marca, cilindrata, ecc ecc avrò 10 valori diversi.

    sicuramente posso avere una media come riferimento, ma è un risultato che rapportato a milioni di casi possibili non mi serve a niente.

    Puoi farlo in un sistema noto, non certo in un sistema completamente ignoto di cui si conoscono i risultati e le origini ma si ignora completamente tutto quello che ci sta in mezzo.

    nessuno sa come effettivamente un risultato X sia posizionato in posizione Y per una determinata keyword.

    possiamo ipotizzare motivi di carattere generale e con un'analisi più attenta arrivare anche a motivi di carattere specifico e localizzato ma non sapremo mai come questi valori vengono poi elaborati insieme.

    Nessuno lo sa perchè se qualcuno lo sapesse avrebbe tutti sit ia Pr 10 con il minimo sforzo.
    il fatto che si lavora per principio generale è il motivo per cui avere anche un pr 6 è per molti ai limiti dell'impossibile.

    analisi matematica o metodo scientifico il problema è lo stesso.

    tu conosci una parte degli ingredienti ma non potrai mai sapere in quale dosi e con quali procedimenti questi saranno mischiati per ottenere un risultato finale.

    contrariamente a questo, sapresti perfettamente posizionare un sito X alla posizione Y che meglio preferisci.

    saresti in grado di dire ad un cliente, ti posiziono questo sito in settima posizione per la keyword X.

    questo non puoi farlo perchè ignori tutto quello che sta in mezzo tra la domanda e la risposta di google...

    Desert, scusa se insisto ma non hai proprio capito il senso del mio post... 🙂

    qui si sta cercando di fare una analisi teorica sul funzionamento "ideale" di uno degli n fattori che possono influenzare un ranking.... lo facciamo col duplice scopo di capire meglio le caratteristiche dei MDR in genere e di come possono applicare o meno certi algoritmi, e lo facciamo, soprattutto (come sottolineato nelle prime righe del thred) per eventualmente applicare regole e algoritmi a teecno.

    Davvero in cio' che tu scrivi non saprei neanche da dove cominciare per rispondere alle varie cose che dici cosi' distanti da questo semplice pensiero... e alcune davvero incongruenti 🙂 in genere.. una su tutte la tua affermazione sul PR:

    "...Nessuno lo sa (l'algoritmo ndr) perchè se qualcuno lo sapesse avrebbe tutti sit ia Pr 10 con il minimo sforzo."

    ... bè il sistema di base con cui si forma il PR non è affatto misterioso... fondamentalmente ci vogliono semplicemente BL da siti ad alto PR 🙂 , è solo questo il difficile... non l'algo, ma trovare i BL!

    :ciauz:
    Nicola


  • Super User

    @paocavo said:

    Ottima analisi nbriani,

    grazie! 🙂

    @paocavo said:

    ritengo però che data la mole di pagine/siti che un MDR deve analizzare un discorso di questo tipo si può fare solo per alcune tipologie (cluster) di siti e siccome qualcuno (Low 😉 ) mi disse che ai MDR piacciono le cose semplici non andrei oltre le retta come funzione interpolatrice.
    Y =ax+b
    Un ipotesi potrebbe essere:
    a) Rilevo il num di BL ogni tre mesi e calcolo il coefficente angolare rispetto alle ultime 2 rilevazioni precedenti [BLa1] e [BLa2] in modo tale che nel DB mi servono solo 2 campi per conoscere la "storia" del num. di BL.
    b) Definisco il "trend" dei BL come:

    BLTr = (BLa1 + BLa2)

    In questo modo posso mitigare eventuali picchi temporanei intervenuti negli ultimi 6 mesi dovuti a diversi motivi: news, BL spamming, ecc...

    Mi sembra un ottima semplificazione della questione... anche se effettivamente da un punto di vista puramente teorico concentrarsi sul coefficente angolare dato dalle ultime due rilevazioni restringe il significato che potremmo attribuire all'algoritmo ad una sorta di "coefficente di crescita di BL" (molto simile a quello descritto negli utlimi brevetti di google, in fondo..no?) di un documento in un dato momento.

    Ma va ad escludere possibili e piu' variegate interpretazioni che deriverebbero dall'avere magari interpretato la distribuzione dei Bl nel tempo attaverso funzioni piu' complesse. Funzioni che permetterebbero quindi in generale di avere una maggiore precisione nell'assegnazione di un eventuale fattore premiante o penalizzante al documento.

    Resta il fatto che concordo con una richiesta tecnica (la tua) di semplificazione che certamente facilita l'introduzione di questo eventuale algoritmo...

    Magari quando il db di indicizzazione di Teecno sarà stabile (e accessibile!)potremmo, con il permesso di Giorgio, Tonix e gli altri.. farci sopra qualche sperimentazione... che dici?

    @paocavo said:

    PS: Aggiungo che siccome i BL: nascono, vivono e muoino si possono applicare gli studi (e le simulazioni) relativi al "gioco della vita"

    Questo è interessante... ma nella rete come riporteremmo le regole della vita relative a popolazione/sopravvivenza ? 🙂


  • Bannato User Attivo

    @nbriani said:

    "...Nessuno lo sa (l'algoritmo ndr) perchè se qualcuno lo sapesse avrebbe tutti sit ia Pr 10 con il minimo sforzo."

    ... bè il sistema di base con cui si forma il PR non è affatto misterioso... fondamentalmente ci vogliono semplicemente BL da siti ad alto PR 🙂 , è solo questo il difficile... non l'algo, ma trovare i BL!

    Vedi, qui sbagli.
    Noi conosciamo solo il principio generale, per semplice causa effetto.

    sappiamo che avendo x link da pr y, il ns pr potrebbe arrivare per esempio a 6.
    non vuol dire conoscere l'algoritmo del pagerank.

    sarebbe come per dire che mettendo la benzina nella macchina posso fare x km. lo so per principio generale, ma come funzioni effettivamente il motore non lo so.

    cmq lavora sulla tua analisi, quando avrai i risultati potremmo capirci meglio sulle ns relative posizioni 😉


  • Moderatore

    @nbriani said:

    grazie! 🙂
    Resta il fatto che concordo con una richiesta tecnica (la tua) di semplificazione che certamente facilita l'introduzione di questo eventuale algoritmo...

    L'importante è iniziare con cose semplici, poi si vedrà ... Il fatto di considerare di tenere traccia proprio della funzione interpolatrice (lineare o polinomiale, spline) potrebbe essere più utile per cercare di "prevedere" il valore futuro di BL.

    Se il valore previsto coincide quasi con quello rilevato allora...

    Se invece intendevi utilizzare la funzione per confrontarla con N possibili funzioni o "comportamenti" pre-confezionati allora la vedo un pò dura perchè i motivi che inducono i comportamenti sono numerosi....

    @nbriani said:

    Magari quando il db di indicizzazione di Teecno sarà stabile (e accessibile!)potremmo, con il permesso di Giorgio, Tonix e gli altri.. farci sopra qualche sperimentazione... che dici?

    😉

    @nbriani said:

    Questo è interessante... ma nella rete come riporteremmo le regole della vita relative a popolazione/sopravvivenza ? 🙂
    Ci sto pensando :mmm: 😄


  • Super User

    @Desertstorm: la formula ed il principio su cui si basa il calcolo del pagerank sono noti. Non è necessario sapere quanti link servano per raggiungere un determinato PR, per utilizzare fruttuosamente questa nozione basta capire che è preferibile concentrarsi sulla ricerca di bl da documenti ad alto PR, piuttosto che trovarne tantissimi a basso PR.

    @Nicola: non so con certezza (ma credo non lo sappia nessuno) se le variazione di certi parametri nel tempo siano davvero considerate negli algoritmi di ranking, la mia impressione è che lo siano.

    Nel documento sui dati storici viene detto che alcuni modelli di incremento e decremento possano essere "congelati" in curve o modelli con i quali confrontare gli andamenti dei documenti da esaminare.

    Il dubbio che viene subito è che esistono settori diversi in cui i comportamenti degli stessi utenti sono profondamente differenti, però potrebbe essere ipotizzabile la costruzione di una serie di curve che non abbiano precisi riferimenti temporali nè in valore assoluto.
    Quello che conta è la fonta la forma della curva insomma.

    Non credo che da sola una analisi di questo genere possa definire l'autorevolezza di un sito, però potrebbe dare alcune indicazioni, una curva di accumulo dei backlink decrescente fino adu un valore molto basso potrebbe aiutare il motore di ricerca a capire che a quel documento vada preferito uno che ha in quel momento lo stesso numero di backlink ma che invece li sta guadagnando.


  • Super User

    @paocavo said:

    Il fatto di considerare di tenere traccia proprio della funzione interpolatrice (lineare o polinomiale, spline) potrebbe essere più utile per cercare di "prevedere" il valore futuro di BL.
    Se il valore previsto coincide quasi con quello rilevato allora...

    Se invece intendevi utilizzare la funzione per confrontarla con N possibili funzioni o "comportamenti" pre-confezionati allora la vedo un pò dura perchè i motivi che inducono i comportamenti sono numerosi....

    @beke said:

    Nel documento sui dati storici viene detto che alcuni modelli di incremento e decremento possano essere "congelati" in curve o modelli con i quali confrontare gli andamenti dei documenti da esaminare.

    Nella mia idea (ma si puo' cambiare!) intendevo esattamente cio' che Beke riporta ... realizzare un algoritmo che possa confrontare la distribuzione con alcune funzioni "predefinite" e ben individuate (che non devono per forza essere tutte le funzioni possibili) che corrispondano a spinte o a penalizzazioni da applicare al documento :

    Se riconosco una funzione di distribuzione "buona" allora premio, se riconosco una funzione di distribuzione "cattiva" allora penalizzo... viceversa lascio nullo il parametro...

    Certo che cio che propone paocavo che piu' di me riesce a riportare idee e analisi nella realtà della "programmazione alla ns portata" è certamente un operazione piu' concretamente e facilmente applicabile.. e che mi sembra possa portare comunque a risultati interessanti...

    Non vedo l'ora di poter tentare un approccio "reale" di queste idee a teecno...

    Magari!

    @beke said:

    Non credo che da sola una analisi di questo genere possa definire l'autorevolezza di un sito..

    Come detto piu' su...non lo credo nemmeno io.. è un valore che preso da solo ed isolato non ha un grandissimo significato o comunque lo ha ma passibile di numerose situazioni particolare..

    Io lo immagino "**come uno dei" **parametri legati ai BL che insieme ad altri quali il numero, il Pr di provenienza, il cluster di provenienza (?) , e altri (?) possano approfondire o indicare meglio il concetto di autorevolezza di un documento, un tempo legato al solo PR.

    :ciauz:
    Nicola


  • Moderatore

    @nbriani said:

    Certo che cio che propone paocavo che piu' di me riesce a riportare idee e analisi nella realtà della "programmazione alla ns portata" è certamente un operazione piu' concretamente e facilmente applicabile..

    Ciao Nicola!
    non è una questione di "programmazione alla ns portata" ma, ingegneristicamente parlando, di costo/benefici:

    Per costo intendo:

    • Occupazione di memoria nel DB

    • Complessità computazionalePer confrontare l'andamento reale con uno dei possibili andamenti prestabiliti comporta:

    • Tenere traccia di tutti i "campioni" per ogni pagina (e/o sito) nell'indice del MDR o in alternativa tenere traccia della sola funzione funzione interpolatrice (come memorizzo una funzione nel DB? Memorizzo il solo codominio? Fino a quale range di valori del dominio? Memorizzo l'espressione algebrica della funzione intepolatrice?).

    • Gestire un campionario di possibili andamenti (funzioni) da tenere come riferimento per i confronti e quindi per il ranking. (Chi lo dice che questo set racchiude la totalità dei casi?)

    • Trovare un algoritmo che misura la somiglianza degli andamenti dei grafici di due funzioni: se operiamo nel continuo (funzioni interpolatrici) dopo una operazone di scaling bisognerebbe calcolare l'integrale della differenza delle due funzioni e prendere il valore che tende a zero (fra tutte le funzioni di riferimento). Se operiamo nel discreto si va sulle differenze finite, ecc eccc...un casino!:?image

    1. Modello di crescita "A"
    2. Andamento reale
    3. Modello di crescita "B"

    :ciauz:


  • Super User

    Mi fido ciecamente, anche perchè ho già il mal di testa 🙂


  • Super User

    @paocavo said:

    Ciao Nicola!
    non è una questione di "programmazione alla ns portata" ma, ingegneristicamente parlando, di costo/benefici:

    sorry, non ho trovato l'espressione giusta... 🙂 intendevo semplicemente la starda piu' semplice...

    @paocavo said:

    Per costo intendo:

    • Occupazione di memoria nel DB

    Questo non ho le conoscenze per poterla stimare correttamente , ma se la struttura regge la fase di calcolo dopo si tratta solo di memorizzare un valore (o sbaglio?)

    @paocavo said:

    • Complessità computazionale:Per confrontare l'andamento reale con uno dei possibili andamenti prestabiliti comporta:

    • Tenere traccia di tutti i "campioni" per ogni pagina (e/o sito) nell'indice del MDR o in alternativa tenere traccia della sola funzione funzione interpolatrice (come memorizzo una funzione nel DB? Memorizzo il solo codominio? Fino a quale range di valori del dominio? Memorizzo l'espressione algebrica della funzione intepolatrice?).
      Le mie reminescenze di analisi matematica mi suggerivano l'ipotesi di memorizzare semplicemente gli utlimi n punti (rilevamenti) in quantità tale da essere necessaria e sufficente al calcolo (da parte dell'algoritmo) di una possibile funzione generatrice . Ma potrei sbagliare sulla valutazione...

    @paocavo said:

    Gestire un campionario di possibili andamenti (funzioni) da tenere come riferimento per i confronti e quindi per il ranking. (Chi lo dice che questo set racchiude la totalità dei casi?)

    Nessuno ci obbliga aln fatto che il ns eventuale campionario comprenda ogni possibile funzione di andamento.. potremmo impostare il ns algorimo per 4/5 possibili "classi" di funzioni (tipo lineari, esponenziali, ecc)

    Trovare un algoritmo che misura la somiglianza degli andamenti dei grafici di due funzioni: se operiamo nel continuo (funzioni interpolatrici) dopo una operazone di scaling bisognerebbe calcolare l'integrale della differenza delle due funzioni e prendere il valore che tende a zero (fra tutte le funzioni di riferimento). Se operiamo nel discreto si va sulle differenze finite, ecc eccc...un casino!:?

    1) Modello di crescita "A"
    2) Andamento reale
    3) Modello di crescita "B"

    Ecco questo mi sembra il punto cruciale della cosa ... una soluzione potrebbe essere quella di simulare l'applicazione da parte dell'algoritmo di quelle 4/5 funzioni che abbiamo "decodificato" sui valori che abbiamo per ogni documento e verificare quale da il miglior risultato in termini di distanza dei punti ai dati intervalli...? (è una domanda ! 🙂 )
    Sulla difficoltà della cosa nn mi preoccuperei piu' di tanto .. applicherei un algoritmo del genere solo a determinati intervalli sul datacenter... anche se ci mette "tempo e risorse" potremmo lasciarlo lavorare in back ground.. no?


  • Moderatore

    @nbriani said:

    Questo non ho le conoscenze per poterla stimare correttamente , ma se la struttura regge la fase di calcolo dopo si tratta solo di memorizzare un valore (o sbaglio?)

    Per "reggere" la fase di calcolo ho bisogno di dati, da dove li prendo?
    Ah eccoli:

    ... gli utlimi n punti (rilevamenti) in quantità tale da essere necessaria e sufficente al calcolo (da parte dell'algoritmo) di una possibile funzione generatrice


  • Community Manager

    Quando ho letto il topic mi son detto: ora gli segnalo il link sui brevetti di Google ma vedo che qui abbiamo gente che dire preparata e dire poco 😄

    La possibilità a cui accennavo al raduno è molto reale e non la useremo per il motore di ricerca interno.

    Ci sono due progetti che potrebbero diventare realtà appena abbiamo sviluppato un Teecno 2.0 e sono

    Teecno PowerRank
    Sviluppo di un piccolo algoritmo che tiene conto dei link. Per iniziare potremmo iniziare con piccoli calcoli >>> Continua con la lettura

    **Teecno e la Ricerca nei Blog
    **Molto fondamentale sviluppare una versione di Teecno di ricerca nei Blog, non tanto per puntare a fornire il servizio, ma per incamerare la grande mole di dati che i blogger ci forniscono, sopratutto nella nascita di eventi e nei link dei post >>> Continua con la lettura
    Ho già parlato con Antonio (tonyx) per il conteggio dei Backlink, creando uno spider che incameri:

    • ancor
    • title delle pagina
    • mese di quando lo spider lo trova
    • anno
    • giorno

    Il valore della pagina dobbiamo vedere come fare, ma è un calcolo che faremo fare dopo, credo 😄

    In questo caso ci sarà solo uno sforzo in più da parte del nostro spider ad incamerare i dati, che poi ci possono servire per vari tipi di test.

    Uno spider migliore del primario è già in via di sviluppo ed Osvi ci sta lavorando

    Una volta che abbiamo deciso come incamerare i dati li facciamo partire 🙂

    A quel punto è un attimo decidere di testare i vari algoritmi (invece di usare il parametro anni usiamo quello giorni :)).

    Le indicazioni ci serviranno per capire quanto un determinato documento Giovane è molto linkato e quindi merita di essere mostrato e quanto un determinato documento vecchio non viene più linkato.

    Ovviamente è solo una bozza. Cioè ragazzi, per fare una casa vogliamo partire dalle fondamenta vero?

    Perchè è inutile iniziare a selezionare i colori delle finestre 😄

    Quindi Nicola, Paocavo, Beke, Raele e tutti gli altri, discutiamo pure sulle possibilità e proponiamo un test con Teecno 🙂

    :ciauz: