• Super User

    @cached said:

    come no ??

    e come fai ? il bot è la base
    gliela devi far leggere la pagina e la devi incamerare secondo me

    Probabilmente per qualcuno non è ancora chiaro che quello che ci interessa sono gli algoritmi che permettono di stabilire la pertinaneza di un determinato documento con un certo argomento.

    Dannarsi nella progettazione di uno spider sarebbe per il momento un'inutile complicazione.

    Cosa serve di più ad un Seo: sapere come funziona un spider, o capire come migliorare i contenuti di un documento perchè esso sia valido per una determinata query?

    Io direi la seconda...

    Anche perchè il funzionamento di uno spider è abbastanza banale da comprendere,ma la sua costruzione può non esserlo.

    Per raggiunger i nostri scopi, stiamo partendo dalla fine dell'opera... per poi poter con calma giungere ad un'opera completa.

    All'inizio sostituiremo noi, manualmente, lo spider.

    Dopo pian piano renderemo automatizzata anche questa operazione, di fondamentale importanza pratica, ma di poco valore educativo.

    Ciao :ciauz:


  • Super User

    Calcolo del modello vettoriale

    Il modello vettoriale [vector model] di reperimento delle informazioni conta su tre insiemi di calcoli.
    Questo modello può lavorare su parole selezionate da un indice o su un testo integrale.
    Nella discussione che seguirà, questo è indifferente.

    I calcoli necessari per il modello vettoriale sono:

    1. Il peso di ogni parola di indice deve essere calcolato attraverso l'intero insieme del documento. Ciò risponde alla domanda di quanto è importante la parola nell'intera raccolta.

    2. Il peso di ogni parola di indice all'interno di un dato documento (nel contesto di quel documento soltanto) deve essere calcolato per tutti i N documenti. Ciò risponde alla domanda di quanto è importante la parola all'interno di singolo documento.

    3. Per ogni domanda, il vettore di domanda è confrontato a ognuno dei vettori del documento. I risultati possono essere ordinati. Ciò risponde alla domanda di quale documento è più vicino alla domanda, ed ordina gli altri in base alla prossimità appropriata.

    Durante tutta la discussione, dobbiamo avere le definizioni di base del modello vettoriale a nostra disposizione:

    **N **- Il numero totale di documenti nel sistema. Se la vostra base di dati contiene 1.100 documenti che sono spostati ad incrementi, allora N = 1.100.

    ***ki *** - Un certo termine particolare di indice.

    **ni ** - Il numero di documenti in cui il termine ki compare. Nel caso qui sopra (dove N = 1.100), questo può variare da 0 a 1100.

    **freq i , j ** - Il numero di volte una data parola chiave (ki) compare in un determinato documento (documento "J")

    w i , j - il peso di termine per il ki nel documento J.

    **w i , q ** - il peso di termine per il ki nel vettore di domanda.

    q = (w 1 , q , w 2 , q , ... w t , q) - il vettore di domanda. Queste sono coordinate nel t- spazio dimensionale. Ci sono t termini nel sistema di indice; il vettore di domanda ha un peso per ognuno di loro.

    dj = (w 1 , j , w 2 , j , ... w t , j) - Il documento vettoriale. Ci sono N documenti nel sistema quindi ci sono N documenti vettoriali. Ognuno ha un peso per ogni parola chiave nel sistema di indice. Se il sistema è grande, molti di questi valori saranno zero, poiché molte parole chiave non compariranno nel vettore del documento per alcun dato documento. Nei termini matematici, questo è chiamato "sparso".

    f i , j - Frequenza normalizzata di ki in dj

    **dj ** - Un documento rappresentativo, il "j th".

    La definizione del modello vettoriale della seguente immagine descrive questi termini (Baeza-Yates & Ribeiro-Neta, 1999). In più, spiega i vettori di domanda ed i vettori di documento. Questi consistono nell'assetto coordinato in cui le coordinate sono i pesi per ogni termine nell'intero sistema.

    image

    Ora usiamo il prodotto scalare matematico che abbiamo imparato prima per espanderlo.

    Perchè lo facciamo?

    Il problema di base è che la formula non comprende i pesi dei termini nel vettore di domanda e nei vettori del documento. Desideriamo usare i pesi per scoprire quale documento/i è più vicino al vettore di domanda.
    Per risolvere la similitudine quindi, dobbiamo usare una serie di equazioni per esprimere questa stessa formula in termini di coordinate vettoriali (i pesi).

    In primo luogo, dobbiamo ricordare questo:

    A ? B = a1b1 + a2b2 + a3b3 dalla definizione del prodotto scalare qui sopra.
    Ciò significa che per calcolare il valore di un prodotto scalare, dobbiamo moltiplicare insieme le prime coordinate, quindi le aggiungeremo al prodotto delle seconde coordinate, quindi aggiungeremo la somma al prodotto delle terze coordinate e così via via fino a che non arriviamo alla fine delle coordinate.
    Concluderemo con un singolo numero, non un vettore.

    Ora, nel nostro modello di vettore, stiamo dicendo che A è il vettore del documento, dj = (w 1 , j , w 2 , j , ... , w t , j)

    e B è il nostro vettore di domanda **q = (w 1 , q , w 2 , q , ... , w t , q) **

    Quindi sostituiamo A e la B, ed espandiamo i termini, prendendo ogni termine di dj, moltiplicandolo per il termine corrispondente di q ed aggiungendo tutti questi prodotti:

    dj ? q = (w 1 , j * w 1 , q ) + (w 2 , j * w 2, q ) + ... + (w n , j * w n , q )

    Così stiamo cominciando qui ad incorporare i pesi dei termini. Mettendo questo nuovamente nella nostra equazione per similitudine otteniamo:

    image

    Ora valutiamo questo denominatore,|d||q|.

    Che cosa possiamo fare con questo? Se cominciamo con l'equazione 2:

    image |A|= sqr di A ? A

    e sostituiamo un vettore del documento con A, noi otteniamo

    image |d|=sqr di d ? d per il componente di documento e:

    image |q|=sqr di q ? q per il componente di domanda

    Sostituendo questi nella nostra equazione-mostro avremo:

    image

    Bene, già sappiamo come eliminare i prodotti scalare: espanderli nella somma dei prodotti dei termini corrispondenti. Così dobbiamo espandere le due radici quadrate nel denominatore.

    Ricordiamoci, che quando prendiamo il prodotto scalare di un vettore con se stesso, otteniamo una serie di quadrati. Se questo è D ? D , la risposta sarà d1d1 + d2d2 + d3d3 che è lo stesso di d12 + d22 + d32. Per il nostro vettore del documento, questo rimanda alle serie delle somme dei quadrati dei pesi:

    **dj ? dj = (w 1 , j * w 1 , j) + (w 2 , j * w 2, j) + ... + (w n , j * w n , j) **

    o

    **dj ? dj = w 1 , j 2 + w 2 , j 2 + ... + w n , j 2 **

    Da questa piccola operazione di sigma, possiamo comprendere che come la somma dei quadrati, una serie matematica è molto semplice.
    Poiché per il vettore del documento i termini sono i pesi w i , j concludiamo con:

    image

    Il vettore di domanda riduce in:

    image

    Ciascuno di questi sembra intimidirci, ma il significato è abbastanza semplice.
    Lavoriamo attraverso le coordinate una alla volta.
    Per ognuna facciamo il suo quadrato e lo aggiungiamo al totale corrente.

    Così, mettendo i nostri due sigma nuovamente nell'equazione ci dà:

    image

    Ora ci siamo quasi.
    L'ultima sostituzione e saremo alla conclusione.

    Il numeratore è inoltre una serie che può essere espressa attraverso la notazione di sigma:

    **(w 1 , j * w 1 , q) + (w 2 , j * w 2, q) + ... + (w n , j * w n , q) **

    Guardando questo esempio vediamo una serie che è sommata, dove ogni termine è il prodotto del peso di vettore del documento per il peso nel vettore di domanda per la data parola chiave.

    Nella notazione di sigma che è:

    image

    e se lo mettiamo nuovamente dentro la nostra equazione otteniamo:

    image

    Ora dunque, conosciamo che cosa significa modello vettoriale e da dove proviene.

    Potremmo persino calcolare alcuni esempi se ci sentissimo così volonterosi.

    Dato un vettore del documento e un vettore di domanda, tutto ciò che dobbiamo fare è moltiplicare alcune coppie di pesi, sommare quei prodotti, fare una piccola divisione ed abbiamo una misura di similarità.

    Sembra arduo ma è invece abbastanza facile.

    La prossima volta:
    **Valori e pesi delle parole **


  • Super User

    **Valori e peso delle parole
    **
    Fino ad ora abbiamo visto espressioni come (W n, J * W n, q) delle quali però ignoriamo che peso esse indichino esattamente.

    Abbiamo visto che usando i pesi possiamo calcolare la somiglianza fra i vettori e quindi la prossimità dell'accoppiamento fra un vettore del documento e un vettore di domanda.

    Confrontando il vettore di domanda a molti vettori di documento, possiamo allineare i documenti in base "alla qualità" dell'accoppiamento rapportata alla domanda.
    Ma da cosa sono prodotti quei pesi e da dove provengono?

    Le sezioni seguenti descrivono come sono** calcolati i pesi**.

    Ci sono veramente parecchi tipi di pesi che devono essere calcolati!
    Un insieme dei pesi che ovviamente abbiamo bisogno di conoscere, sono i pesi usati nel vettore di domanda.

    Il vettore di domanda contiene tutti i termini utilizzabili indicizzati nel documento.
    Il peso nel vettore di domanda riflette l'importantanza della parola chiave nel contesto dell'intero documento.

    Quando la** N** è grande, questo insieme di pesi è abbastanza stabile.
    Un nuovo documento può essere aggiunto all'insieme del documento senza cambiare significativamente il valore nel vettore di domanda.

    Il secondo insieme dei pesi che ci serve è potenzialmente enorme.

    Per ciascuno di N documenti dell'insieme di documenti, dobbiamo calcolare un peso per ogni termine indicizzato in quel documento.

    Ogni documento ha un vettore del documento contenente il peso per ogni termine indicizzato presente nel documento.

    Se abbiamo 1.000 documenti e 1.000 termini indicizzati, dovremo calcolare 1.000.000 di pesi.
    Ogni volta che aggiungiamo un nuovo documento all'insieme dei documenti, dobbiamo calcolare un insieme dei pesi per le parole del nuovo documento.

    Cos'è che rende una parola importante per una ricerca?

    Può essere importante in due contesti: nella regolazione del documento originale e nel contesto dell'intera raccolta.

    Una parola che compare in ogni documento, per esempio, non avrebbe valore nell'insieme del documento.
    Per calcolare il peso di una parola chiave, ci occorre quindi un sistema per combinare l'importanza di una parola in un documento e misurare l'importanza di una parola nell'intero insieme del documento.

    Una volta che abbiamo quei valori, possimo calcolare i pesi.

    Questa tabella ci mostra come questi fattori combinano in generale i termini:

    Importanza nel documento*Importanza insieme dei documenti** Peso**

    Alto____________ Alto__________________ **Molto alto **
    Basso____________ Alto__________________ Medio
    Alto______________ Basso________________ Medio
    Basso____________ Basso________________ Molto basso

    Gli esperti del reperimento delle informazioni usano metodi differenti per calcolare i pesi del vettore del documento che per calcolare i pesi del vettore di domanda, ed hanno una varietà di tecniche di misurazione dell'importanza della parola nei vari differenti contesti.

    In generale, per calcolare questi valori essi usano tecniche statistiche che comprendono l'analisi di frequenza della parola.

    Guarderemo alle frequenze degli algoritmi e quindi infine vedremo come sono combinati nei pesi.

    La prossima volta vedremo:
    **f i, J: La frequenza normalizzata di termine (tf) del ki nella d J **

    [per consultare queste note senza commenti ...vai [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6560]QUI ]


  • Super User

    f i, j: Termine di frequenza normalizzato (tf) di ki in d j

    la prima frequenza che esaminiamo è la frequenza di termine di una parola all'interno di un documento. Stiamo andando ad imparare come calcolare la frequenza normalizzata* ki* in d j

    La normalizzazione è un processo matematico di adattamento o di confinamento in posizione ordinata.

    Un conteggio approssimativo di frequenza è essenzialmente inutile.

    In un documento molto grande, una parola rara può tranquillamente comparire anche 25 volte.

    Un piccolo documento nello stesso insieme di documenti può anche non avere parole che compaiono 25 volte.

    Come possiamo confrontare questi conteggi? Dobbiamo normalizzare il conteggio di frequenza, in modo che sia possibile misurare quanto è rara una parola relativamente al suo documento senza considerare la dimensione del documento stesso.

    Un modo per farlo è comparare il numero di volte che una data parola compare (freq i , j) al numero di volte che la parola più presente compare nel testo (max (freq l, j)).

    Questo è un modo per ridurre i risultati ed adattarli approssimativamente alla dimensione del testo.

    Se li dividiamo, otteniamo una regolare gamma di valori, inferiore o uguale a uno.

    Diamo un'occhiata alla formula:
    image

    Questo ci dimostra che la frequenza normalizzata per una data parola in un dato documento (f i , j) è uguale alla frequenza approssimativa della parola nel documento (freq i , j) diviso la frequenza approssimativa della parola più comune nel documento (max l freq l , j )

    Vediamo nell'esempio seguente come si normalizzano con precisione i conteggi approssimativi di frequenza.

    Come sempre, il freq i , j è il conteggio approssimativo di un dato termine *ki * in un dato documento d j. Quindi dovremo immaginare di computare il valore di freq i , j per tutti i termini nel *d j * e conosceremo così la parola più comune, max (freq i , j).

    Quella sarà spesso la parola " il "; qui immaginiamo che sia presente 100 volte.

    *word____________ freq i , j____ max (freq i , j)___ f i , j *

    intercettazione______ 1_________ 100__________ .01

    risoluzione_________ 10________ 100__________ 0.1

    di________________ 50________ 100__________ 0.5

    il________________ 100_______ 100___________ 1

    Quindi, "** il** " appare 100 volte ed è la frase più popolare. Questo gli rende una frequenza normalizzata di 1,0.

    La parola "risoluzione" compare dieci volte in questo documento, quindi la sua frequenza normalizzata è 10/100 o 0,1.
    La parola "intercettazione" appare ma una volta sola ed ha una frequenza normalizzata di 0,01.

    In generale, vediamo che le parole più comuni dovrebbero avere un'alta frequenza normalizzata e le parole più rare una più bassa frequenza normalizzata.

    La legge di Zipf dice che ci saranno poche parole prossime ad uno e molte parole nell'allineamento più basso con un numero corretto nel mezzo, ma questo è un'altro argomento.

    Per concludere, per una parola nell'insieme dei documenti ma non contenuta nel documento in esame,* f i , j* consideriamo uguale a zero, da freq i , j = 0 e quello è nel numeratore della frequenza normalizzata.

    Possiamo quindi evincere che la frequenza normalizzata è:
    una misura di frequenza che varia da zero a 1 per ogni termine in un documento.
    Questa formula assegna un più alto valore alle parole che compaiono più spesso delle parole che compaiono di meno; in un certo senso, le parole più comuni sono più importanti o utili che le parole che appaiono soltanto una o due volte.

    La prossima volta:
    Frequenza inversa del documento

    E' possibile consultare queste note senza commenti [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6560]QUI. :ciauz:


  • User Attivo

    Mi aggiungo ai complimenti di LowLevel sulla comunità e non mi pronuncio sui vari screzi di cui ho avuto occasione di leggere nel [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6316]topic sugli insulti (ricordo qualche incomprensione iniziale con Mamilù dovuta probabilmente al fatto che è molto passionale in ciò fa, ma alla fine tutto si chiarì).

    Mi riaggancio a quanto dice LowLevel mutando le sue affermazioni in cosiglio. La programmazione di un buon motore di ricerca è, evidentemente, un lavoro complesso (molto bello l'aneddoto di AgoAgo sulla multinazionale russa che fotografa perfettamente la mancanza di cultura anche ad alti livelli sui costi e le dimensioni dei progetti. In Italia, senza disfattisimi, ci sarebbero i medesimi aneddoti che confermano che sia forse peggio).

    @LowLevel said:

    Qui tutti danno per scontato che "motore di ricerca" equivalga a "motore di ricerca dedicato al Web ed ad un uso pubblico".

    A tal proposito copio la definizione di Motore di Ricerca di wikipedia (invitandovi a migliorarla, naturalmente):

    Un motore di ricerca è un sistema automatico che analizza un insieme di dati spesso da lui stesso raccolti e restituisce un indice dei contenuti disponibili classificandoli in base a formule matematiche che ne indichino il grado di rilevanza data una determinata chiave di ricerca.

    non ha senso andare da un cineamatore dilettante per dirgli di piantarla di giocare con la cinepresa visto che non possiede gli stessi mezzi di Cinecittà o Hollywood. Fategli fare pratica, a quel cineamatore

    Pienamente d'accordo anche su questo punto e in più aggiungo che il regista di Hollywood ha solo interesse nel supportare progetti del genere, perchè sarà il primo ad essere interpellato e imitato.

    In definitiva il mio consiglio è questo (scusate la lungaggine per arrivarci): in fase iniziale progettate il motore affinchè lavori solo in un ristretto campo (evitando l'online), in modo da poter effettuare la raffinazione del software direttamente su un campo ristretto di lavoro e avere più a portata di mano le variabili da controllare. A mio giudizio il lavoro ne risulterà agevolato. L'applicazione sul web è solo causa di problemi maggiori, che possono essere affrontati una volta che si ha ben chiaro il progetto da portare avanti.

    Il mese scorso sono stati pubblicati tre articoli divulgativi/introduttivi all'Information Retrieval su Login (ed. infomedia), chi fosse interessato è invitato a procurarseli (gli articoli sono stati scritti alla fine dell'estate scorsa).

    ciao a tutti e buon lavoro,
    Lucas 😉


  • Super User

    **Frequenza inversa del documento **

    Ora dobbiamo far saltar fuori una misura di frequenza nel contesto dell'intero insieme del documento.

    Possiamo definirla come "la frequenza inversa del documento" ed è data dalla formula IDF=log (N/ni). Che cosa significa e che cosa è quella formula nel suo insieme?

    In primo luogo, consideriamo la parte "inversa".
    A differenza dal caso di frequenza normalizzata all'interno di un documento, nel contesto dell'intero insieme di documento ci occorre che l'importanza di una parola scenda così come la frequenza della parola aumenta.

    Quando la parola compare in ogni documento, ci occorre che questo valore sia zero.

    Dopo tutto, se compare in ogni documento, è senza valore come differenziatore fra i documenti.

    Quando la parola compare soltanto in alcuni documenti, desideriamo che questo abbia un alto valore.

    Quindi, l'inverso:

    • quantità elevata, valore basso;
    • conteggio basso, alto valore.
      Questo è l'opposto della frequenza normalizzata.

    Quindi, che valore possiamo dargli? Ricordiamo le definizioni:

    N è il totale # dei documenti.

    Ni è # dei documenti in cui il termine di ricerca di interesse (ki) compare.

    Possiamo fare un rapporto di N diviso da Ni, (N/Ni) che esprimerà abbastanza chiaramente questo rapporto inverso.

    Per vederlo, guardiamo questa tabella:

    N_ ni___ N/ni___ Commento

    1000___ 1___ 1000___ Conteggio basso, valore alto! Se la parola è presente una sola volta, il rapporto diviene molto alto. Hmm, se usiamo questo per determinare il peso diverrà troppo dominante.

    1000___ 100___ 10___ Questo è un numero ragionevole, forse...

    1000___ 500____ 2___ Conteggio alto, valore basso.

    1000___ 1000___ 1___ Oops! Abbiamo detto che quando la parola appare in ogni documento, ci serve che il numero sia zero. Qui il nostro rapporto inverso è pari a uno. Questo è un problema.

    Quindi siamo vicini, ma abbiamo alcuni problemi. Come risolvere i problemi con il nostro rapporto inverso? Useremo la funzione di logaritmo per normalizzare i valori.

    Anziché N/ni, consideriamo log(N/ni):

    N_ ni___ log(N/ni)___ Commento

    1000___ 1_______ 3____ Bene, 3 sembra un buon numero da usare come fattore maggiorativo per una parola realmente rara.

    1000___ 100_____ 2____ Mi piace anche questo 2

    1000___ 500___ .301029996___ Se una parola appare in metà dei documenti, non è molto degna... hmmm, .3 suona bene.

    1000___ 1000____ 0____ Bingo! Abbiamo detto che quando la parola compare in ogni documento, avremmo voluto il peso essere zero. Ecco, sta cominciando a funzionare!.

    Così questo appare un buon IDF [ Inverse Document Frequencies ].

    È zero quando la parola compare in tutti i documenti ed aumenta progressivamente così come il formato dei documenti diviene maggiore.

    Usando un paragone per tuffatori, l'IDF è paragonabile "al grado della difficoltà" di un tuffo.

    L'IDF di una parola chiave è costante attraverso un insieme dei documenti.

    È soltanto necessario calcolarlo una volta per un dato insieme di documenti.

    Il grado della difficoltà di un tuffo non cambia mentre i vari tuffatori lo fanno e l'IDF di un termine di ricerca non cambia mentre la parola chiave è usata nelle ricerche su documenti differenti.

    Pesi

    Ora, per concludere, possiamo calcolare i pesi!

    Abbiamo già visto in anteprima come desideriamo si comportino i pesi.

    Se aggiungiamo alcuni dati-campione vediamo che una moltiplicazione dei fattori funzionerà perfettamente nella generazione dei pesi:

    **Frequenza_________Frequenza____________Peso_____ Esempio_____ Esempio_____ Esempio
    Normalizzata___ Inversa del documento_________________ nf__________ idf_______ (nf * idf)
    **
    Alta_____________ Alta____________ Molto alto_______ .9___________ 1.2________ 1.08

    Bassa_____________ Alta_____________ Medio__________ .2___________ .9________ .18

    Alta____________ Bassa____________ Medio__________ .85__________ .04________ 0.034

    Bassa____________ Bassa__________ Molto basso_______ .15__________ .09________ 0.0135

    Come illustrato, poiché entrambi i termini sono stati normalizzati, possiamo moltiplicarli semplicemente insieme per ottenere un valore del peso che segue le regole generali nella tabella.

    Questa in effetti è la formula consigliata per calcolare il peso dei documenti:
    image
    Questo ci dice che il peso per il ki in dj pari alla sua frequenza normalizzata (nf) di tempi della relativa frequenza inversa del documento (IDF). Puo essere applicato entrambi i pesi di documento.

    Per usarla in un peso di domanda, la frequenza normalizzata dovrebbe essere calcolata sull'intero insieme di documento, non su di un singolo documento.

    Il testo suggerisce un aumento nel calcolo del vettore di domanda:
    image
    Questo ci dice che il peso del termine i nel vettore di domanda q è pari alla frequenza normalizzata del termine di ricerca nel "testo della richiesta delle informazioni q".
    Poiché questo sarebbe solitamente un numero basso, c'è un falso fattore di 0,5: la frequenza normalizzata ricalcolata ottiene un mezzo peso ed un valore libero "0,5" è aggiunto.
    Ciò aumenterebbe il valore di una frase di ricerca che è stata inserita più di una volta.
    Se ad esempio desiderassimo trovare "salto" potremmo cercare "salto salto salto" e questo aumenterebbe il valore di quella frase.
    Ho miei dubbi circa l'efficacia del questo sistema come interfaccia utente.

    Nel software di prova dell'Università [USA], è stata usata la frequenza normalizzata invariata di termine per il peso di vettore di domanda.

    **Conclusioni

    Il Modello Vettoriale di Reperimento delle Informazioni è un potente strumento per la realizzazione del Motore di ricerca.

    Questa discussione ha fornito un'introduzione ai concetti matematici richiesti per capire il Modello Vettoriale ed ha mostrato l'applicazione di quei concetti nello sviluppo del modello stesso.**

    vector model Information Retrieval

    Theory of Information Retrieval, Florida State University LIS-5263 (Fall, 2003)
    Written by Rich Ackerman, September 25. 2003
    http://www.hray.com/

    E' possibile consultare queste note senza commenti [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6560]QUI.

    Concluso questo primo capitolo di studio, prima di passare alla realizzazione di un Semplice Motore di Ricerca valuteremo alcune note su:

    **Salton's Vector Space Model ** :ciauz:


  • User Attivo

    Ehm...che fine ha fatto il progetto???


  • Bannato Super User

    @Salatti.NET said:

    Ehm...che fine ha fatto il progetto???

    Trattandosi di open source ognuno dedica il tempo che può allo sviluppo, che comunque procede, presto speriamo di poter rilasciare un'anteprima, sempre compatibilmente con gli impegni del team.

    :ciauz:


  • Community Manager

    Dovremmo riuscire a prensentarlo per il convegno/conferenza di Novembre del Forum GT 🙂

    Naturalmente a Novembre sarà presentato il progetto futuro.

    Il semplice motore di ricerca per la dimostrazione al forum potrebbe avere una demo prima 🙂


  • User Attivo

    Ok, ho chiesto perché non vedevo più news...
    Per il convegno di Novembre...cercherò di esserci!!


  • Community Manager

    @Salatti.NET said:

    Ok, ho chiesto perché non vedevo più news...
    Per il convegno di Novembre...cercherò di esserci!!

    Tranquillo, ci vediamo a Novembre 😉


  • Moderatore

    Non vedo l'ora di avere notizie, siete magici

    :ola:

    :re:


  • Moderatore

    @Salatti.NET said:

    Ehm...che fine ha fatto il progetto???

    Ciao a tutti,
    vorrei unirmi anch'io al progetto, in particolare vorrei avere info su:

    • I modelli relazionali dei DB che state adottando (interessanti le proposte di BeKe).
    • Chi sta implementando il progetto e quali sono i compiti affidati in modo da sapere cosa chiedere ed a chi.
    • Io progetto in UML (Object Oriented) e programmo in C, C#, VB.NET perciò se posso essere utile...