• Super User

    @agoago said:

    Ricapitoliamo, il problema e'-era scovare automaticamente "mal di schiena" partendo dalla key "scarpe con tacco".

    O "mamma con bambino" partendo dalla key "persone felici".

    Tramite i classici db non e' possibile, neanche scendendo in profondita' per ogni sotto key e relative associate. Tra mal di schiena e tacchi non c'e' nessuna relazione nei db delle key.

    E' questo che mi ha bloccato mesi fa, ma poi la soluzione si e' palesata proprio grazie all'uso di programmi come quello di Paolo di clustering K-means, e disponendo di un archivio "mostruoso", archivio che si ottinene dalla catalogazione di milioni di pagine presenti sul web.

    In questa maniera il programma identifichera' come parole vicine-importanti per chi tratta di mal di schiena anche la key scarpe con tacco, e poi il gioco e' fatto.

    Anche di piu'... il MDR , identificherà come keyphrase "valida" "mal di schiena" proprio anche grazie allle eventuali numerose co-occorrenze con "scarpe con tacco" ...;)

    e le keyphrases "valide", si sa, sono una manna oggi come oggi 😉

    Del resto i MDR dispongono di archivi sterminati su cui applicare i propri software di "text mining" , un vantaggio non indifferente quando dici

    E' ardua ma non impossibile, perche' si sa l'inteligenza artificiale non la usano solo i motori (purtroppo per loro).

    Fattostà, secondo me, la possibile individuazione del numero maggiore possibile di "keyprhases" valide di un cluster di interesse è determinante per la "costruzione" anche di singoli documenti web (non solo di siti) ... per non parlare poi di saper "capire" la keyphrase buona dentro le query di interesse...

    Averne di Cavoni e Agoaghi in giro ...;)

    :ciauz:
    Nicola


  • User Attivo

    Grazie Nbriani per i complimenti, oltre a fare sempre piacere, aiutano.

    Due considerazioni.

    Tutto si evolve, gli algoritmi dei motori e le tecniche dei seo.
    Se fino ad oggi l'attenzione si focalizzava sulle key ora man mano si sta spostando sulle keyphrase.

    Capire la differenza tra le due e' fondamentale.

    La seconda considerazione e' che una o piu' keyphrase sono facilmente identificabili all'interno di un testo da chi e' del mestiere, una keyphrase puo' corrispondere ad una key di forte rilevanza ma anche ad alcuni termini che per posizione nel testo, frequenza, prossimita' ad altre parole "forti" finiscono con l'assumere veramente un micro riassunto del testo del quale fanno parte.

    Siccome i seo sono persone estremamente pratiche, e' di facile previsione prevedere che i piu' preferiranno fare uso di tools ad hoc piuttosto che testare le pagine manualmente.

    Fin qui tutto semplice, il vero problema nasce dopo, quando si deve-dovra' scegliere la "filosofia" del tool da adottare-sposare.

    In teoria ci potremmo trovare a dover scegliere tra tre diverse "filosofie", tre linee di pensiero, anche se poi in pratica sono solo due.


    Avremo chi ci propone l'estrapolazione delle keyphrase in base a precise formule matematiche statistiche. In questo caso il wm A ed il wm B usando questa categoria di tool avranno sullo stesso testo Z sempre lo stesso identico risultato. Perche' e' un risultato oggettivo.

    Alcuni tool invece ci proporranno di creare un nostro modello.
    Dovremo scegliere qualche centinaio di documenti, analizzarli manualmente, definire per ogni documento quali sono per noi le migliori keyphrase di ogni documento, e poi dare in pasto il tutto al tool.
    Il tool, in base alle nostre scelte imparera' cosa intendiamo noi per keyphrase e da ora in avanti cerchera' di riprodurre (sui nuovi documenti) le nostre scelte umane in modo automatico. Lo fara' basandosi anche lui su delle basi statistiche matematiche di massima, ma formule che si tarano-adatteranno alle nostre scelte.
    Il risultato sara' pertanto soggettivo e se il modello del wm A differisce da quello del wm B ecco che i 2 wm, per il documento Z, potrebbero ottenere 2 risultati parzialmente o addirittura totalmente diversi.


    Purtroppo per noi seo, non e' questa la questione difficile, diremo ancora allora che fin qui... tutto facile.

    Il vero problema sara' capire quale strada sceglieranno i motori.
    Non e' una finezza, come a prima vista potrebbe sembrare, ma l'aspetto piu' importante.

    Se i motori useranno un loro modello, modello basato su loro personalissime analisi e scelte, sara' piu' difficile per il mondo seo identificare la metodologia di scelta delle keyphrase di ogni motore.

    I motori allora saranno il wm A e noi il wm B.


  • Super User

    @agoago said:

    Il vero problema sara' capire quale strada sceglieranno i motori.
    Non e' una finezza, come a prima vista potrebbe sembrare, ma l'aspetto piu' importante.

    Se i motori useranno un loro modello, modello basato su loro personalissime analisi e scelte, sara' piu' difficile per il mondo seo identificare la metodologia di scelta delle keyphrase di ogni motore.

    Sono d'accordo con te.

    Ma credo che per Google si dovrebbe dire "capire quale strada hanno scelto i motori" !!!

    Sono convinto fermamente infatti che il cammino sia già stato intrapreso..

    E anche sul tipo di cammino, io una idea me la sono fatta 😉 e ci credo abbastanza per** piu' ragioni fondamentali:**

    1. Nell'affrontare questo tipo di problematiche nella sua seppur breve storia passata ha sempre seguito un "criterio", un "metodo" di base: utilizzare l'enorme DB di contenuti che ha per creare, testare e "normalizzare" i propri algoritmi

    2. C'è un brevetto che descrive esattamente un possibile metodo di estrapolazione e indicizzazione delle "keyphrases" 😄

    Sostanzialmente i punti fermi che emergono dal brevetto sono infatti:

    --> Le frasi si estrapolano dai documenti archiviati (non, come si poteva anche immaginare, dalle query di ricerca)

    --> Le frasi si distinguono in "buone" e "cattive" (forse meglio "valide" e "inutili") - Le "buone" sono quelle da indicizzare - le cattive si "scartano" (?)

    In funzione di :

    @nbriani said:

    -** numero di occorrenze sul totale**
    - alta frequenza di co-occorrenze di ulteriori frasi "valide" correlate
    - "tipo di occorrenza" ... parlo di virgolette, grassetti, punteggiatura delimitante, sottolineatura, colore, evidenziato, ecc ecc

    • Ma come procede all'estrapolazione? Nell'analisi di un nuovo documento il testo viene scomposto (con criteri che tu conosci sicuramente meglio di me 😉 ) in una sorta di lettura "virtuale" in singole frasi da 3,4,5 keyword , che diventano "potenziali candidati" a "Frase valida" 😄 fino al confronto (immediato) con gli archivi di indicizzazione ... trovata la frase, si continua la "lettura del testo" da quel punto ricorsivamente fino alla fine del documento.

    Niente analisi logica? Niente considerazioni particolari? ..parrebbe di no, o almeno in misura minore... solo un mero lavoro statistico, favorito dai grandi numeri e dalle grandi risorse disponibili.. Puro "rinforzo reciproco" x frasi ... io ci credo. 🙂 Tu?

    Anche i cluster piu' che semantici parrebbero "statistici" , definiti cioè dalle occorrenze e dalle co-occorrenze incontrate nell' "universo" ...

    **Quindi il tool di cui parli , in definitiva, dovrebbe avere il compito di "simulare" l'enorme archivio di Google, e quindi sarebbe tanto migliore quanto potesse espandere il proprio raggio di intervento su un numero sempre piu' grande di documenti appartenenti al cluster di interesse del SEO di turno 😉 **
    Mi pare che ne avevamo già parlato in un altro thred... ma cosa di meglio che analizzare i primi n risultati di una query o di un gruppo di query?? Quello si che sarebbe un tool eccezionale..

    Se non lo fate voi due, chi lo deve fare?? 🙂

    :ciauz:
    Nicola

    Citazioni utilizzate: 🙂

    [0041] 1. Phrase Identification

    [0042] The phrase identification operation of the indexing system 110 identifies "good" and "bad" phrases in the document collection that are useful to indexing and searching documents. In one aspect, good phrases are phrases that tend to occur in more than certain percentage of documents in the document collection, and/or are indicated as having a distinguished appearance in such documents, such as delimited by markup tags or other morphological, format, or grammatical markers. Another aspect of good phrases is that they are predictive of other good phrases, and are not merely sequences of words that appear in the lexicon

    image

    [0049] Traverse the words of the document with a phrase window length of n, where n is a desired maximum phrase length. The length of the window will typically be at least 2, and preferably 4 or 5 terms (words). Preferably phrases include all words in the phrase window, including what would otherwise be characterized as stop words, such as "a", "the," and so forth. A phrase window may be terminated by an end of line, a paragraph return, a markup tag, or other indicia of a change in content or format.

    [0050] FIG. 3 illustrates a portion of a document 300 during a traversal, showing the phrase window 302 starting at the word "stock" and extending 5 words to the right. **The first word in the window 302 is candidate phrase i, and the each of the sequences i+1, i+2, i+3, i+4, and i+5 is likewise a candidate phrase. Thus, in this example, the candidate phrases are: "stock", "stock dogs", "stock dogs for", "stock dogs for the", "stock dogs for the Basque", and "stock dogs for the Basque shepherds". **

    image
    [0051] In each phrase window 302, each candidate phrase is checked in turn to determine if it is already present in the** good phrase list** 208 or the possible phrase list 206. If the candidate phrase is not present in either the good phrase list 208 or the possible phrase list 206, then the candidate has already been determined to be "bad" and is skipped.

    c'è pure un "Angelo" che aveva tradotto il brevetto... 🙂


  • Moderatore

    @nbriani said:

    Niente analisi logica? Niente considerazioni particolari? ..parrebbe di no, o almeno in misura minore... solo un mero lavoro statistico, favorito dai grandi numeri e dalle grandi risorse disponibili.. Puro "rinforzo reciproco" x frasi ... io ci credo. 🙂 Tu?

    Analisi logica? non credo sia una strada possibile sopratutto tenendo conto che lo dovrebbe fare per la maggior parte delle lingue del Pianeta! (e solo per una è un casino...).
    Quello che serve in prima battuta è determinare i Nouns (Soggetto e i complementi oggetto).
    Spontaneamente il "rinforzo reciproco" (metodo statistico) aiuta non poco a determinare queste informazioni sui concetti presenti nel testo. Se poi si aggiungono metodi probabilistici (basati sul teorema di Bayes) ed ontologie pre-costituite (WordNet, OpenCyc, ecc...) allora la determinazione di reti semantiche è un gioco ...(si fa per dire...)

    ...
    Mi pare che ne avevamo già parlato in un altro thred... ma cosa di meglio che analizzare i primi n risultati di una query o di un gruppo di query?? Quello si che sarebbe un tool eccezionale..
    Se non lo fate voi due, chi lo deve fare?? 🙂
    :ciauz:
    Nicola

    mmmhh...con tutto lo spam presente i giro... la vedo dura...

    Ad ogni modo leggete cosa ha detto P. Norving (Direttore della "Search Quality" di Google) due settimane fa ad un seminario intitolato "Il futuro del Search"

    PS: Grazie per la fiducia 😉

    :ciauz:


  • User Attivo

    Un ragionamento corretto non sempre corrisponde alla realtà. Il fatto che un metodo di misura sia più semplice non significa che gli altri siano inutili.

    Se devi misurare la velocità di un corridore, utilizzi due fotocellule a 1 metro di distanza. O comunque misuri lo spazio percorso nell'unità di tempo.

    Se devi calcolare la velocità di una stella (ovvero qualcosa di così lontano che non sai nemmeno calcolarne la distanza), misuri lo spostamento verso il rosso nello spettro elettromagnetico della radiazione (il red-shift).

    Se devi mettere in moto un oggetto, non ti baserai su nessuno dei due principi fisici bensì su altri ancora.

    Misurare la velocità di un oggetto, e far si che un oggetto raggiunga una tale velocità sono due cose completamente diverse.

    Se si deve creare un mdr, allora, forse, l'analisi logica è il metodo più complesso.

    Le markov chains, ad esempio, creano frasi partendo da una grammatica "statistica" che non tiene conto di alcuni particolari. Ad esempio il punto può seguire (quasi) qualsiasi cosa. L'insieme delle frasi corrette è un sottinsieme di quelle possibili, e un sovrainsieme di quelle esistenti. Inoltre presto si inizierà a creare spam per confondere i motori di ricerca. Infine bisogna tener conto della confusione che nasce dall'html non w3c <span position "absolute" top: 5px>prova</span>to. Che voleva dire l'utente? Provato o prova sopra e to sotto.


  • User Attivo

    Con un po' di ritardo, ringrazio AgoAgo e Paocavo per aver apprezzato il materiale video che avevo suggerito. Da pochissimo tempo mi sto interessando di web semantico e trovo le vostre discussioni davvero molto interessanti (per quanto non sia un assiduo frequentatore del forum), anche se capisco un decimo delle cose tecniche a cui fate spesso riferimento.

    Ultimamente sono venuto a conoscenza di alcuni tool semantici messi a disposizione dal MIT. Potete trovarli qui:

    http://simile.mit.edu/

    per ora ho provato solo PiggyBank. Credo che sia un plugin potenzialmente molto utile, però sono inciampato in qualche bug (http://simile.mit.edu/issues/browse/PIGGYBANK-97). Attendo con impazienza vostri commenti e magari qualche consiglio su come sfruttare al meglio questi strumenti...

    Ciao


  • User Attivo

    Nbriani non ero a conoscienza del brevetto di G.

    Sembra abbastanza facile da capire e riprodurre.
    Tuttavia non mi piace molto la loro scelta di definire una frase come buona nel caso ricorra in piu' documenti.

    A prima vista sembra una buona soluzione, ma va contro la teoria che una frase logica e corretta se originale ha maggior valenza di un'altra molto inflazionata.

    E' come se G ci dicesse: ti premio se scrivi una frase originale, ma per calcolare il "riassunto" delle tue frasi tengo conto principalmente di quelle non originali.

    Potrebbe trattarsi di una precisa scelta per bilanciare le cose, ma allora coerenza poca...

    Immaginiamoci una pagina con 100 frasette diverse.
    Di queste 100 frasette 3 sono molto comuni, le altre 97 molto originali.
    La punteggiatura e' uguale per tutte le frasi.

    Ora che io motore debba riassumere quella pagina con 3 keyphrase del tipo:

    free web space
    free great hosting services
    unlimited space

    piuttosto che:

    servers in USA
    9$ for good service
    June discount

    mi sembra poco logico, a parita' di presenza e disposizione delle parole nel testo in esame.


    Non dobbiamo fare confusione tra keyphrase e categorie.
    Se volessimo estrapolare le categorie di appartenenza di un documento allora perfetto, sarebbe il miglior sistema.

    Ma una keyphrase e' un riassunto, un tag, che deve servire a chi ricerca per identificare facilmente il contenuto "essenziale" di un documento.

    Essenziale.

    Ma a parita' di valore fra 2 o piu' "riassunti" dovro' offrire all'utente il tag meno inflazionato, perche' di un tag "computer" l'utente se ne fara' poco, se non nulla.

    Pensiamo ad un seo che scriva un pezzo-commento su questo mio post, come keyphrase avra' piu' senso "agoago" od il termine "frasi" (a parita' di valore)?


    In poche parole un buon sistema per estrapolare keyphrase deve tener conto del solo documento o al massimo dell'insieme di documenti di cui fa parte o paradossalmente se vuole tenere conto anche del web tutto allora spingera' le keyphrase meno sfruttate.

    Poi basta fare delle prove per rendersene conto, tenendo conto del peso delle key sul web si ottengono molte categorie e meno tag "interessanti".

    Insomma, sicuramente avranno ragione loro, oppure come al solito una ne dicono ed un'altra ne fanno.


    Rocco_bruno ho guardato PiggyBank, ma non ho capito bene a cosa serva. Non perche' non serva, ma proprio perche' non ci ho capito nulla!


  • Moderatore

    Salve,

    estrapolo la seguente discussione dalla precedente:

    L'intelligenza Artificiale come potrebbe migliorare i motori di ricerca?

    😉


  • User Attivo

    @AgoAgo

    il tool che ho suggerito serve ad estrapolare metadati dalle pagine web e al contempo (tramite metodi di text mining, suppongo) etichettare il contenuto delle pagine. La semantica fatta attraverso il text mining non credo sia molto utile perchè alla fine solo un lettore umano può comprendere correttamente (e quindi classificare in una struttura ontologica) il contenuto di un testo in linguaggio naturale. tuttavia, penso che lo strumento sia interessante perchè da un lato estrae metadati e li organizza in una struttura ontologica e dall'altro è possibile personalizzare il modo in cui il plugin estrae dati dalle pagine web (attraverso gli "scraper"): in questo modo, se ho delle pagine il cui contenuto è strutturato in modo ripetitivo e secondo moduli (es ricerche fatte su archivi come pubmed, su archivi bibliotecari..) posso creare dei modelli (scraper) fatti apposta per estrarre quante più informazioni possibili da quelle pagine e organizzarle in maniera semantica (i.e. attraverso una ontologia). Poi ogni singolo utilizzatore dello strumento di estrazione può condividere l'informazione estratta con altri e permettergli di navigare attraverso una knowledge base già costituita. Cioè, è un modo di rendere "un po' più semantico" il web che c'è già. Personalmente, spero di utilizzare questa cosa per organizzare i documenti che raccolgo online...

    Tutto ciò, ammesso che il tool funzioni: non voglio fare troppa pubblicità, perchè al momento a me funziona solo il dieci percento di quanto ho detto! 🙂


  • Moderatore

    Salve ragazzi,
    dalla discussione ne è stata estratta una nuova, ecco il link del 3D:

    Ontologie, Phraserank e Tool Semantici