- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- SEO Text Mining: The Next Generation!
-
Un post illuminante, grazie a Paolo che Ago che hanno contribuito a renderlo vivo e reso noto
-
@agoago said:
Paocavo scrive:
...Comunque, ho ragione io, fattene una ragione, question finita.
Farò tesoro delle tue parole!
Grazie ancora
-
per valutare l'indice di leggibilità spedite un .txt con il vostro testo (max 32kb)
a http://www.eulogos.net/it/censor/ogni tanto lo uso, per valutare dei template che replicherò per molte pagine.
-
Ho letto con attenzione il post ma non capisco bene una cosa: perchè limitarsi a termini singoli, coppie terzine o quartine quando ormai i motori di ricerca si stanno spostando sulle frasi intere ?
Leggendo l'ultimo brevetto phraserank di G si legge:
" Abstract
An information retrieval system uses phrases to index, retrieve, organize and describe documents. Phrases are identified that predict the presence of other phrases in documents. Documents are the indexed according to their included phrases. A spam document is identified based on the number of related phrases included in a document."Leggendo il brevetto si notano molte cose interessanti che ora non riassumo ma vi lascio leggere.
Però mi hanno colpito alcuni passaggi: "Another aspect of good phrases is that they are predictive of other good phrases, and are not merely sequence of words that appear in the lexicon".
Io la interpreto così: se generi testo artificiale, non ti sarà sufficiente calcolare le prominenze dei valori grammaticali e delle singole parole, perchè se canni l'utilizzo delle stesse ti sego. Quindi se fai un testo "il cane legge un cartellone", anche se grammaticalmente la frase ha senso, io so che un cane non legge quindi ti marco come bad phrase. Il "io so" è da intendersi che un motore di ricerca lo impara spiderizzando ed analizzando il web.
Per capirci il problema non mi sembra più "devo calcolare il peso delle chiavi da spingere" ma "come faccio a generare 50 frasi che siano considerate buone?".
Una volta risolto questo problema, se si generano 50 frasi buone il motore può solo premiarti, indipendentemente dal valore del singolo termine nella pagina.
-
@uMoR said:
Ho letto con attenzione il post ma non capisco bene una cosa: perchè limitarsi a termini singoli, coppie terzine o quartine quando ormai i motori di ricerca si stanno spostando sulle frasi intere ?
Leggendo l'ultimo brevetto phraserank di G si legge:
" Abstract
An information retrieval system uses phrases to index, retrieve, organize and describe documents. Phrases are identified that predict the presence of other phrases in documents. Documents are the indexed according to their included phrases. A spam document is identified based on the number of related phrases included in a document."Infatti Umor, ma il discorso era proprio nato da qui....
Nicola
-
uMoR scrive:
"Per capirci il problema non mi sembra più "devo calcolare il peso delle chiavi da spingere" ma "come faccio a generare 50 frasi che siano considerate buone?"."
uMoR non e' proprio cosi'. In parte e' vero in parte no.
Come dici tu il problema e' capire quando una frase possa essere considerata buona e quando no. Per buona intenderemo "related".Ma anche ammesso sia possibile distinguere frasi buone da frasi "non buone", Google ci consiglia di rientrare in un dato range di frasi "related e non" per ogni nostro documento.
Non ci dice quanto debba essere (per lui) lungo sufficentemente un documento affinche' possa essere considerato.
Non ci dice che range-% di frase buone ogni documento sufficentemente lungo debba contenere per ottenere il massimo della valorizzazione.
Ci dice pero' che esiste un range e tale range va rispettato.Calcolare l'ipotetico range tuttavia non e' difficile.
"Una volta risolto questo problema, se si generano 50 frasi buone il motore può solo premiarti, indipendentemente dal valore del singolo termine nella pagina."
La forza di questo algoritmo sta nel valutare quando un documento sia considerabile spam od inutile a seconda dalla % di frasi utili-inutili che contiene quel documento.
Un documento che contenga 50 frasi "utili" su 100 sue frasi sara' considerato spam, un documento con 2 frasi utili sulle 100 sara' considerato "inutile".Cosa conta appunto e' il range. Rientrare nel range.
Idea non da poco. Pratica quanto geniale. Tipica da Google.A seguire come calcolare il range teorico.
-
Nel frattempo...
vi segnalo questo articolo
"Il progetto prevede la creazione di un software che esegua una mappatura di singole parole e frammenti di testi più lunghi in un database di concetti essenziali, costruiti sulle informazioni di Wikipedia](http://www.wikipedia.org/) - che, ricordiamo, conta ormai più di un milione di articoli nella sola lingua inglese - costituendo una sorta di conoscenza basilare per comprendere il testo..."
-
Agoago scrive: "....La forza di questo algoritmo sta nel valutare quando un documento sia considerabile spam od inutile a seconda dalla % di frasi utili-inutili che contiene quel documento.
Un documento che contenga 50 frasi "utili" su 100 sue frasi sara' considerato spam, un documento con 2 frasi utili sulle 100 sara' considerato "inutile".Cosa conta appunto e' il range. Rientrare nel range.
Idea non da poco. Pratica quanto geniale. Tipica da Google."Domanda: cosa è realmente una frase utile oppure una inutile parlando ad esempio di pompe pneumatiche a membrana o di affettatrici a volano? Che è quello che, per il momento, interessa veramente a me ...
Ho seguito altre discussioni di questo tipo in giro per la Rete, e come adesso, non riesco a vedere alcuna possibilità di applicare un qualsiasi algoritmo ai testi dei miei siti. Francamente non riesco a cogliere la 'sostanza'.
Comunque forse posso sopravvivere lo stesso facendo passare il ragionamento per un'altra strada: con i vari algoritmi che s'inventano per vagliare i siti i MDR certamente non intendono premiare strutture artificiali bensì strutture reali, umane. Quindi ritengo che si possano ottenere dei buoni risultati inserendo testi interessanti per i visitatori, insomma cose che buona parte dei visitatori vorrebbe sapere. E questo in ciascuna pagina importante del sito e naturalmente anche nella prima, evitando soprattutto frasi sciocche quali "Benvenuti", "Entra", "Salta intro" ....
Valeria
-
@venividi said:
Comunque forse posso sopravvivere lo stesso facendo passare il ragionamento per un'altra strada: con i vari algoritmi che s'inventano per vagliare i siti i MDR certamente non intendono premiare strutture artificiali bensì strutture reali, umane. Quindi ritengo che si possano ottenere dei buoni risultati inserendo testi interessanti per i visitatori, insomma cose che buona parte dei visitatori vorrebbe sapere. E questo in ciascuna pagina importante del sito e naturalmente anche nella prima, evitando soprattutto frasi sciocche quali "Benvenuti", "Entra", "Salta intro" ....
Valeria
ossia fare i siti come andrebbero fatti.
ma credo che il ragionamento di agoago e paocavo si riferisca ad una certa tipologia di siti con centinaia di migliaia di pagine autogenerate, o qualcosa del genere.
mat.
-
@Matteo said:
ossia fare i siti come andrebbero fatti.
ma credo che il ragionamento di agoago e paocavo si riferisca ad una certa tipologia di siti con centinaia di migliaia di pagine autogenerate, o qualcosa del genere.
mat.
e si, il ragionamento è come riuscire a emulare google.
fatica sprecata che lascerà il tempo che trova.
poi i siti che stanno primi e lo stanno da sempre sono quelli reali non quelli creati da software di contenuti vari.
quando ne sento parlare ed enfatizzare mi prende l'orticaria.
possibile che non si veda dove sta andando il web, possibile che non si capisca che se google crea un algoritmo per phrase lo fa unicamente per soddisfare il proprio cliente??
possibile che non si comprenda che fare un sito è diverso da cio che fà google...per concetto intrinseco.
come sparare ad una mosca con un cannone...magari ci riuscite una tantum, ma resta un una tantum.
penso che sia meglio fare siti per cio che siamo e per cio che desideriamo offrire veramente ad un cliente, che siano marketing oriented o product oriented non ha importanza, importa solo che seguano le regole del marketing.perche i blog o i forum sono esplosi. hanno calcolato il range oppure il range era intrinsecom alla struttura e non necessitava di calcoli predeterminati??
se entro in un blog o in un sito che poi mi rida un bel nulla in termini reali di risposta al cio che cerco, be google non vi banna ma non vi farà stare li a lungo se c'è un sito che risponde meglio all'utente e da questo è premiato con maggiori pagine viste, posso metterci la mano sul fuoco in questo senza temere di bruciarla.
e se ciò non avviene ci sarà sempre una risposta legata all'utente ed al suo comportamento ( in generale posso affermare che dipende dal valore della ricerca, valore inteso proprio con il simbolo dollaro).
inutili sforzi, molto temporanei e tra sei mesi ricominciate a creare altri tools.veramente inutili in un progetto vero legato ad una comunicazione ed all'offerta di un servizio reale o soddisfazione di un bisogno in senso generale.
vi rispondo da imprenditore. io non darei mai il mio sito in mano a chi crea contenuti con strumenti.. e dico mai mai.neanche se mi porta in cima alla luna.
i contenuti vanno generati a mano. il web, forse non ve ne siete accorti, sta andando nelle mani dei grandi gruppi, si sta cetnralizzando. giusto o sbagliato che sia questa è la sua naturale evoluzione.vi faccio un esempio. Il new york times entro tre anni ha predisposto e porterà a termine il passaggio dall'edicola al web, in toto. niente piu carta stampata. nulla. solo pagine web.
bene, quando voi scrivete i vostri pezzi con un software e loro scrivono i loro con un giornalista, a parità di pezzi e di tutto il resto, chi salirà in prima posizione su google.
la risposta è alquanto piu che ovvia?
c'è un fattore emozionale in una lettura che una macchina non puo replicare, solo un uomo ci riesce.
e ciò che desidera il cliente è sempre legato alla sfera emozionale.stop, ho detto troppo:-)))
-
@agoago said:
Se io faccio una home di un sito nuovo, una sola pagina in un sito, come potrebbe un motore valutare quale siano i termini (singolo o non) da premiare per qualla singola pagina?
Il sito e' nuovo, link esterni non esistono, altre pagine nemmeno oltre alla home... ed allora tutto serve al motore, reciproco rinforzo in primis.
Si basera' sull'assegnazione di valori per singoli termini, coppie e via dicendo, ma essendo il web stra competitivo probabilmente solo quartine di key di quella pagina raggiungeranno i primi posti nei suoi sort.Ho pubblicato un sito due mesi fa e per questa serp sono in posizione 9.
Come osserverete la query continene una sola parola. Nel caso la posizione in serp dovesse cambiare Il sito in questione ha la parola "piazza" nel nome del dominio.
Come si spiega? (il sito, che io sappia, non dovrebbe avere back-link esterni con quella parola nell'anchor)[Edit]
Analizzando meglio i BL osservo che esistono serp, per la medesima Key, di altri MDR (search.hotbot.lycos.it) indicizzate da GG.
[/edit]
-
Si spiega a mio parere perchè attico è una finta chiave.