- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Sono diventato un acronimo: GT viene grassettato in Giorgio Taverniti
-
@"Pieropan" said:
Ho come la sensazione di essere andato off-topic Vero.
Ma c'è OT e OTE capita così di rado di riunire tutti questi "cervelli" in un solo thread, che anche se si esce dai binari del post iniziale, una discussione di questo tipo non può che essere estremamente interessante e formativa. Per tutti
Ora mi gusto il tuo post con calma.
Cordialmente,
Stuart
-
Evviva Pieropan
Sono anni che insisto che essere primi in modo stabile per una chiave serve, ma serve molto molto di più essere da qualche parte tra prima e seconda pagina sempre e per molte chiavi.Questo è il concetto che nei miei corsi chiamo "visibilità media".
Il sito deve avere una curva di presenza che stia in un certo pezzo del quadrante. Ovvero, un giorno vedo in prima posizione una certa chiave ed un'altra è quarta, ma per una pagina diversa, ecc. ecc.
Il secondo giorno si invertono i termini, mi sparisce una pagina, ma ne entra un'altra, per una chiave diversa, ecc. ecc.
La cosa importante è che il sito, nel suo complesso, resta sempre visibile.Sono d'accordo al 100%, la stabilità si perderà del tutto o quasi. Tutto porta in quella direzione, buon senso, advertising, necessità di controllo, necessità di offerta, ecc.
Questo rende, inoltre, il sito virtualmente indifferente alle manovre del motore, salvo che lui non lo banni ed ecco perché ritengo importante che si lavori in un certo modo.
-
@fradefra said:
Questo è il concetto che nei miei corsi chiamo "visibilità media". *Long tail, anyone?
*Come scrivevo nel thread sulla "dance": l'essenziale è verificare se a uno shift rilevato nei ranking per key "competitive" corrisponda un calo quanti-qualitativo degli accessi dai MdR. Nel caso la risposta a questa domanda sia no (e sempre più spesso, nell'era della coda lunga, lo è), perché preoccuparsi?
Il futuro prossimo dei motori di ricerca è chiaramente quello della personalizzazione "1-a-1" dei risultati. Non è certo una novità sconvolgente per nessuno: sono anni che se ne parla, e che Google (e gli altri motori) stanno muovendo passi in questa direzione. Prima di quanto ci si aspetti, si arriverà al punto in cui non ci saranno due utenti al mondo che vedranno la stessa SERP per la stessa query in un dato istante nel tempo.
The end of SEO as we know it
b*ye-bye, posizionamento ("garantito" o meno).
A quel punto, chiede Pieropan, che cosa misureremo?
Misurereremo, log alla mano, il rendimento (e la composizione) del traffico che continueremo a ricevere dai motori di ricerca. "E ci dimenticheremo di misurare i posizionamenti". Sono d'accordissimo. Anche perché, a quel punto, misurare il posizionamento diventerà semplicemente impossibile. Oltre che perfettamente inutile.
Grazie per il tuo bellissimo post, Pieropan.
-
@fradefra said:
Sono d'accordo al 100%, la stabilità si perderà del tutto o quasi. Tutto porta in quella direzione, buon senso, advertising, necessità di controllo, necessità di offerta, ecc.
Su questo punto ho qualche perplessità: considerando che il valore di un motore di ricerca è anche quello di fungere da bookmark on-the-fly per quegli utenti "abituali" che non ricordano l'url esatta del sito che stanno cercando, ma che ricordano il percorso utilizzato per arrivarvi, non sarei così certa che la direzione sia necessariamente quella ipotizzata dal nostro Pieropan.
-
@Fuffissima said:
Su questo punto ho qualche perplessità: considerando che il valore di un motore di ricerca è anche quello di fungere da bookmark on-the-fly per quegli utenti "abituali" che non ricordano l'url esatta del sito che stanno cercando, ma che ricordano il percorso utilizzato per arrivarvi, non sarei così certa che la direzione sia necessariamente quella ipotizzata dal nostro Pieropan. Personalizzazione non significa necessariamente che uno stesso utente riceverà una SERP diversa ogni volta che fa una certa query, ma che utenti diversi riceveranno (contemporaneamente) SERP diverse per la stessa query. Il che, in parte, avviene già ora.
-
@Everfluxx said:
Personalizzazione non significa necessariamente che uno stesso utente riceverà una SERP diversa ogni volta che fa una certa query, ma che utenti diversi riceveranno (contemporaneamente) SERP diverse per la stessa query. Il che, in parte, avviene già ora.
Questa chiave di lettura è assolutamente inoppugnabile, ma cosa ne pensi invece delle variazioni di SERP imposte allo stesso utente?
Personalmente le considero poco user friendly in quanto decisamente contrarie alle abitudini d'uso che gli utilizzatori più affezionati fanno del motore, quindi deleterie per il motore stesso
-
@Fuffissima said:
Questa chiave di lettura è assolutamente inoppugnabile, ma cosa ne pensi invece delle variazioni di SERP imposte allo stesso utente?
Personalmente le considero poco user friendly in quanto decisamente contrarie alle abitudini d'uso che gli utilizzatori più affezionati fanno del motore, quindi deleterie per il motore stessoSecondo me la maggior parte degli utenti che si affidano a Google come a un provider di "bookmark-on-the-fly" lo fanno facendo affidamento sul primo risultato per ciascuna ricerca. Ad esempio anch'io, da quando uso la Google Toolbar, a volte per risparmiare tempo scrivo il nome di un sito che so essere al #1 per quella query (es., "giorgiotave") e poi premo il bottone "I'm Feeling Lucky!" (icona del quadrifoglio) sulla TB. Ora, ammetto che questo è un trick da power user.
Però altre volte mi capita di digitare direttamente il nome del sito nella barra degli indirizzi del browser e lasciare che sia Google a "risolverlo" e redirigermi: è provato che molti utenti fanno lo stesso, magari inconsapevolmente (per pigrizia o ignoranza).
Di conseguenza, secondo me una SERP può anche cambiare nel tempo, senza tuttavia inficiare l'usabilità per questo tipo di utenti. A patto che il sito al resti saldo in posizione.
I miei due Eurocent.
-
@Everfluxx said:
Di conseguenza, secondo me una SERP può anche cambiare nel tempo, senza tuttavia inficiare l'usabilità per questo tipo di utenti. A patto che il sito al #1 resti saldo in posizione.
Ecco un primo paletto dunque
Voi che ne pensate?
-
@fradefra said:
Calmi, calmi....
Il Convegno GT e Giorgio Tave è importante che sia ben famoso! Tanto più è famoso lui ed il relativo convegno, tanto più lo saremo noi che parteciperemo
(two is mei che one!)
E' vero come dice Stuart: gli OT non sono tutti uguali.
E spero mi scuserete per questo OT, ma il Topic si è rivelato tra i più piacevoli da leggere, grazie a tutti
I Miei Due Bath (Moneta Thai, visto che ognuno ci mette del suo :D)
-
@Fuffissima said:
ma cosa ne pensi invece delle variazioni di SERP imposte allo stesso utente?
Ciao Fuffissima, ti dico quello che ne penso io: un gran bene.
Anzi, in un mondo perfetto ci sarebbe già una estensione di firefox che svolge questi semplici compiti:- accosta un bottone/flag allo snippet
- se flaggato una volta, lo stesso snippet (o sito) appare in grigio tenue nelle serp successive e da li' in avanti.
Perchè dobbiamo delegare ad un algoritmo la decisione su cosa è rilevante per noi umani? Non potrà mai farcela del tutto. Quello che per me è rumore magari per te è info utile e viceversa.
Immagina ad esempio che una comunità in rete che abbia un listato di spam condiviso secondo un sistema di mass moderation, basato su una semplice estensione di FF che dialoga e tiene traccia dei flag.
Immagina che esistano siti autorevoli che trasmettano listati di rumore e che tu lo possa escludere in blocco premendo un tasto che pilota la vista del browser...Ehm.. non sarebbe una figata? Spammi e mi fai perdere tempo? Ti castigo io: non ti vedo piu' e in piu' lo dico ai miei amici, cosi' non ti vedono più neanche loro.
Pensa avercela per la TV una funzione del genere: mi interrompi il film? Da quel momento al posto del tuo spot vedro' in tv pecore che belano sullo sfondo di un acquedotto romano.Sarebbe desiderabile un tool del genere nelle SERP, sempre che il se e quando lo decida lo stesso utente? Si, diobono. Ci metterei metà tempo a trovare quello che mi serve.
Ciao
-
@pieropan said:
..in un mondo perfetto ci sarebbe già una estensione di firefox che svolge questi semplici compiti:
- accosta un bottone/flag allo snippet
- se flaggato una volta, lo stesso snippet (o sito) appare in grigio tenue nelle serp successive e da li' in avanti.
Esiste!
Si chiama CustomizeGoogle.... che il mondo vada verso la perfezione?
Era un po' che non mi facevo un giro tra le estensioni... e naturalmente puo' importare (in locale) listati di siti in modalità testo.Ora controllo come funziona....
Ciao.
-
@pieropan said:
Esiste! Si chiama CustomizeGoogle.... che il mondo vada verso la perfezione?
Era un po' che non mi facevo un giro tra le estensioni... e naturalmente puo' importare (in locale) listati di siti in modalità testo.Ora controllo come funziona....
Ciao.
Ciao Pieropan, attendiamo feedback sul funzionamento dell'estensione naturalmente
Provo a fare un piccolo up per ragionare insieme a voi non tanto sulla rimozione dei risultati di scarsa qualità quanto sulla necessità di mantenere stabili alcuni posizionamenti che un motore potrebbe avere per venire incontro alle attese dei suoi utenti.Il mio dubbio è: quanto una variazione nella posizione di un sito rilevante nei risultati di Google spiazza gli utenti che cercano più volte nel tempo il sito con la stessa query?
Se un sito è in grado di soddisfare il bisogno di informazioni dell'utente, il fatto che cercandolo più volte venga proposto dal motore in posizioni differenti (o non affatto proposto) può essere percepito dall'utente come una risposta non in linea con le sue aspettative influendo negativamente sull'esperienza di navigazione?
Un esempio su tutti potrebbe essere l'ormai celebre caso BMW...
-
Bel Post, Bella gente
.. come non intervenire...
Sulla prima parte delle considerazioni propendo decisamente per un "effetto acronimo" trattato in fase di ranking (concordo con Everfluxx) non per considerazioni tecniche ma piu' che altro considerazioni legate alla funzionalità ed alla ricerca del risultato ottimale.. acronimi, plurali, cluster semantici, espansione della query cosi' come i "nuovi" Tag "social" di Co-op devono avere per esprimere a pieno il loro significato sulle serp, a mio modestissimo parere, un effetto non in fase di visualizzazione e di snippet ma certamente in fase di applicazione diretta algoritmica.... imho!
Riguardo invece la seconda parte sulle considerazioni di **Pieropan **e Fuffissima io sarei pronto a scommettere invece che non sarà sulla stabilità o meno delle serp e/o quindi sulla personalizzazione o meno delle stesse ne sulle influenze "social 2.0" (che non condivido appieno per come vengono oggi prospettate) che si giocherà la partita del futuro dei MDR.. ma piuttosto sul rinnovamento del risultato visivo dei risultati in risposta alle query degli utenti......
..ne parlavo anche qui proprio ieri con Miriam, io credo che siamo arrivati proprio ad un limite funzionale della visualizzazione delle serp "dieci risultati testuali verticali"... troppo limitante rispetto al numero sempre piu' grande di risultati rilevanti......concordo con Pieropan nella sua visione "random" (appunto proprio ieri scrivevo incredibilmente quasi la stessa cosa), pur comprendendo perfettamente le considerazioni di Fuffissima, ma "quel" utilizzo del MDR, lo trovo "sbagliato" , figlio di un abitudine sbagliata all'utilizzo del mezzo... la ricerca dell'informazione quando avviene su una base tanto grande, da avvicinarsi "al tutto" non la si puo' immaginare "statica" ... un mdr non puo' diventare un dizionario su cui annoto e ritrovo voci ed informazioni tenendo traccia della pagina in cui le ho trovate (semmai potrei avere la possibilità di mettere in un basket cio che trovo) , ma deve essere uno strumento che sappia offrire all'utente non solo l'enorme varietà dei possibili risultati rilevanti, ma che sia anche espressione dell' incredibile e mutevole e quotidianamente rinnovato afflusso di informazioni...
..aggiungo che l'enorme differenza di importanza che le attuali visualizzazioni finiscono per dare ad un documento , che so' al 5° posto di un ranking rispetto al 31° non ha nessun senso logico e funzionale quando magari una query restituisce 25.000.000 di documenti !!!
Questo "impasse" è a mio giudizio la vera frontierà su cui si giocherà il futuro....
Nicola
-
[LEFT]Mi iscrivo ufficialmente al Pieropan Fan Club, a meno che non ci sia da pagare, ovvio ;).[/LEFT]
[LEFT]Il fatto che le SERP restituiscano milioni di risultati e che strutturalmente i motori di ricerca li presentino in paginate di dieci risultati non è così anacronistico come potrebbe sembrare a prima vista IMHO.[/LEFT]
In fase di recall il numero di documenti, è vero, il più delle volte è impressionante, ma quando andiamo a verificarne la rilevanza difficilmente si ha qualcosa di valido oltre, diciamo, le prime 50 posizioni, e ancora credo di esagerare.
Ovviamente questo è anche un parametro soggettivo, sarebbe interessante una ricerca su un campione eterogeneo di utenti per stabilire fin dove si spinge la rilevanza "percepita" dei documenti ritornati per varie query (ci sarà già anche questa per caso?).[LEFT]In molti paper che ho letto recentemente si pone l'accento su meccanismi di spam demotion, cioè in grado di spingere le pagine fortemente sospettate di spammare insieme a quelle poco rilevanti, cioè indietro nelle serp.[/LEFT]
Non ci si pone il problema di eliminarle, perchè l'assunto è che se non stanno nelle prime due o tre schermate di risultati l'utente non le vedrà comunque.[LEFT]@Fradefra: tu che sei esperto di ricerche ed indagini, e soprattutto verifichi sempre dati alla mano affermazioni di questo tipo, conosci qualche studio recente sull'argomento?[/LEFT]
[LEFT]Quello che conta per i motori, secondo me, è riuscire a presentare due o tre schermate dove siano presenti siti autorevoli ed esenti da spam, se poi qualche bambino innocente se ne va giù con l'acqua sporca, pazienza...[/LEFT]
[LEFT]Mi è piaciuta molto l'ipotesi di Pieropan sulle comunità, analoghe direi ad alcune di quelle che gestiscono le blacklist per il mailspam, che fanno il tuning dei risultati attraverso i plugin.[/LEFT]
E' ovvio che noi, essendo da una parte precisa della barricata si faccia più o meno inconscia resistenza a cambiamenti di questo tipo, ma se la vediamo dalla parte dei motori di ricerca la situazione appare decisamente differente.[LEFT]Per quanto riguarda la personalizzazione dei risultati, penso che rivestirà un ruolo sempre più importante.
Adesso che le possibilità storaggio e computazione dei dati sono molto più alte di prima, credo sia naturale per i motori cercare di intervenire in quello che è stato, da sempre, uno dei problemi più tosti: le query ipodotate.[/LEFT][LEFT]Se la maggioranza degli utenti inizierà ad usare le pagine personalizzate, magari anche solo a causa dei gadget che contengono, i motori potranno avvalersi di un feedback diretto fra le query e le scelte di ogni utente e non dover più fare i salti mortali per capire se uno che cerca "penne" è la segrataria di un ufficio o un ornitologo.[/LEFT]
[LEFT]Sempre per che riguarda l'interfaccia di presentazione dei risultati, un altra possibilità interessante è la presentazione diretta di questi, invece del classico title-snippet-link.
E lì si che saranno pianti e stridor di denti per i SEO, se l'utente trova le informazioni direttamente sulla pagina di Google, chi glielo fa fare di seguire poi il link verso il sito?[/LEFT]
-
@beke said:
Quello che conta per i motori, secondo me, è riuscire a presentare due o tre schermate dove siano presenti siti autorevoli ed esenti da spam, se poi qualche bambino innocente se ne va giù con l'acqua sporca, pazienza...
A proposito del dilemma "precision vs. recall", cito Brin & Page, traducendo dal solito e ben noto The Anatomy of a Large-Scale Hyper](http://dbpubs.stanford.edu:8090/pub/1998-8)textual Web Search Engine](http://dbpubs.stanford.edu:8090/pub/1998-8
@Brin e Page said:
A mano a mano che la collezione [di documenti del Web] cresce di dimensioni, c?è bisogno di strumenti [di ricerca] dotati di alta precisione (numero di documenti rilevanti restituiti, diciamo entro le prime decine di risultati). In effetti, la nostra nozione di "rilevante" deve includere solo i documenti migliori in assoluto giacché potrebbero esistere decine di migliaia di documenti scarsamente rilevanti. **Questa altissima precisione è importante anche al costo di **sacrificare il recall (il numero totale di documenti rilevanti che il sistema è in grado di restituire). [grassetto mio]
...Direi che si commenta da sé.@beke said:
Mi è piaciuta molto l'ipotesi di Pieropan sulle comunità, analoghe direi ad alcune di quelle che gestiscono le blacklist per il mailspam, che fanno il tuning dei risultati attraverso i plugin. E' ovvio che noi, essendo da una parte precisa della barricata si faccia più o meno inconscia resistenza a cambiamenti di questo tipo, ma se la vediamo dalla parte dei motori di ricerca la situazione appare decisamente differente.
Sono molto scettico riguardo all'ipotesi che, in futuro, i motori di ricerca possano lasciare che sia la comunità degli utenti a decidere che cosa è "spam" per mezzo di un sistema distribuito di blacklist analogo a quello utilizzato dai mail server. La posta in gioco è troppo alta. A mio avviso è molto più realistico pensare che questa valutazione la lasceranno fare a ogni singolo utente, tramite le funzioni di feedback integrate nella ricerca personalizzata: un risultato non ti piace/non è rilevante per la tua ricerca? Marcalo come "spam", e non te lo ripresenteremo più.** <added>Ma che bella discussione che è venuta fuori: siamo partiti da un acronimo, e ci siamo ritrovati a parlare del futuro dei motori di ricerca (e della SEO)!
</added>**
-
[LEFT]> [LEFT]@Fradefra: tu che sei esperto di ricerche ed indagini, e soprattutto verifichi sempre dati alla mano affermazioni di questo tipo, conosci qualche studio recente sull'argomento?[/LEFT]
Studi recenti? Certo
Quello che sarà presentato da Mariangela al Convegno GT e quello che proprio in questo momento sulle interazioni coi sistemi di commercio elettronico e che sarà presentato l'anno prossimo.Per inciso, altro che 5 pagina. C'è gente che va anche sino alla 12. Non voglio anticipare nulla, ma la spiegazione è di tipo psicologico/cognitivo.[/LEFT]
-
Per tutti gli amanti degli acronimi c'è stato un test non voluto (credo) che mette carne al fuoco
-
<bump!>
Ridi e scherza, intanto che noi stavamo qui a contarcela e a disquisire sul futuro dei motori di ricerca, Giorgiotave è salito al #4 e #5 per "GT" su Google. Ben ci sta, toh.