- Home
- Categorie
- Digital Marketing
- Web Marketing e Comunicazione
- Minidiario dal SES di New York
-
Minidiario dal SES di New York
Siccome ho l'opprtunita' di essere a New York per il SES, vi spedisco, tra una conferenza e l'altra, dei brevi resoconti.
La sede e' arcinota: l'hotel Hilton. La starlette Paris non si e' vista... la cosa piu' bella e' il tappeto a mosaico, arabescato e multicolore che ricopre tutte le sale e i corridoi. Magari ve ne posto un campione sul blog del fratello Matt Kazz.Stamattina sono andato alla conferenza sul Seo per grandi compagnie (Big SEO).
Nulla di eccezionale ma qualche spunto interessante c'e' stato.
La cosa che piu' colpisce e' che il search marketing e' concepito come qualcosa di molto integrato alle altre attivita' e competenze di marketing. Molto piu' sem, insomma, che seo.L'altra modalita' di approccio che e' emersa, e' senz'altro quella consulenziale:
education, education, education, ha ribadito Marshall D. Simmonds, Chief Search Strategist del New York Times, ribadendo che bisogna usare un approccio diversificato a seconda che si parli con il reparto web, col reparto marketing o col reparto creativo dell'azienda.Interessante anche la discussione sulla description: un'informazione in piu' rispetto al title, che deve mirare a circoscrivere esattamente quello di cui si parla nella pagina, in modo da attrarre solo utenti veramente interessati.
Pur discorrendo di SEO in house, ritengo che questi principi siano validi per tutti.
Come seconda conferenza ho partecipato ad Advertising in Social Media:
mi aspettavo qualcosa di piu' divertente. La parte sui blog non ha detto nulla di rilevante. Si e' poi parlato di Second Life e di come societa' quali Starwood Hotels abbiano sfruttato questo spazio per pubblicizzarsi. Una realta' forse troppo lontana da quella italiana, cosi' come Myspace, che qui ha molta rilevanza. Accoglienza freddina anche del pubblico di casa: poche domande e sala svuotata.A pensarci bene e' vuoto anche il mio stomaco... ci aggiorniamo piu' tardi, sempre che trovo la postazione libera.
-
...grandioso, mandaci altre informazioni appena puoi, e grazie
-
Sono molto interessato, provo a cercare se ci sono blog italiani che ne parlano
-
Rieccomi, finalmente ho trovato una postazione libera.
Ieri c?e? stato un incontro molto carino a mezzogiorno, una sorta di picnic in una sala conforenze insieme ai webmaster di Google, che tanto per cambiare non si sono sbottonati piu? di tanto. L?idea comunque era abbastanza originale: potrebbe essere ripresa al Ses di Milano?Per quanto riguarda il pomeriggio ho preso parte all?interessante Mobile Search Optimization. Un settore nuovo, in cui la parte di ottimizzazione segue in parte i percorsi tradizionali.
Ci sono pero? alcune differenze: il mobile e? meno trafficato, e proprio per questo il traffico ha piu? grande importanza e deve essere sfruttato al massimo. Le connessioni sono ancora lente, e per questo una delle raccomandazioni e? stata quella di evitare codice inutile.
L?altra, fondamentale, e? stata quella di separare il codice dal design grazie ai css esterni (in particolare il consiglio e? stato quello di usare le misure in percentuale e il posizionamento relativo).
Il media del foglio stile e? handled e va messo dopo il collegamento al css per lo screen. In sostanza l?uso del css e? del tutto simile a quello che si usa per le versioni stampa della pagina.Per mancanza di spazio e di tempo, non mi dilungo troppo sul tecnico?
Per quanto riguarda l?architettura dell?informazione si raccomanda la preferenza di link testuali, la disposizione dei bottni in maniera logica, la chiarezza delle call to action e non piu? di tre click per tornare all?home page. Anche il numero di telefono deve essere cliccabile. Siccome le ricerce sono di solito localizzate, e? fondamentale apparire in directory locali.
Per quello che riguarda la tipologia di ricerca, l?utente mobile usa molte meno keyword rispetto a quello che adopera il desktop: massimo due o tre. Insomma, per stessa dichiarazione di Gregory Markel, di Infuse Creative, il mobile e? ancora web 1.0.Rachel Pasqua, di iCrossing, ha parlato invece di content in the context: un conto e? un sito concepito per internete, un altro per il mobile: tenere conto del mezzo e? fondamentale: come ha affermato Matt Tengler, di JumpTap, la ricerca sul mobile e? una cosa diversa dalla ricerca su internet.
E passiamo a stamattina. Steve Berkowitz, vicepresidente di Service Online Groups di Microsoft, e? statto intervistato da Danny Sullivan. C?e? l?intenzione di msn live di potenziare il search, senza tradire pero? l?integrazione con gli altri servizi.
Ora sono appena uscito dalla sessione Sitemaps e Url Submission. A fare la parte del leone Google e Yahoo. Interessante in quest?ultimo la possibilita?, una volta autenticato il sito, di segnalare gli url da cancellare e gli spammy inlinks.
Ask e live raccomandano di usare la sitemap, ma l?unico mezzo di sottomissione e? la segnalazione nel robots.txt: es. sitemap:sitemap.xml.Ok. Break per me. Scusate l?italiano scorretto, ma e? scrittura veloce e con tastiera senza accenti? insomma, prendete quello che arriva .
Ci aggiorniamo.
-
Ciao Ignatz e Grazie per questi aggiornamenti
Nella nostra sezione Eventi ho appena segnalato il SES di New York 2007
Speriamo che ci aggiorni sulle altre giornate qui.
Ciao
-
Scusate il contrattempo, dovuto a lacune tecnologiche (acc, il mio pc non prendeva il wireless). Provvedo subito a terminare il diario con alcuni spunti e dibattiti di altre conferenze.
Interessante la seduta sul contenuto duplicato, il cui concetto, anche a detta degli esperti, non è chiaro. Comunemente si pensa che il contenuto duplicato sia solo una questione di testi. Shari Turow, Marketing Director di GrandasticDesigns.com, si è concentrato sul contenuto duplicato all'interno del sito e ha invece parlato di shingles, aree in cui viene divisa la pagina, e gruppi di parole e contenuti in cui si ripete la stessa struttura. E' la situazione tipica dei cataloghi, che tendono a ripetere la struttura delle pagine mantenendo lo stesso url (a parte l'id) e lo stesso word set. Comunemente si pensa che è bene avere un grande numero di pagine indicizzate, invece, per evitare il rischio di cadere nelle reti antiduplicazione, si consiglia addirittura di usare il file robots per escludere dall'indice le pagine con minore rilevanza.
Per quanto riguarda gli id di sessione si consiglia classicamente di dare le session information nel coockie e dare in pasto agli spider un solo id.
Interessante anche il concetto secondo cui se la breadcrumb di navigazione riflette in tutto e per tutto l'url, aumenta il pericolo di essere visti come sito spam.Per quanto riguarda le conferenze sul social media, poche novità e pochi lumi. Il blog di riferimento è stato wordpress.
Ho fatto una capatina alla discussione su adsense e l'arbitrage. Il rappresentante di Google ha dichiarato che il limite del lecito per gli annunci è sempre correlato all'user experience: finchè l'annuncio serve all'utente che visita il sito non si corre il rischio di essere bannati. I rater umani di adsense vigilano affinché tutto sia in ordine.Chiudo con la conferenza sulle **link strategies **che confermano quello che tutti sanno, ma a cui nessuno vuole credere: quello che conta è la qualità del backlink.
Le parole sono state chiare: il link trading è morto, comprare link da pr 8 e 9 è inutile, il pagerank è defunto. E' già l'era del Page Trust: conta il contenuto unico, chi ci linka e chi linkiamo. Il text link che prendiamo deve essere sempre inerente al contenuto della pagina che andiamo a fare linkare.
Boser, di WebGuerrilla, ha confermato tutti questi punti. Conta invece ancora l'anzianità del dominio ma un sito non aggiornato da un paio di anni è considerato inattivo e perde di rilevanza.Un ultimo excursus su CSS e AJAX. Cose interessanti: il testo a tendina è accettabile se resta nelle dimensioni dello schermo (naturalmente le dimensioni orizzontali). Il foglio stile, come nuova pratica dei crawler, è sempre analizzato, per cui addio display:none. Per quanto concerne Ajax, così come per il javascript, non è del tutto compatibile con i motori. Per vedere se i link possono essere seguiti dagli spider, si possono disabilitare tutti gli script con firefox: se non si vede il contenuto dei link siamo nei pasticci. Per quanto riguarda Ajax gli svantaggi sono anche in parte nell'usabilità: la gran parte degli script, infatti, non prevede il funzionamento del back button e della cronologia.
Ok. So che sono informazioni un po' alla rinfusa, ma restano pur sempre piccoli spunti di conoscenza, approfondimento, riflessione.
Ci si vede al SES di Milano o qualche giorno prima al corso di Madri.Ciao.