Scusate il contrattempo, dovuto a lacune tecnologiche (acc, il mio pc non prendeva il wireless). Provvedo subito a terminare il diario con alcuni spunti e dibattiti di altre conferenze.
Interessante la seduta sul contenuto duplicato, il cui concetto, anche a detta degli esperti, non è chiaro. Comunemente si pensa che il contenuto duplicato sia solo una questione di testi. Shari Turow, Marketing Director di GrandasticDesigns.com, si è concentrato sul contenuto duplicato all'interno del sito e ha invece parlato di shingles, aree in cui viene divisa la pagina, e gruppi di parole e contenuti in cui si ripete la stessa struttura. E' la situazione tipica dei cataloghi, che tendono a ripetere la struttura delle pagine mantenendo lo stesso url (a parte l'id) e lo stesso word set. Comunemente si pensa che è bene avere un grande numero di pagine indicizzate, invece, per evitare il rischio di cadere nelle reti antiduplicazione, si consiglia addirittura di usare il file robots per escludere dall'indice le pagine con minore rilevanza.
Per quanto riguarda gli id di sessione si consiglia classicamente di dare le session information nel coockie e dare in pasto agli spider un solo id.
Interessante anche il concetto secondo cui se la breadcrumb di navigazione riflette in tutto e per tutto l'url, aumenta il pericolo di essere visti come sito spam.
Per quanto riguarda le conferenze sul social media, poche novità e pochi lumi. Il blog di riferimento è stato wordpress.
Ho fatto una capatina alla discussione su adsense e l'arbitrage. Il rappresentante di Google ha dichiarato che il limite del lecito per gli annunci è sempre correlato all'user experience: finchè l'annuncio serve all'utente che visita il sito non si corre il rischio di essere bannati. I rater umani di adsense vigilano affinché tutto sia in ordine.
Chiudo con la conferenza sulle **link strategies **che confermano quello che tutti sanno, ma a cui nessuno vuole credere: quello che conta è la qualità del backlink.
Le parole sono state chiare: il link trading è morto, comprare link da pr 8 e 9 è inutile, il pagerank è defunto. E' già l'era del Page Trust: conta il contenuto unico, chi ci linka e chi linkiamo. Il text link che prendiamo deve essere sempre inerente al contenuto della pagina che andiamo a fare linkare.
Boser, di WebGuerrilla, ha confermato tutti questi punti. Conta invece ancora l'anzianità del dominio ma un sito non aggiornato da un paio di anni è considerato inattivo e perde di rilevanza.
Un ultimo excursus su CSS e AJAX. Cose interessanti: il testo a tendina è accettabile se resta nelle dimensioni dello schermo (naturalmente le dimensioni orizzontali). Il foglio stile, come nuova pratica dei crawler, è sempre analizzato, per cui addio display:none. Per quanto concerne Ajax, così come per il javascript, non è del tutto compatibile con i motori. Per vedere se i link possono essere seguiti dagli spider, si possono disabilitare tutti gli script con firefox: se non si vede il contenuto dei link siamo nei pasticci. Per quanto riguarda Ajax gli svantaggi sono anche in parte nell'usabilità: la gran parte degli script, infatti, non prevede il funzionamento del back button e della cronologia.
Ok. So che sono informazioni un po' alla rinfusa, ma restano pur sempre piccoli spunti di conoscenza, approfondimento, riflessione.
Ci si vede al SES di Milano o qualche giorno prima al corso di Madri.
Ciao.