Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. MassimilianoSanna
    3. Post
    M

    MassimilianoSanna

    @MassimilianoSanna

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 4
    • Post 38
    • Migliore 3
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Età 53
    87
    Reputazione
    38
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    Post creati da MassimilianoSanna

    • RE: Helpful content update

      @giorgiotave riprendo una tua frase:
      Oggi no, non è attivo in Italia, ma lo sarà. Perché viene introdotto un concetto fondamentale nella SEO che stavo aspettando dal 2010: la qualità media dei contenuti ospitati in un sito.

      Per mia esperienza la qualità media dei contenuti di un sito è un fattore di fatto già attivo dai tempi di Panda.
      Lo desumo da queste circostanze:

      • al rilascio di Panda raddoppiarono il traffico alcuni "miei" siti (=che gestivo io in Trilud) in cui avevo già fatto prima di Panda la scelta netta di non avere pagina spazzatura. Pagine spazzatura molto comuni all'epoca come per esempo le innumerevoli pagine tag che proliferavano secondo la logica una keyword da posizionare = una pagina tag. Era la questione dei "thin content".

      • Negli anni ho fatto fare ai miei siti miei clienti (che fossero siti editoriali o ecommerce), delle pulizie radicali e periodiche dei contenuti non più utili e/o ormai sotto la soglia di una qualità accettabile, introducendo al contempo delle routine di aggiornamento continuo dei contenuti storici ancora validi. Questo ha sempre prodotto un importante miglioramento nel posizionamento complessivo del sito

      Chiaramente, soprattutto nel secondo caso, spesso ci sono stati altri interventi per cui è difficile discernere l'impatto della qualità media complessiva, ma ho sempre avuto la netta impressione che razionalizzare e riqualificare l'intero insieme dei contenuti portasse dei vantaggi importanti.
      Quello che sicuramente cambierà (ancora) radicalmente è la base su cui un contenuto viene giudicato di qualità e magari non riguarderà una sola pagina, ma anche come il contenuto è collegato e cosa collega nell'architettura del sito.

      postato in SEO
      M
      MassimilianoSanna
    • RE: Google Tag Manage Server side [GTM] - Dubbi e perplessità

      Vi aggiorno con dei dati un po' più consistenti presi nell'arco di più giorni e lasciati maturare, nel senso che osservando l'andamento è chiaro come GA 4 sia più lento di Universal nell'elaborare i dati.

      Il confronto sui dati chiave della mia analisi dal 18 al 22 gennaio:
      68844418-7bad-44a0-8e57-66273b0b74f2.png

      Rispetto alla prima analisi è cambiato non tutto ma molto.

      In particolare leggendo bene tra i dati si vede come GA4 Server sia quello che riesce a catturare il maggior numero di eventi page_view (11.571, intorno al migliaio in più rispetto a Universal). Registra meno utenti e questo sembra un dato negativo ma in realtà è molto positivo perché vuol dire che riconduce allo stesso utente più sessioni e quindi più page_views, mentre GA4 client vede più utenti solo perché non riesce a ricondurre più sessioni allo stesso utente che quindi verrà registrato come "nuovo" e non come "di ritorno".

      Resta apparentemente negativo per GA 4 Server il dato del traffico diretto con ben l'8% non attribuito, rispetto al 4% di Universal Client, ma nel momento in cui registro meno utenti potrebbe anche essere che quelli identificati come di ritorno aprano il sito direttamente davvero. Pertanto non è detto che sia un dato che indica una peggiore rilevazione, ma paradossalmente potrebbe indicare una migliore rilevazione.

      UN PO' DI CONTI
      Nel complesso la battaglia è tra GA4 Server e Universal Client e la scelta di adottare l'uno o l'altro non è chiara a fronte del fatto che le differenze non sono epocali. A livello di costi, questo traffico ha generato circa 10.000 richieste al giorno su Stape, alimentando due Analytics (Universal e GA4) in versione standard, senza tracciamento conversioni personalizzate e senza il pressoché onnipresente pixel facebook. Quindi già solo con questi due analytics si arriva a 300.000 richieste / mese che stanno dentro i 20 dollari al mese per 500.000 richieste di Stape (la tariffa successiva è a 100 dollari per 5 milioni di richieste, smistabili però su più domini).

      Immaginando di avere il solo GA4 senza Universal più il Pixel di facebook e un po' di tracciamenti personalizzati (per esempio carrello, checkout e acquisto per un ecommerce), il sito che sto considerando potrebbe stare nei 20$. E' un sito che fa 15/20.000 utenti mese e circa 50/60.000 pagine viste.


      APPROFONDIMENTI DA FARE
      L'analisi che ho fatto è davvero basic e andrebbe valutata nel più lungo periodo e su KPI più importanti della sola pagina vista e utente. In particolare:

      • bisognerebbe valutare l'eventuale miglioramento sulle conversioni Facebook Ads e Google Ads, perché migliorando molto quelle, migliora la valutazione del ritorno dell'investimento pubblicitario

      • bisognerebbe valutare la tenuta nel tempo dell'identificazione dell'utente, cioè oltre i 7 giorni ormai canonici dopo i quali molto browser invalidano i cookie

      La mia opinione al momento:
      Se si tratta di un tracciamento traffico di un sito aziendale di rappresentanza o anche di un sito editoriale che lavora sulla raccolta pubblicitaria, direi che Server Side ha un costo che PER ORA non vale il risultato.

      Se si tratta di un ecommerce che investe in pubblicità invece potrebbe essere il caso di considerarlo alla luce delle ulteriori analisi che andrebbero fatte.

      postato in SEO
      M
      MassimilianoSanna
    • RE: Google Tag Manage Server side [GTM] - Dubbi e perplessità

      Buongiorno a tutti, mi aggancio a questa discussione per condividere i miei dubbi e perplessità su GTM server side basandomi sui dati.

      Nei giorni scorsi su un sito con un discreto traffico, ho messo in parallelo due installazioni di GTM: una classica client side e una server side per vedere la differenza nella raccolta dati e quindi toccare con mano questo supposto incremento di dati che la server side darebbe.
      Per quelli che conoscono già gli aspetti tecnici, preciso che la server side ha ovviamente la sua client side associata dedicata, ovvero è diversa dalla prima "solo client side", ma per comodità parlerò di GTM server side intendendo la combo client+server.

      La combo server side è un clone della versione solo client side: stessi tag, stessi attivatori, stessa gestione del consenso tramite CMP iubenda. L'unica cosa che cambia è il puntamento a una proprietà Universal Analytics + GA4 diversa e ho fatto questo per avere appunto i dati in parallelo. Quindi ci sono due proprietà analytics in contemporanea: una alimentata in modo classico e una alimentata in modo server side. Insomma, ho cercato di minimizzare le differenze.
      Una cosa importante da premettere e da dire è che come server non sto usando Google Cloud ma Stape.

      Ebbene, contrariamente a tutte le attese, la versione classica client side sta raccogliendo più dati rispetto a quella server side. In particolare: più utenti e soprattutto meno utenti "direct" cioè senza referral. La differenza su Universal Analytics non è tanta ma c'è.

      Il traffico di oggi:

      Client Side
      cs.png

      Server Side
      ss.png

      La differenza su GA4 è ancora più marcata, dove il traffico server side risulta addirittura dimezzato

      Client Side
      ga4cs.png

      Server Side
      ga4ss.png

      Chiaramente potrei aver sbagliato / tralasciato qualcosa nella configurazione Server Side con cui non sono ancora pratico. Inoltre possono esserci svariati altri fattori che influiscono. Se interessa posso raccontare nel dettaglio come ho configurato. Infatti non voglio affermare nulla con questo post, men che meno che la versione server side funziona meno bene della client side.

      Vorrei solo condividere questi dati invitando a intervenire chi dovesse avere esperienza col passaggio o col confronto tra GTM CS e GTM SS.

      postato in SEO
      M
      MassimilianoSanna
    • RE: SERP Mobile: notate qualcosa di strano?

      Su un paio di nostri siti responsivi da alcune settimane c'è un costante miglioramento di posizionamento. Nessun salto improvviso, ma se paragono a un paio di mesi fa, il miglioramento è marcato (e l'aumento di traffico lo riflette parecchio, in particolare nel fine settimana).
      Difficile dire però se dipenda solo dal fatto che sono responsive, osserviamo dei miglioramenti anche sulle serp desktop, anche se non altrettanto marcati.

      Non farei una distinzione netta tra siti responsive, o con versione mobile e siti solo desktop.

      Ho approfondito un po' e google analizza, direi piuttosto bene, quanto una pagina è leggibile su mobile indipendentemente dal fatto che ci sia una versione apposita.

      Da quanto ho visto, un layout desktop non responsive, relativamente semplice (tipo un classico wordpress a 2 colonne) e con immagini ottimizzate, assenza di flash, font piuttosto grandi, per google è accettabile anche per il mobile, giustamente.

      @Giorgiotave said:

      Salve ragazzi,

      come va con le SERP Mobile?

      I vostri siti hanno posizioni stabili o ultimamente è successo qualcosa? Riuscite a capirlo?

      Perché in giro dicono che ci sono state variazioni ma sui nostri non ne notiamo...

      :ciauz:

      postato in SEO
      M
      MassimilianoSanna
    • RE: Novità nel modo in cui googlebot "crawlerà" le pagine web

      @Federico Sasso said:

      Concordo, concordo!

      Oggi è presto per dire che impatto avrà sul lavoro dei SEO. E se la modifica impatterà solo per i siti che fanno redirect 302 in base alla localizzazione presunta del visitatore, o se in qualche modo andrà a dare fastidio un po' a tutti.

      Io da parte mia i redirect basati su IP e accept-language li evito come la peste, e almeno sui siti gestisco non dovrei quindi avere grandi problemi.

      Per mia esperienza magari l'IP sulla Nazione è ancora ancora abbastanza affidabile (ma solo sulla Nazione, non più in dettaglio, almeno se si usano servizi di geolocalizzazione gratuiti), ma o si accetta di tenersi un db di range IP continuamente aggiornato in casa, o si accetta i problemi di performance di chiamate HTTP a servizi esterni sulla pagina più visitata del sito.

      Sull'accept-language... bhé, non posso oggi esibire dati e una ricerca rigorosa, ma da dati da me raccolti su un campione statisticamente affidabile una cosa posso dirla: degli utenti che hanno accept-language "en-US", in media solo uno su tre si trova negli USA (e sospetto molto probabilmente nemmeno parla Inglese, almeno come prima lingua).

      Sull'IP per Nazione affidabile sottolineerei l'abbastanza. In azienda a Milano abbiamo Fastweb come internet provider. Secondo Google mi trovo a Milano (e meno male), secondo Twitter mi trovo in Germania... mi mostra i TT tedeschi. Anche secondo Semrush mi trovo in Germania, mi propone di "suchen" sul .DE 🙂

      postato in SEO
      M
      MassimilianoSanna
    • RE: Aggiornamento Panda 4.0 in corso

      Aggiungo la ricerca "anelli swarovski", ancora più democratica.

      Secondo me in generale non c'è una preferenza per i brand, non come filosofia.

      Una mia prima impressione è che Panda 4 abbia stemperato la predominanza in serp dei testi lunghi e molto lunghi a favore di pagine più multimediali. Una pagina con tante foto (o con dei video) o con delle liste ordinate (= cataloghi) si posiziona meglio anche se non ha dei testi lunghissimi. E' solo un'impressione vedendo un po' di serp, non so se qualcuno ha avuto la stessa sensazione.

      Una cosa del genere spiegherebbe in parte perché i siti brand, solitamente poco prodighi di testo, tendono a salire, mentre siti come eBay, solitamente dotati di pagine molto lunghe e complesse, non fanno più di questo aspetto un fattore vincente.

      Ricordiamoci che Panda è un algoritmo di ranking, non di penalizzazione.

      postato in SEO
      M
      MassimilianoSanna
    • RE: A proposito delle app di Wishpond

      @fabal79 said:

      Ciao, vi scrivo per chiedervi cosa ne pensate di Wishpond.

      Ho visto che sul loro sito wishpond.it hanno delle app per realizzare concorsi su Facebook che permettano alle aziende di farsi conoscere in rete ed ottenere più fan.

      Che idea avete della cosa? Sono soluzioni valide?

      Ho avuto modo di testare i loro servizi e li sconsiglio totalmente, grafica carina ma poca sostanza. Peraltro hanno un sistema di free trial in cui è obbligatorio inserire la carta di credito (il che è normale, c'è anche su altri servizi online) ma poi i dati della carta non sono più cancellabili e l'addebbito di default è per un anno di servizio (svariate centinaia di dollari). Ora secondo me un buon servizio non può essere basato sulla diciamo poca chiarezza nel processo di abbonamento e di addebito... spero di essere stato chiaro senza aggiungere altro.

      postato in TikTok
      M
      MassimilianoSanna
    • RE: State notando anche voi grossi scossoni nei ranking?

      Confermo anche io che ci sono degli avanzamenti, in particolare ho un sito nel settore automotive che segna un +20%

      postato in SEO
      M
      MassimilianoSanna
    • RE: VI Convegno gt: 17 e 18 Dicembre a Riccione

      Ciao a tutti,
      offriamo due posti in auto da Milano zona sud, partenza venerdì pomeriggio, rientro a Milano domenica sera, eventualmente possiamo prendere qualcuno anche lungo il percorso A1-A14.

      postato in News Ufficiali da Connect.gt
      M
      MassimilianoSanna
    • Google Images crolla: è Caffeine o solo un cambio di referral?

      Visto il cambio di layout di Google Images di questi giorni, incuriosito dai possibili risvolti sul traffico, sono andato a vedere sull'Analytics di alcuni siti disparati tra di loro e a cui ho accesso, le variazioni sul traffico proveniente da Google Images.

      Con un certo stupore ho visto che in questi giorni non c'è stata alcuna variazione significativa, MA all'inizio di maggio per tutti questi siti c'è stato un crollo dei referral da Google Images (ovvero da images.google.it) molto marcato, diciamo del 90%.

      L'avete riscontrato anche voi? È colpa di Caffeine o è un semplice cambio di referral?

      Ho notato che l'attuale url di visualizzazione della serp delle immagini è http://www.google.it/images? ...non so se fosse così anche prima o se effettivamente fosse http://images.google.it/

      Ma se è un cambio di sottodominio e quindi di referral, perché c'è un traffico residuale di comunque decine di visite al giorno che provengono da images.google.it?

      Grazie a chi vorrà condividere la propria esperienza.

      postato in News Ufficiali da Connect.gt
      M
      MassimilianoSanna
    • RE: BackLink da PageRank 8

      @Giorgiotave said:

      Grazie Massj per la tua esperienza 😉

      Ti posso chiedere se è da tanto che hai effettuato questo test? Cioè da quanti mesi...

      A dire il vero risale a circa 3 anni fa. Tuttavia, per quanto ho potuto verificare io in diversi altri casi, se 3 anni fa era pressoché inutile pompare il PR, oggi lo è ancora di più.
      Invece vale tantissimo il backlink in tema soprattutto se da un sito con un certo trust. Gli effetti tuttavia ho visto che sono piuttosto circoscritti alla singola pagina che viene linkata, proprio perché il tema è circoscritto.
      Ovvero si posiziona benissimo la singola pagina, ma il resto del sito non ottiene altrettanti benefici.
      Sempre per mia personale esperienza, chiaramente.

      Ho in mente di provare a usare alcune di queste pagine molto popolari come minihub per spingere altre pagine del sito, se lo faccio vi faccio sapere il risultato.

      postato in News Ufficiali da Connect.gt
      M
      MassimilianoSanna
    • Feed RSS Top Seo/Sem Area

      Ciao,
      i feed rss della top seo/sem area risultano vuoti anche utilizzando un reader che supporta l'autenticazione utente abilitato all'area, come immagino che sia necessario.

      E' possibile avere i feed disponibili in qualche maniera?

      Grazie 🙂

      postato in News Ufficiali da Connect.gt
      M
      MassimilianoSanna
    • RE: Da 3000 visite a 300 in un solo giorno.. aiuto

      Considera anche che per l'argomento che tratti e le parole che usi sei al limite dei siti classificati da google come siti per adulti. Non vuol dire che google ti penalizza, ma se ti identifica come sito per adulti, esci solo su keyword adult.

      postato in SEO
      M
      MassimilianoSanna
    • Numero abnorme di utenti unici su Analytics

      Su uno dei miei profili analyics da ieri mi trovo un numero abnorme di utenti unici: 1,6 milioni in un solo giorno, e oggi ne da già mezzo milione.

      Il che se fosse vero sarebbe splendido :):) tuttavia il numero di visite, di pagine viste, di referral, non corrisponde a questo dato ed è nella norma (4.000 visite, 30.000 pagine viste, 3.000 referral da google, ecc...)

      Qualcun altro ha riscontrato questa anomalia?

      postato in Google Analytics e Web Analytics
      M
      MassimilianoSanna
    • Recapiti registrant .it nascosti, a chi indirizzare l'azione legale?

      Ciao,
      c'è un sito che si ostina a copiare dei contenuti di uno dei siti in mia gestione, e perciò dopo una serie di richieste amichevoli di rimozione dei contenuti, perlaltro disattese, abbiamo deciso di intraprendere un'azione legale.

      Ora il problema è che nella registrazione del dominio .it c'è il solo nome della persona ma non i recapiti.

      Stante il fatto che per la rimozione fisica del contenuto verrà inviata una richiesta al provider, ma a questo signore ovviamente chiederemo i danni e le spese legali, e quindi come si fa a contattarlo per rivolgergli le contestazioni?

      postato in Consulenza Legale e Professioni Web
      M
      MassimilianoSanna
    • RE: Densità key

      Quale sarebbe la percentuale?
      Così ti do un riscontro sul mio webmaster tool

      postato in SEO
      M
      MassimilianoSanna
    • RE: Keywords automatiche o no?

      Un sistema del genere può essere utile solo marginalmente, per esempio sulle singole pagine di una fotogallery se proprio c'è un motivo specifico per indicizzarle (es. un catalogo di prodotto con tante versioni diverse di un prodotto che si vende per il suo aspetto), ma devi generare delle frasi che stiano in piedi anche per un utente, e non degli elenchi di keyword, che sarebbero inutili.

      In generale sconsiglio l'impiego di generatori di testo solo per google, pensa invece per l'utente, hai necessità di fornirgli questi testi automatici? Gli daranno maggiori informazioni e lo aiuteranno nella navigazione del sito?

      Se la risposta a queste domande è no o solo forse, lascia perdere.

      postato in News Ufficiali da Connect.gt
      M
      MassimilianoSanna
    • RE: Retrocessione nella SERP di tutti gli articoli

      Tutti quei link ai giochi d'azzardo ce li hai da tanto? Nel senso, ne hai inserito di nuovi di recente?

      postato in SEO
      M
      MassimilianoSanna
    • RE: Keyword density cosa ne pensate?

      @zaghor82 said:

      Io non sono d'accordo e parlo sulla base di esperimenti fatti, articoli che ad esempio si trovavano in 12esima posizione, ottimizzando la keyword density sono saliti fino alla quinta o sesta posizione.

      dipende tanto dalla competizione sulla keyword, evidentemente con una piccola leva sei riuscito a essere un po' meglio degli altri.

      se parli di articoli tipo news o blog, un metodo per far salire per esempio è aggiungere commenti, assolutamente naturali come linguaggio, che aumentano non la keyword density ma la varianza della keyword, un fattore on page piuttosto apprezzato da google.

      postato in SEO
      M
      MassimilianoSanna
    • RE: Keyword density cosa ne pensate?

      Google chiude un occhio nel senso che ci sono fattori di pregio legati al dominio tali da bilanciare forti difetti on page.

      Comunque ripeto, secondo me è sbagliato considerare la keyword density a sè, va rapportata alla quantità di testo nella pagina e anche a ciò che cerchi.

      Se cerchi "foto coccodrilli" devono uscirti delle foto e non un trattato di wikipedia, e questo google lo sa bene. Prova a vedere cosa esce proprio su quella keyword e troverai delle densità altissime e praticamente assenza di testo originale.

      postato in SEO
      M
      MassimilianoSanna