- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Il Test su Discover di Connect.gt
-
@barretta ha detto in Il Test su Discover di Connect.gt:
@kal tu puoi aggiungere alex al gruppo telegram?
No, dobbiamo chiedere a @giorgiotave
-
@kal ha detto in Il Test su Discover di Connect.gt:
@alex-mi ha detto in Il Test su Discover di Connect.gt:
Quello che mi infastidisce non poco è notare che su Discover si trovano troppo spesso i classici titoli acchiappa clic.
Questa osservazione l'abbiamo fatta anche nella Live con Giorgio e bisogna mettersela via: Discover È UN SOCIAL. Le dinamiche di comunicazione predominanti sono assolutamente quelle del clickbait.
Non so esattamente cosa sia per te clickbait (o meglio quale sia la tua sensibilità sul tema), però direi che nel mio Discover solo il 20% degli articoli proposti è clickbait.
Gestendo però i miei interessi può essere che lo influenzo fin troppo.
1 Risposta -
@luqweb ha detto in Il Test su Discover di Connect.gt:
Non so esattamente cosa sia per te clickbait (o meglio quale sia la tua sensibilità sul tema), però direi che nel mio Discover solo il 20% degli articoli proposti è clickbait.
Io lo intendo in senso esteso, ovvero: ottimizzare il copy delle anteprime per stimolare al massimo il clic dell'utente. Questo può essere fatto in modo onesto od in modo disonesto da parte del produttore del contenuto.
Ne abbiamo parlato anche in live, c'è sicuramente un algoritmo INTERNO a Discover che usa il CTR (o un più generale "interaction rate") come metrica per decidere se un contenuto vada spinto ulteriormente o se vada invece segato sul nascere.
Facebook, Twitter e tutti i principali social media hanno implementato un algoritmo analogo.
-
Mi è appena tornato sotto gli occhi il Whitepaper di Google su FLoC
https://github.com/google/ads-privacy/blob/master/proposals/FLoC/FLOC-Whitepaper-Google.pdf
A parte una spiegazione lampante dei processi di machine learning utilizzati nella definizione delle coorti, credo sia INTERESSANTISSIMO andare a rileggere quello che viene riportato a pagina 14 quando parlano di "Google Display Ads Dataset"
The dataset consists of a de-identified collection of URLs from publishers i n the Google Display Network collected across 7 days.
Quindi usano le URL per determinare le coorti di FLoC. Per la precisione, le URL della Display Network. Questo fra parentesi mi accende una lampadina nel cervello: e se davvero dessero la priorità in Google Discover ai siti web che già utilizzano la Display di Google?
Sarebbe una cosa illegalissima (è un abuso di posizione dominante), ma Google è una vecchia volpe. Non sarebbe così sorprendente.
Ad ogni modo, andrebbe testato più a fondo e fatta un'indagine specifica.
Andiamo avanti che ci sono altre cose interessanti...
In particolare quello che viene riportato in "Feature extraction":
Domain One-hot encoding
Under this feature extractor, each URL visit i s encoded by i ts domain only. The feature vector
representing a user i s simply a one-hot encoding of all the domains they visited. That i s, i t i s a
sparse vector where all domains visited by a user get assigned a 1, regardless of the number of
times the domain was visited.
Utenti clusterizzati sulla base del DOMINIO che visitano, a prescindere dall'URL
Domain TF-IDF encoding
Here again we encode each URL visit by i ts domain. However, i nstead of weighting all websites
in the same way we use TF-IDF scoring. That i s, i f a user visits a domain frequently i t gets a
higher score but i f the domain i s very popular - multiple users visit the same domain - i t i s
assigned a l ower weight. The feature vector representing a user i s simply the sparse vector of
scores associated with each domain visited by the user.
Questa è una bomba: la popolarità delle URL viene pesate sulla base della popolarità del dominio stesso, con la stessa logica di TF-IDF.
È se vogliamo la conferma che:
- esiste un valore soglia per considerare un URL "popolare"
- questo valore soglia è proporzionale alla popolarità del dominio
Topic categories
A better way of generating feature vectors i s by categorizing the websites i nto topics. For
instance expedia.com i s a travel website. Categorization i s done using a tool similar to the topic
categorization API of Google Cloud4 . This categorization corresponds to a hierarchy of 3 l evels,
where each l evel describes a more specific category.
Ed ecco di nuovo nominata la categorizzazione dei siti web.
Alla pagina successiva, infine, c'è questo:
Evaluation
We measure the viability of using cohorts as a targeting tool as follows:
- Building interest profiles. For each cohort we categorize all websites that would be tagged by the same cohort i d and aggregate all topic category weights. We then define the cohort i nterest profile as the top 10 categories.
Che è ESATTAMENTE quello di cui abbiamo discusso fin qua.
1 Risposta -
@kal non so fino a che punto dovremmo aprire un'altra discussione o raccogliere in modo diverso le informazioni che abbiamo...
In questa non si capisce più niente ahhahaah
Comunque: TANTA ROBA
1 Risposta -
@giorgiotave bisognerebbe fare un riassuntone, sì.
Lascerei la discussione per vedere se ci viene qualche altra idea su come testare l'ingresso in Discover.
Io per ora la roba che trovo ed i ragionamenti anche estemporanei li butto qua, così chi ha partecipato riceve la notifica e può metterci del suo.
Insomma: la discussione lunga è funzionale all'obiettivo.
1 Risposta -
@kal no infatti, va mantenuta e continuiamo. Ci vorrebbe qualcosa per le informazioni raccolte.
Stiamo per aprire un Wiki
2 Risposte -
-
@giorgiotave ha detto in Il Test su Discover di Connect.gt:
Stiamo per aprire un Wiki