- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Colab (python) per la SEO
-
Colab (python) per la SEO
Un bell’articolo di JR Oakes opensource.com/article/19/7/python-google-natural-language-api in cui spiega come interrogare via python le API Language di Google. In quest’altro articolo, sempre Oakes, www.oncrawl.com/technical-seo/topic-graph-wikipedia/ condivide un Colab pronto all’uso per estrarre entità da Wikipedia e trarre un grafo delle correlazioni. Per usarlo basta attivare le API, esportare la propria KW in json e inserire i propri dati.
Per chi non lo sapesse Colaboratory è un tool di Google, orientato al machine learning, che è basato su Jupiter notebook e senza bisogno di nessun setup permette di eseguire programmi in python sul browser (i Colab possono essere copiati sul proprio G Drive).
Sarebbe bello creare una raccolta di Colab utili per la SEO.
Voi ne avete da segnalare?
O addirittura di realizzati da voi e che avete voglia di condividere?
-
Ciao
grazie per le info, appena riesco vedo di "replicare" il codice.
-
Ho avuto un momento ad inizio 2020 in cui ho dedicato del tempo a queste cose... e c'è un mondo. Anche se spesso ho visto che sono dei bellissimi esercizi di stile, ma ho fatto molta fatica ad applicarli in un contesto operativo.
Probabilmente anche per un limite mio di visione.
Però se trovo (o ritrovo) qualcosa di interessante, contribuisco volentieri!
1 Risposta -
@kal sono d'accordo, ci sto dedicando un po' di tempo da qualche mese, poi condivido anch'io qualche altra risorsa. L'unica cosa operativamente interessante mi è sembrata legata al nlp applicata alla generazione massiva di meta dati. Poi condivido qualcosa di Hamlet batista di cui ho seguito un paio di webinar ed e un po' il riferimento per la community dei python-seo. Vedrò di testare il suo ranksense per vedere come si traducono commercialmente le sue intuizioni. Certo saranno cose che verranno prima o poi fatto da tool commerciali.
Altra cosa python per occuparsi di analisi e visualizzazione di big data.
-
Direi che il miglio punto di partenza per chi vuole cominciare, non dico a cimentarsi, ma a vedere come python oltre che per la data science possa essere usato per automatizzare alcune pratiche seo, è senz'altro la lunga serie di articoli pubblicati da Hamlet Batista per search engine journal: www.searchenginejournal.com/author/hamlet-batista/
In effetti Batista pubblica poco su Colab preferendo rilasciare su github e lavorare su Jupyter.
Mi ha segnalato lui stesso questa repo
"Here you go github.com/ranksense/Twittorials
Check the hashtag #rstwittorial for new ones each week SnakeFire".@kal ti è capitato di incrociare questo suo nuovo articolo sulla classificazione automatica, usando il Deep Learning, degli intenti (in senso chiaramente più ampio rispetto alla schematizzazione che adottiamo riferendoci agli intenti di ricerca)?
.
Di fatto, un modello predittivo BERT-powered, addestrato con Ludwig di Uber, basato su TensorFlow. Qui una breve presentazione fatta dal barese Piero Molino senior NLP scientist presso l'AI lab di Uber e papà di Ludwig
In questo nuovo articolo, Batista tira le fila di altri 2 pubblicati l'anno scorso. Appena riuscirò ad avere un paio di giorni liberi vorrei smanettarci un po', certo servono dataset italiani. Interessante l'idea di un pull di dati da SC, magari estraendo query sopra le x (5?) parole che spesso sono domande. Pensiamo ad esempio al caso di classificazione di intenti delle domande poste a un customer service multicanale, quindi con data set che vanno dalle query su G, alla ricerca interna sul sito, conversazioni con chatbot e registrazioni di telefonate fatte prima passare a un text-to-speach.
www.searchenginejournal.com/automated-intent-classification-using-deep-learning-google-sheets/353910
1 Risposta -
Un Colab di JR Oaks per il calcolo di PageRank and CheiRank a partire da dati presi da ScreamingFrog e dalle API di Moz.
colab.research.google.com/github/MLTSEO/MLTS/blob/master/Tutorials/PageRankandCheiRank.ipynb
1 Risposta -
Figo quello sul calcolo degli intenti, anche se l'ho scorso solo velocemente. Richiede troppo studio ed in questo periodo mi manca il tempo.
@MaxxG ha detto in Colab (python) per la SEO:
Un Colab di JR Oaks per il calcolo di PageRank and CheiRank a partire da dati presi da ScreamingFrog e dalle API di Moz.
colab.research.google.com/github/MLTSEO/MLTS/blob/master/Tutorials/PageRankandCheiRank.ipynbEcco, questa è una cosa che si può fare con tool già esistenti, quindi ha un po' il sapore di reinvenzione della ruota.
Ad esempio il Pagerank lo calcolo già con Gephi in modo veloce, gratuito e senza sbatta (e in più faccio anche i grafi di link, che sono tanta roba).
Il CheiRank non ho ancora visto se si può calcolare con Gephi, ma presumo di sì, probabilmente con un plugin.
1 Risposta -
@kal ha detto in Colab (python) per la SEO:
Ad esempio il Pagerank lo calcolo già con Gephi in modo veloce, gratuito e senza sbatta (e in più faccio anche i grafi di link, che sono tanta roba).
Si lo uso anch'io, anzi ci ho rimesso mano dopo avertelo visto usare in una live di un mesetto fa se non sbaglio
Certo in parte, come dicevi, sono esercizi, ma proprio nel senso didattico del termine, è un modo per iniziare a masticare python lavorando su esempi vicini al nostro ambito lavorativo (pensa ai crawler che stanno iniziando a essere sviluppati in python , non è certo perché ce ne sia bisogno? Non sono alternative free, neanche a livello amatoriale, a un qualsiasi screamingfrog).
Poi certo, le possibilità del NLP, anche attraverso l'interrogazione delle API di Google mi pare offrirà possibilità davvero interessanti che automatizzeranno alcuni ambiti ripetitivi e noiosi del lavoro, e certo i tool professionali non staranno a guardare, e infatti ne stanno fiorendo a bizzeffe a partire dall'italiano neuraltext. A proposito hai avuto modo di provarlo?
2 Risposte -
@MaxxG ha detto in Colab (python) per la SEO:
a partire dall'italiano neuraltext. A proposito hai avuto modo di provarlo?
Non ancora, ma l'ho attenzionato (come si suol dire )
-
Buongiorno a tutti, spero di non essere OT.
Sono un informatico e sarei interessato a tutte le "necessità" che chi si occupa di SEO (ma anche di digital markting) potrebbe avere per quel che riguarda il recupero, l'analisi e l'elaborazione dei dati (naturalmente non già offerte da qualche tool).
Ho trovato molto interessanti gli articoli di Hamlet Batista suggeriti in questa discussione.
Avete qualche esperienza o suggerimento in merito ?
Grazie
-
@maxxg ha detto in Colab (python) per la SEO:
Non sono alternative free, neanche a livello amatoriale, a un qualsiasi screamingfrog
È vero, però possono darti il modo di evidenziare in maniera "diretta" dati che altrimenti possono richiedere più lavorazioni, o l'uso di più tool.
Diciamo che al 95% alle cose ci arrivi con SF o altro esistente, tipo Gephi; però c'è sempre quel margine su cui può essere utile avere un po'di padronanza di Python; R o altri linguaggi (io lavoro con questi due poco e male, sto ancora imparando tantissimo) per estrarre informazioni che magari SF non ti dà.
1 Risposta -
@aledandrea Una interessante chiacchierata con Hamlet Batista su NLP e python per la SEO
1 Risposta -
@maxxg ha detto in Colab (python) per la SEO:
@aledandrea Una interessante chiacchierata con Hamlet Batista su NLP e python per la SEO
Nel pomeriggio me lo guardo, lui fa della roba sempre molto interessante!
Comunque, segnalo un'iniziativa che ho scoperto da poco, ma che può essere interessante per chi ama queste cose.
La community di R organizza i TidyTuesday, in cui si lavora su DB di dati pre-forniti, e si ha una consegna. Obiettivo è realizzare una visualizzazione dei dati forniti ordinata per evidenziare certe cose.
Se cercate su LinkedIn qualcosa trovate sicuro
1 Risposta -
Un nuovo articolo di Hamlet Batista, atvolta siamo alla generazione di Title tag usando Ludwig di Uber per addestrare T5 che Google stessa definisce come una versione superiore di BERT.
Sarebbe bello creare un dataset italiano per l'addestramento, che ne dite?
www.searchenginejournal.com/automated-title-tag-optimization-using-deep-learning/390207/
-
Segnalo questo articolo di Andrea Volpini sui trend della automazione SEO
https://wordlift.io/blog/en/seo-automation/
L'articolo è molto interessante non solo perché linka alcune risorse/esercizi che la community sta realizzando, ma perché è Andrea il papà di un noto tool, Wordlift, che automatizza l'inserimento di schema "menzionando" nello schema le entità di cui si parla e collegandole all'Open Data Cloud. In qualità di sviluppatore i trend che indica sono poi le feature che sta sviluppando per Wordlift: generazione stocastica di tag_title, summary, meta description, generazione automatica di FAQ compreso il relativo schema. Le feature sono già in una fase di test ristretto con pochi clienti.
Nell'articolo si vede che si sta appoggiando all'IA Davinci ma su Twitter si vede l'implementazione anche con GPT-3.L'immagine che apre l'articolo è la stessa, generata da GPT-3 e DALL·E, di cui avevo già parlato qui:
https://connect.gt/topic/244494/e-dopo-gli-scrittori-è-tempo-per-illustratori-e-designer-di-tremare?_=1610312652005
-
Mi fa piacere ricordare Hamlet Batista, scomparso da un paio di giorni a causa del Covid-19. Ho avuto il piacere di chiacchierare con lui su twitter, sempre gentile e disponibile a rispondere anche alle domande di chi come me si sta appena approcciando a questa nicchia. Di seguito la pagina di gofundme aperta da Lily Ray per supportare la famiglia.
https://www.gofundme.com/f/in-memory-of-hamlet-batista
-
Ultimo colab pubblicato da Andrea Cyberandy Volpini per effettuare una Causal Impact Analysis, una metodologia introdotta da Google che può tornare utile a isolare l'impatto di una singola modifica al proprio sito (per es. l'implementazione dei dati strutturati) usando i dati di GSC caricati su un G sheet o attraverso direttamente via API che ha il vantaggio di permettere di selezionare gli URL da sottoporre ad analisi.
https://wordlift.io/blog/en/entity/measuring-seo-effectiveness-using-causal-impact-analysis/