@giorgiotave Ciao Giorgio, io principalmente lo uso per aiutarmi a scrivere codice, generare bozze di testi e, soprattutto, lo uso come assistente allo studio delle lingue straniere.
- Home
- alessandro_dandrea
- Post
Alessandro D'Andrea
@alessandro_dandrea
In settimana in Facile.it e in palestra. Nel fine settimana sugli Appennini. 🏔
Remote worker. YAY.
Post creati da alessandro_dandrea
-
RE: Per cosa usate ChatGPT, Gemini, Perplexity & Co?
-
RE: Mancato posizionamento sito
Ciao, ci sono una discreta dose di differenze tra un sito e l'altro sia a livello di esperienza di chi cerca (ho appena cambiato degli infissi, ho una vaga idea della fretta che avessi), sia a livello di SEO più tradizionale.
Per dire, sta SERP per me è una delle più curiose ed "eye-opening" (che fa schifo pure a me ma non mi veniva l'alternativa in italiano) che abbia visto nel corso degli ultimi 2 anni: https://www.google.com/search?q=qr+code+reader
Poi chiaro, senza avere chiaro uno storico delle implementazioni e una risposta di GSC le cose si possono solo ipotizzare. -
RE: URL con lettere maiuscole "inventate" dal bot?
@grifter72 ha detto in URL con lettere maiuscole "inventate" dal bot?:
@alessandro_dandrea Anche a me è capitato in passato. Per togliermele di mezzo ho fatto dei redirect 301. Non c'erano delle url in rete ma dei testi in pagine spam, probabilmente generati in automatico. Il bot le ha trovate e ha provato a scansirmele.
Ciao, non sono preoccupatissimo eh, numericamente sono molto poche e comunque c'è un canonical correttamente letto ed ascoltato (una di quelle volte in cui lo fa =D )
Non mi convince molto in realtà il redirect di una URL generata da una pagina spam, però capisco il senso.
Grazie!
-
RE: URL con lettere maiuscole "inventate" dal bot?
@kal Ciao Martino, grazie! No, partiamo da zero zerissimo. Le pagine in questione sono andate live 4 giorni prima rispetto alla comparsa in GSC.
Log volevo guardare ma in realtà ancora non ci ho messo il naso. Analytics uguale anche se so per certo che non applicano un lower per pulire ed unificare il dato alla foce.Google la trova e la indicizza tramite la telemetria del browser Chrome
Comunque ero certo di veder scalare il problema sull'intera architettura in questione, invece da GSC pare essersi fermata a pochissime pagine.Ora, che questo significhi che effettivamente sono solo queste poche non è detto, però è un segnale.
-
RE: URL con lettere maiuscole "inventate" dal bot?
@giorgiotave ha detto in URL con lettere maiuscole "inventate" dal bot?:
Sembra quasi una confessione
LOL =D Lo chiamo ascolto attivo =D
-
RE: URL con lettere maiuscole "inventate" dal bot?
@giorgiotave Eh infatti è un caso che mi pare veramente strano. Quello dei numeri lo sapevo per le paginate.
L'unica roba che mi sta venendo in mente (e non vi dico gli "incoraggiamenti" se così fosse) potrebbe essere un parametro dentro al datalayer di GTM che, de facto, non esiste come URL ma dovrebbe essere interpretato dal solo sistema di analytics.
Non vorrei che, nella sua voracità, gbot avesse fatto il rendering del tutto e si fosse trovato la URL relativa, che ha pensato potesse essere da scansionare. -
RE: Posizionamento pagina articolo con video
@giorgio-sanna ha detto in Posizionamento pagina articolo con video:
Video is supplementary content on the page
Posto che andrebbe testata, questa sembra interessante https://support.google.com/webmasters/thread/252395207?authuser=1&hl=en&sjid=923099663902644828-EU
-
URL con lettere maiuscole "inventate" dal bot?
Ciao a tutti! Chiedo perché mi sto scontrando con un problema curioso, che non sto riuscendo a capire da cosa sia causato.
In GSC mi sono spuntate una serie di URL del tipo esempio.com/Prova1.html che vengono incasellate sotto la voce "Alternate page with proper canonical tag". Queste URL rispondono sempre 200.
Le URL, infatti, mostrano correttamente il canonical verso la loro versione con la minuscola (esempio.com/prova1.html).
La referring page di queste URL, stando a GSC, è la stessa pagina con URL maiuscola.Il dominio in questione è stato pubblicato il 4 di ottobre, quindi escluderei che queste URL fossero presenti da qualche parte nel sito in una data precedente, ma una scansione con la rana non mi costa nulla.
Ho comunque fatto già una scansione della sezione nuova e confermo non ci siano URL con uppercase. Stesso discorso per un'analisi manuale del DOM e del sorgente di alcune pagine prese a campione.
Non ci sono, tantomeno, link verso pagine con la maiuscola, indagati da Ahrefs.Qualcuno ha qualche idea per un'ulteriore indagine possibile? Grazie mille!!
-
RE: Titolo seo con nome sito
@sermatica Da quanto capisco mi pare che sia direttamente WP che aggancia o un plugin, non che sia il comportamento di Google di riscrittura.
@mirellag Se il nome del sito lo vedi solo su Google, allora è quello che dice @sermatica e non puoi farci molto; forse giusto essere più coerente nelle varie parti che potrebbero diventare title, ma probabilmente su WP è già così.
Altrimenti c'è qualcosa dentro Yoast che imposta il placeholder di default.
-
RE: Link Bulding per concessionaria Auto
@kal ha detto in Link Bulding per concessionaria Auto:
Poi, certo, PG ti mette anche il link... e se non mi sbaglio è un link follow.
Se paghi è follow, se no è nofollow.
Quello che è gratis sono le chiamate dal loro call center. -
RE: Estrazione referring domains da lista di URL
Ciao @juanin @kal @walid, grazie per le risposte!
Sì esatto, intendevo tutti i siti che linkano un certo gruppo di pagine, non quelle che mandano traffico.Ok @walid grazie, immaginavo comunque. Alla fine ho seguito quello che dicevi. Visto che l'output lo avevo ma non come volevo, me lo sono costruito in python, però speravo Ahrefs fosse un po'più potente del "livello base" =D
Grazie a tutti!
-
Estrazione referring domains da lista di URL
Ciao a tutti!
Vi scrivo per chiedervi: conoscete un tool con cui estrarre i singoli referring domains per una lista di URL?
Vorrei arrivare ad un output del tipo:
URL_1 | RD_1,RD_2,RD_3...
URL_2 | RD_1,RD_2,RD_3...
URL_3 | RD_1,RD_2,RD_3...Provato con la batch analysis di Ahrefs e via API, sempre Ahrefs, con la ranocchia ma non mi pare fornisca questa informazione (o non l'ho vista io...).
Devo passare dalle API o da roba tipo DataForSEO o c'è un modo più comodo?
Grazie! -
RE: Pagine generate a CDC e Campagne DSA
@kal Uh giusto giusto che posso impostare la regola robots per AdsBot! Da come mi è stata descritta la situazione si dovrebbe poter fare, però non ho visto il cantiere, quindi non ne ho la certezza.
In ogni caso, ricollegando le informazioni nel racconto, mi torna eccome!Grazie mille!
-
RE: Un SEO senza Dev
@matteobasile Ciao Matteo, una considerazione laterale rispetto alle risposte corrette già date da @sermatica e @shazarak.
A mio avviso, parte della competenza di un SEO sta anche nel sapere dove fermarsi, e consigliare il cliente nel rivolgersi (o trovare per lui, pure meglio) uno sviluppatore o un'agenzia in grado di seguirlo nella ristrutturazione del sito.
A volte potrebbe essere anche semplicemente adeguata una revisione, senza farlo da zero.
Questo, naturalmente, non vuol dire che tu non debba capire o imparare come porre rimedio a questi problemi, però anche sapere quali altre soluzioni puoi portare al cliente per facilitargli la vita sono parte delle competenze di un bravo professionista, IMO.
-
Pagine generate a CDC e Campagne DSA
Ciao a tutti,
Non mi occupo (più) di ads quindi potrei scrivere qualche castroneria, abbiate pietà =D.
Un amico è giunto da me con un quesito interessante di cui non sapevo la risposta, quindi ho pensato di chiederlo a Connect.
Nel caso di generazione di pagine inutili in maniera massiva (per n mila motivi) sarebbe possibile evitare di far vedere queste pagine ad una campagna DSA tramite l'applicazione di canonical, in attesa dell'applicazione della soluzione vera e propria (rimozione ed impostazione di regole per evitare la generazione)?
AdsBot legge i canonical o li snobba come "roba SEO"?
Da una ricerca pare di no, però i risultati erano datati, e magari qualcosa nel tempo è cambiato.Taggo @kal perché so che ti occupi sia di SEO che di Ads Martino, ma chiunque è il benvenuto!
Grazie mille a chiunque vorrà rispondere
-
RE: Errore 400 libreria per scrape GSC da Google Colab (Python)
Ciao Ale, grazie mille intanto per la risposta!
API confermo che sono correttamente abilitate, sto iniziando a pensare che possa essere un problema di account o di destinazione dell'OAuth.
Ne devo riprovare qualcun'altro oggi, alla peggio cambio account.Il nervoso delle autorizzazioni mamma mia =D
-
RE: Trova risultati su...
@merlinox Il risultato di Marco Togni è veramente curioso...
Quel tipo di box l'ho visto spesso, ma solitamente sono presenti directory (Europages) o siti come Subito ed Idealo in quanto comparatori.Il sito di Marco, però, è un risultato insolito, perché apparente si tratta di un sito "piccolo", anche se sicuramente molto ricco di guide e risorse, però non me lo sarei aspettato.
C'è poi da dire, forse, che l'essere in Italia impatta. Qui torna normale ed adeguato: https://www.google.com/search?q=cameras+shops+ny
-
Errore 400 libreria per scrape GSC da Google Colab (Python)
Ciao a tutti!!
Stavo provando ad estrapolare qualche dato da GSC tramite questa (https://github.com/joshcarty/google-searchconsole)L'autorizzazione, tuttavia, risponde 400.
Qualcuno ci si è imbattuto e ha trovato una soluzione?
@sermatica so che usi Python, magari hai qualche idea, o una libreria sostitutiva da suggerirmiGrazie mille a chi vorrà aiutare!!
-
RE: Stime di risultati da attività SEO
@costantion ha detto in Stime di risultati da attività SEO:
@alessandro_dandrea ciao, grazie per il tuo riscontro.
Mi hanno dato una pagina di un servizio business da migliorare nei prossimi 6 mesi.
Attualmente da gennaio a giugno, questa stessa pagina ha generato:
5 clic, 7129 impression, 0,1% CTR media, 49,1 posizione media
Mi hanno chiesto di stimare in due giorni quanto potrei riuscire migliorare nei prossimi 6 mesi il traffico organico ed aumento del CTR. Di quest'ultimo, stimare quanto si potrebbe alzare e migliorare.Allora, ci sono tre punti nella risposta che posso darti, ma che in generale puoi applicare:
- Entro quanto > Questo purtroppo non lo puoi sapere. Puoi avere un'idea se hai abbastanza padronanza del verticale, ma non c'è nulla che tu possa fare per sapere esattamente cosa succederà tra 3 mesi, 6 mesi o 1 anno.
Questo, però, non ti impedisce di fornire delle cifre potenzialmente raggiungibili, anche se appunto si tratta di stime.
Quindi appunto, la prima cosa è chiarire che sono stime e non oracoli.
A livello personale (quindi quando faccio una stima io) di solito parlo di risultati entro l'anno, perché solitamente questo è il timeframe che meglio rappresenta la stima, ma dipende da dove devi arrivare, da dove parti, e quanto sei sicuro delle potenzialità del tuo sito e della tua pagina.
Se punti a rankare primo su "assicurazione auto" e parti da zero forse ci può volere di più. Se parti da zero e punti a rankare su una long tail super specifica e poco presidiata, magari in tre settimane te la cavi.
Però non c'è scienza in ciò, solo grandi linee.-
Miglioramento del CTR: io considererei intanto su cosa ti interessa rankare, o su cosa può realisticamente rankare la pagina.
Ciò posto, puoi migliorare il CTR o migliorando la posizione media, o tramite elementi nello snippet.
Se hai già uno storico di risultati di miglioramento percentuale di CTR da elementi aggiuntivi dello snippet, puoi buttarlo nella stima.
Per la posizione media, puoi stimare che arrivando a x, potrai ottenere y traffico in più. Devi in sostanza avere idea di cosa puoi fare per migliorare la pagina attuale.
Se hai dei dati di impression e CTR di GSC da usare, e che puoi riorganizzare per tipo di query, tipo di pagina, tipo di qualcosa, usa quelli.
Altrimenti, non va neanche troppo male la stima che ti butta fuori Ahrefs. Magari suddividila per range di posizioni tipo top 3; 4-7; 8-10, che almeno il numero è più plausibile.
Chiaro che devi essere critico sul risultato raggiungibile. Questo di solito vuol dire non pensare di arrivare primo. O anche sì, dipende da dove parti e su cosa vuoi competere. C'è anche da dire che se fai una stima da primo è facilissimo essere sotto stima a fine periodo. Se fai una stima da decimo sarà facile essere sopra, ma magari manco inizia il lavoro perché il traffico prospettato è troppo basso. Trova una cifra possibile come giustamente diceva @kal . -
Bonus point. Questo te lo metto perché, vista la domanda, secondo me ha senso fare il passo in più, anche e soprattutto considerando l'interlocutore (da quello che scrivi, eh
). Prendi il dato di CR organico della pagina. Se è 0, il dato di CR della famiglia di pagine di cui fa parte. Se proprio sei disperato, del sito.
Appiccichi al traffico il CR estratto, e inizi a parlare di lead/vendite/revenue. A quel punto, hai una stima annuale di ritorno da organico che puoi usare.
- Entro quanto > Questo purtroppo non lo puoi sapere. Puoi avere un'idea se hai abbastanza padronanza del verticale, ma non c'è nulla che tu possa fare per sapere esattamente cosa succederà tra 3 mesi, 6 mesi o 1 anno.