@giorgiotave ha detto in La SEO è morta. Ahahahahhahahahah:
Posso dire che già ora stanno arrivando?
Incredibile eh
Eh, ci avrei scommesso guarda.
Specialista di Search Marketing e Digital Analytics dal 2006, freelance dal 2011.
Non si smette di giocare perché si invecchia, si invecchia perché si smette di giocare.
@giorgiotave ha detto in La SEO è morta. Ahahahahhahahahah:
Posso dire che già ora stanno arrivando?
Incredibile eh
Eh, ci avrei scommesso guarda.
Ok, a questa direi che possiamo anche credere.
Siete pronti ad aggiornare le quotazioni al rialzo?
Perché non c'è neanche un modo in cui il mercato può assorbire un aumento della domanda come questo. Parliamo di un aumento del 200% su alcune query negli ultimi 3-4 mesi.
E no, neanche con gli assistenti LLM ad abilitare nuove schiere di improvvisati, che sono talmente esperti di SEO che ora si vendono come "GEO", termine che il mercato comunque non cerca (se non in modo del tutto marginale)!
Ora, detto chiaro: c'è una forte domanda di servizi "economici". Solo che la SEO fatta bene non è economica, richiede esperienza, ragionamento, strategia, visione di lungo periodo. Tutta roba costosa.
Scenario pratico: moltissime aziende si rivolgeranno innanzi tutto alla fascia bassa del mercato, quella abilitata dagli LLM (che esegue e non comprende davvero quello che sta facendo).
Finiranno scottati (perché sì, tutti noi che con gli LLM ci lavoriamo, sappiamo che verranno scottati e anche malamente...).
E poi chiameranno qualcuno per aggiustare
Non mi risulta ci sia un modo. Solitamente in ambiente Google puoi passare le cose da un account all'altro, se il tool permette il multi account e la gestione dei ruoli (ad esempio, Google Ads e Google Analytics, Google My Business... permettono questa cosa).
Gemini non ha nulla di tutto questo. Mi spiace!
@iofolle qua ci vogliono due cose:
In questo modo hai la 1° posizione garantita (e probabilmente pure la citazione garantita su AIO/AI Mode) con il sito proprietario, che sperabilmente dovrebbe aiutare a risolvere il problema dell'evidente danno alla reputazione.
Questo finché l'avvocato al punto 1 non ha risolto la cosa alla radice.
Ma sul serio, non fate nulla senza il consiglio e il supporto di un avvocato, è importante.
Dunque... a parte che LCP a me sembra apostissimo:
Come vedi da Lighthouse LCP coincide con FCP... questo vuol dire che la pagina compare ASSIEME TUTTA INTERA.
Per questo vedi il testo segnalato come elemento LCP...
Questo vuol dire che non c'è molto altro da fare, è davvero veloce e reattivo, senza impatti particolari o grossi colli di bottiglia dovuti a codice eseguito lato client.
@crusaders500 che puoi tranquillamente ignorare la cosa!
È insolito che una pagina feed sia classificata con quel tipo di errore su GSC (solitamente vengono classificate come "scansionata ma non indicizzata")
Ad ogni modo, la "soluzione" a mio parere è questa:
@crusaders500 ha detto in Problema GSC | Pagina duplicata senza URL canonico selezionato dall'utente:
oppure trascuro l'errore
@kal ha detto in Il Garante Privacy del Belgio multa IAB Europa per 250.000€ a causa di TCF:
Quindi, IAB non legalmente responsabile... ma il protocollo salta.
@juanin diciamo che era ampiamente prevedibile
Perbacco, c'è la sentenza di Appello!
EU ruling: tracking-based advertising by Google, Microsoft, Amazon, X, across Europe has no legal basis
Landmark court decision against “TCF” consent pop ups on 80% of the internet
Google, Microsoft, Amazon, X, and the entire tracking-based advertising industry rely on the “Transparency & Consent Framework” (TCF) to obtain “consent” for data processing. This evening the Belgian Court of Appeal ruled that the TCF is illegal. The TCF is live on 80% of the Internet.
@giorgiotave a volte sembra veramente di vedere la reinvenzione della ruota.
E se l'hanno cestinato, probabilmente un motivo c'era.
@crusaders500 ha detto in Gestire 7000 URL inutili in GSC:
e ho richiesto la rimozione degli URL che non sono più presenti.
Questa cosa non è necessaria
O meglio: è puramente cosmetica lato Google Search Console, ma Googlebot fa comunque quello che gli pare
Comunque hai fatto bene a chiedere!! I forum esistono apposta
Bene che hai rimosso i link interni, già questo ti risolve il 99% dei problemi.
@crusaders500 ti dico cosa farei io:
Googlebot quando passerà sulle vecchie URL pian pianino le aggiornerà con quelle nuove esistenti sul sito e le rimuoverà (coi suoi tempi) dai risultati di ricerca sostituendole con le pagine di destinazione.
Nel frattempo, gli utenti che per caso cliccassero su qualche vecchia URL... verranno rediretti velocemente lato server.
@crusaders500 ha detto in Gestire 7000 URL inutili in GSC:
Purtroppo non sono riuscito a togliere il redirect 301 meta refresh che fanno verso un'altra pagina. Però sul sito non esistono più
Aspetta aspetta aspetta.
Con ordine.
meta refresh non è un redirect 301.
meta refresh è un'istruzione di markup HTML lato client.
Googlebot storicamente legge e onora il meta refresh "come se fosse un 301", ma non è strettamente parlando un 301.
Per essere onorato, Googlebot deve poter accedere alla risorsa E fare il parsing dell'HTML (quindi assolutamente NON bloccare con robots.txt come suggerito dall'altro utente, sarebbe un errore!!).
Cosa diversa il 301, per il quale Googlebot non deve fare il parsing dell'HTML ma solo degli header HTTP (e fra parentesi: se sono pagine PHP, il redirect lato server lo puoi impostare DIRETTAMENTE NELLO SCRIPT PHP).
Che intendi però con "non esistono più"? Non hanno più link interni? O qualcos'altro?
Le hai tolte e vanno un 404?
Sei a posto, non devi fare nient'altro. GSC si aggiornerà quando gli pare
Uh, bellissima allucinazione LMAO!
Beh, questi sono problemi potenzialmente irrisolvibili.
E secondo me non si risolvono manco nel modo che dice @giorgiotave perché comunque per inserire l'azienda nel contesto serve una COMPRENSIONE del contesto... ma un LLM non "comprende" il contesto.
Concatena token.
Genera testo statisticamente correlato tramite relazioni in uno spazio di embedding.
Per generare cose "reali" deve fare "function calling", che è comunque una cosa con dei limiti ed in ogni caso non è quello che un LLM è progettato per fare.
Non mi aspettavo niente di meno. A tendere mi aspetto che siano TUTTE cachate. A parte per le query "nuove". In pratica è un "super featured snippet generator", ma non ha senso che venga generata a runtime ad ogni query, in particolar modo sulle SERP più "stabili".