• Admin

    Guarda le parole di John non fanno altro che confermare ciò che almeno lato mio provo a trasmettere da tempo...ossia: "Non devi posizionarti. Devi meritare di posizionarti!" ed è per questo che non ha neanche senso intercettare audience, termini, ricerche etc etc etc dove tu non sei né la risposta né la cosa cercata. Con buona pace di chi pensa che la cosa importante sia il traffico.

    La storia insegna che tendenzialmente la tecnologia da dovunque tu la guardi è sempre indietro. Google incluso.

    Per questo a maggior ragione, sì devi fare le tue analisi per incrementare traffico, revenue etc, ma devi anche saper depennare ciò che non è necessario (perché è un costo che può portare un beneficio immediato, ma effimero e fittizio).

    Io sono convinto che molti ambiscano alla crescita del traffico senza neanche metterlo in bilancio con l'effettivo utile che può generare. Spesso se fai i conti in modo serio ti accorgi che nel 90% dei casi un aumento di traffico porta più spese che ricavi.

    Se riduciamo le nostre attività su KPI ben misurabili e che impattano veramente il business forse non staremmo neanche qui a raccontarci queste storie di "Core algo update".

    Chi viene colpito e ha basato un business sul nulla probabilmente è consapevole di aver lavorato su un terreno minato, pieno di rischi e buche. Se non ne è consapevole e cade dal pero allora significa anche che è un po' incosciente. Poi ci sono i casi particolari ovviamente dove probabilmente Google può sbagliare, ma ritengo che siano una piccola minoranza.

    In aggiunta a questo si pensa sempre di essere stati penalizzati in questi casi, ma molti dimenticano che esiste un mercato la fuori che si muove e dove siti nuovi nascono e vecchi spariscono. In questo contesto un Google che evolve con grande facilità riuscirà a rimescolare le carte anche di molto se trova nuovi siti/contenuti interessanti per rispondere a determinati intenti.

    Per concludere dunque quello che dovremmo effettivamente monitorare con più attenzione sono indicatori di biz, ma anche indicatori qualitativi di soddisfazione dei nostri visitatori...che è poi la stessa identica cosa che fa Google per cercare di rendere felici i "cercatori".


  • Community Manager

    @Juanin said:

    Io sono convinto che molti ambiscano alla crescita del traffico senza neanche metterlo in bilancio con l'effettivo utile che può generare. Spesso se fai i conti in modo serio ti accorgi che nel 90% dei casi un aumento di traffico porta più spese che ricavi.

    Credo che tu abbia ragione al 100%.

    Il problema infatti è che accumuliamo in tanti anni posizionamenti che non meritiamo più, che non ci portano poi granché e quindi questo parametro dopo tanti anni rischia di gonfiare molto i dati.

    Non so quanti webmaster saprebbero rispondere alla domanda: quante sono le tue pagine indicizzate, che generano traffico organico e che sono utili al tuo progetto per gli obiettivi che ti sei fissato?


  • User

    Dei siti che monitoro io, quelli in cui vi sono sia pagine con contenuti transazionali che informazionali non hanno registrato cali e in alcuni casi un netto miglioramento. I siti con contenuti prevalentemente informazionali presentano un traffico sostanzialmente inviariato (in alcuni casi è migliorato, ma non reputo le cose correlate). I siti con contenuti prevalentemente o solo transazionali hanno registrato una perdita di traffico organico tra il 10% e il 30% ed anche un peggioramento della posizione media su diverse short keyword, ma ad inizio di questo mese registro un lieve miglioramento.

    Da questa esperienza ho compreso, anzi ho confermato ciò a cui già ero arrivato da tempo, che è meglio puntare su entrambe le tipologie di contenuto in modo da rispondere a più intenti di ricerca e soddisfare in ogni caso l'utente sia che voglia informarsi, sia che voglia acquistare.

    Infine, non credo che sia qualcosa ancora di definitivo e che sostanzialmente i siti colpiti (basandomi soprattutto sui prospect ricevuti ad Agosto) hanno problematiche strategiche e strutturali che si portano dietro da anni e che quindi il calo sarebbe cmq arrivato o prima o poi.


  • User Attivo

    @Giorgiotave said:

    Ma ti torna con quanto detto sull'intento? Questi siti sono informativi? Secondo me quando Marco Quadrella dice che il transazionale viene sostituito dall'informativo perché comunque su Google Ads c'è molto transazionale non sbaglia di molto 🙂

    Guarda Giorgio, francamente non mi torna.

    La pagina che ha perso posizionamento ha sia contenuti informativi che transazionali, ed è www punto santenaturels.it/argento-colloidale
    per la kw "argento colloidale". Passata da 3° posizione a fine seconda pagina.

    A livello di link è super autorevole (molti siti in prima, seconda e terza pagina per la stessa kw la linkano).

    Come contenuti mi pare sia molto valida.

    Proverò a spostare più in basso i prodotti, magari, e a sistemare noindex ecc.
    Ma, in tutta franchezza, non vedo nulla che non vada.

    Ovviamente ogni opinione è benvenuta 🙂


  • User

    Errata corrige: con l'evoluzione della discussione ho fatto qualche analisi più approfondita ed effettivamente ho rilevato alcuni trend che sembrerebbero confermare l'ipotesi di Marco in merito ad maggior peso dato da Google a contenuti informativi rispetto a contenuti transazionali commerciali.

    A partire dal 1 Agosto un nostro competitor ha avuto un netto guadagno di traffico generalizzato (circa il 25%) e nello specifico ci ha superato su alcune query chiave sulle quali abbiamo sempre concorso e nella maggior parte dei casi avevamo quasi sempre avuto la meglio.

    Per ogni query dove siamo stati superati (saranno più o meno una decina) abbiamo perso 1, massimo 2 posizioni, passando ad esempio da posizione 1 a posizione 2 o da posizione 2 a posizione 3; per questo nel complesso l'aggiornamento di Google è stato complessivamente "invisibile" per noi: nel computo totale non abbiamo perso quasi nulla.

    La differenza fra le nostre pagine e quelle del nostro concorrente è però abbastanza evidente: le nostre pagine hanno un contenuto maggiormente transazionale, con una lunga lista di prodotti pronti per essere aggiunti a carrello ed un contenuto informativo a fare da contorno; le pagine del nostro concorrente invece hanno un contenuto transazionale ed un focus molto più improntato su contenuti informativi.

    Nel confronto diretto su una specifica query, dove prima eravamo davanti, oggi siamo dietro.

    Sottolineo che il nostro sito non ha nulla a che fare con tematiche mediche, è un e-commerce di moda.


  • Community Manager

    Filippo in questi giorni la controllo, promesso, sono curioso.

    Pelpa grazie di questo tuo contributo 😉

    Segnalo a tutti che Ivano di Biasi ha aggiornato i dati di SEOZoom e le sue idee https://www.seozoom.it/google-update-del-1-agosto-2018-winner-e-loser/


  • User

    Stavo per entrare nella discussione postando le mie riflessioni, mi hai anticipato 🙂 Il mio studio è ancora in fase embrionale, sto lavorando su più fronti su uno dei siti più colpiti in assoluto dal core update, circa 2.000.000 di visite segate, ma attendo i risultati del mio lavoro. Per ora ho recuperato poco, solo 100.000 visite su 2.000.000, ci vorrà tempo. Spero più in la di riuscire a dare un contributo più concreto e con qualche dato in più, è troppo presto.

    Al momento, dopo il lavoro svolto, vedo dei netti miglioramenti (immagine) , ci sono circa 30 pagine di keyword di questo tipo, dal nulla alla prima pagina ma attendo ancora un po' prima di cantar vittoria 🙂

    image

    Appena ho qualche altra informazione interessante la condivido con piacere.


  • Admin

    Vorrei anche aggiungere che non necessariamente, in questo contesto caotico, alcuni cali siano sempre dovuto a un solo aggiornamento algoritmico.

    Tra gli esempi papabili ci sono ad esempio, sempre parlando di contesto e intenti, anche le ricerche geolocalizzate o dove il motore evince tale necessità. In quei casi anche ricerche che prima portavano a centinaia di click potrebbero disperdersi in tanti piccoli frammenti geo.


  • User

    Questo potrebbe interessare un po' a tutti per capire cosa sta facendo Google, lo avevo scritto la settimana scorsa e ieri è uscito questo articolo interessante 🙂


  • Community Manager

    @Juanin said:

    Vorrei anche aggiungere che non necessariamente, in questo contesto caotico, alcuni cali siano sempre dovuto a un solo aggiornamento algoritmico.

    Grazie per averlo ricordato Andre. Ovviamente ci sono tanti che segnalano cali e magari sono dovuti a tanto altro come dici 🙂


  • Admin

    Come diceva Marco sopra ha senso guardare anche cosa avviene lato AdWords e il link di Ivano parla di AdWords non di organico.


  • User

    No no parlo di organico, adwords è un mondo inesplorato per me 🙂


  • User

    Le novità di Adwords però saranno attive solo da ottobre e solo per la lingua inglese; per l'italiano seguiranno non si sa quando. Ed onestamente questo cambiamento nella gestione della corrispondenza esatta mi sembra solo l'ennesimo stratagemma di Google per aumentare i suoi ricavi.


  • User

    Scusami non avevo capito a quale link ti riferissi, vero parla di adwords ma credo che gli algoritmi che creano li utilizzino anche per l?organico, soprattutto su questioni così delicate come il search intent che influisce drasticamente sulla qualità delle risposte che da Google


  • Admin

    A quello che avevi messo tu 😄

    Cmq si sono d'accordo con te che molte cose tendono a fondersi o comunque influenzarsi.


  • Contributor

    Sicuramente una cosa di alto livello come il riconoscimento dell'intento dell'utente tramite machine learning è una cosa che mi aspetto venga utilizzata su più asset aziendali, se funziona. Non so quanto sia correlata con l'argomento in essere, comunque. Senza contare che da quanto ho capito al momento il rollout lo fanno solo sull'inglese, quindi ha l'aria di essere una cosa ancora in stadio sperimentale.

    Tornando in topic, ho riguardato i dati di GSC del sito a cui ho accennato sopra. Ha avuto effettivamente un aumento repentino ad agosto ed è in larghissima parte da attribuire alla numerosità delle query. La posizione media ha avuto solo un lievissimo miglioramento, mentre il CTR è addirittura calato. Le impressioni (e di conseguenza i clic) hanno avuto invece un bel botto... non ho avuto il tempo di calcolare la query diversity ma mi sento abbastanza tranquillo sul fatto che sia aumentata in modo netto ed inequivocabile la copertura sulle query.

    image

    Unico dettaglio: a crescere così è stato il** forum collegato** e non la parte informativa di news.

    Quindi nettamente in controtendenza rispetto alle supposizioni fatte finora. Mi riservo di fare ulteriori analisi.


  • User Attivo

    @Giorgiotave said:

    Filippo in questi giorni la controllo, promesso, sono curioso.

    La modifica principale che sto facendo è questa: il sito ha molti contenuti in disallow (pagine cart, search ecc), che però sono all'interno della sitemap.
    Il risultato è che sono tutte pagine indicizzate, anche se google scrive in serp che non ha informazioni sui contenuti a causa del disallow sul robots.

    Ciò che sto facendo è quindi rimuovere le pagine in questione dalla sitemap e aggiungervi il noindex all'interno. Sto inoltre rimuovendo il disallow, in modo tale che Google possa accedere al contenuto delle pagine e leggervi il tag noindex.

    Inoltre sto eliminando i canonical dalle pagine in questione (dato che i canonical erano generati male in automatico e contrastano con la direttiva noindex).

    Te l'ho scritto nello specifico perchè mi piacciono i case study, e mi piace essere più particolareggiato possibile.

    Un abbraccio 🙂


  • Contributor

    Piccolo aggiornamento con una riflessione... ho confermato che l'aumento nel mio caso è dovuto ad un apporto di visibilità per query nuove, non di brand. Ed in larghissima parte si tratta di query *anonimizzate *da Google Search Console. Evidentemente si sono "liberati" dei posti in un gran numero di SERP anche su chiavi di coda lunga.

    E di certo il *vulnus *non sta nella qualità dei risultati, perché il forum è di quelli spammosi forte dove su 50 pagine di discussione, 51 sono flame:fumato:.

    Purtroppo con solo un esempio lampante di impatto sotto mano non voglio sbilanciarmi di più, finirei sicuramente a fare supposizioni sull'aria fritta. Di certo comunque mi pare che la "qualità" dei siti sia da escludere come fattore, tanto positivo quanto negativo.

    Che poi, non è nemmeno strano: non si tratta di un "quality update", ma di un "broad core update".

    Insomma: non è un nuovo filtro antispam/levafuffa, è proprio un modo nuovo di ordinare i risultati.


  • User

    @ACweb said:

    Secondo me non bisogna fare le cose per Google, ma neanche per noi stessi: bisogna farle per chi dovrà usufrirne, dando informazioni utili agli utenti....

    .....senza dimenticare la UX e senza tentare di "fregare" il motore di ricerca, ma indagando sulle cause tecniche e facendo le modifiche appropriate.

    Sto seguendo un cliente nel settore arredamento che mi ha contattato perché ha subito un calo disastroso.
    Sue parole testuali "Quello che non capisco è che il mio competitor diretto mi copia ed è ancora li, anzi, mi ha sorpassato"

    Ecco, il competitor non l'ha sorpassato, è lui che è sceso.
    Il competitor è in https, è mobile friendly, ha microdati, opengraph, ha una struttura decentemente navigabile, ha contenuti sufficienti, è presente su forum e social, ha G. my business, ecc.ecc.ecc.

    TUTTE, ma dico TUTTE queste cose mancano al mio cliente.
    UX, solo UX, benedetta UX.


  • Community Manager

    @Filippo Jatta said:

    La pagina che ha perso posizionamento ha sia contenuti informativi che transazionali, ed è www punto santenaturels.it/argento-colloidale
    per la kw "argento colloidale". Passata da 3° posizione a fine seconda pagina.

    Ho visto la situazione, mi diresti chi invece è salito?

    Ti confesso una difficoltà oggettiva di questo caso già presente nelle tue parole: due tipologie di intenti nella stessa pagina.

    Ci possono stare? Certo che ci possono stare, per esempio Tripadvisor lo fa benissimo.

    Il problema è che non riesco a intuire come Google potrebbe trattare la cosa, ma prometto di studiarla.

    È sicuramente difficile. Perché qui c'è da capire veramente tanto.

    Mi sono fatto le seguenti domande:

    • [argento colloidale] che tipi di risultati offre?
    • [argento colloidale] che intenti riconosce Google di quelli che sappiamo noi?
    • [argento colloidale] cosa vuole davvero l'utente?
    • [argento colloidale] se c'è un doppio intento, e per me c'è ed è palese, quale dei due Google predilige
    • [argento colloidale] Google Ads e Shopping sono ora considerati nell'intento transazionale diminuendo quindi quei contenuti a favore degli informativi?
    • nelle pagine con due intenti di questo tipo, come fa Google a concecipere qual è l'intento? Ne assegna uno? due?
    • se ne assegna due sono equamente divisi o in percentuale rispetto ai contenuti della pagina?
    • il main content è quello che determina una percentuale maggiore in questo caso?
    • l'intento generico del sito influisce sugli intenti delle singole pagine quando ci sono due intenti?

    Insomma...non ne esco, ma ci si può studiare almeno 🙂