Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. emizz
    3. Post
    E

    emizz

    @emizz

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 8
    • Post 69
    • Migliore 1
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Sito Internet www.linkedin.com/in/emiliocalvano/
    15
    Reputazione
    69
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    Post creati da emizz

    • Surfare con le news su Google Discover: genesi di una notizia e il fattore culover

      Era da tanto che non scrivevo nulla sul forum di Giorgio, in verità l’ultima volta si chiamava ancora Forum GT 🙂
      Ho deciso di scrivere un articolo, che poi non è un vero e proprio articolo ma sono solo delle considerazioni ed opinioni personali, sul funzionamento di Google Discover, dopo che una news è stata pubblicata ed inizia a fare le prime visite con questo incredibile “strumento” di diffusione di notizie personalizzate.

      Di cosa non parlerò?
      Non parlerò di come entrare in Discover, delle caratteristiche di un sito vincente, del perché il mio sito non è più presente, delle penalizzazioni, delle tecniche efficaci per fare millemila visite, dei titoli clickbait o non clickbait, etc.... Lo scopo di questo post è riportare la mia esperienza quotidiana con questo strumento che utilizzo, anzi con cui lotto, quotidianamente per portare a casa visite su vari siti che sono già presenti su Discover. Vorrei instaurare una discussione, che credo possa accrescere la conoscenza di tutti, relativamente a questo fantastico veicolo di traffico.
      Non prendete per oro colato quello che scrivo. Sono solo ipotesi e analisi empiriche, frutto del mio lavoro quotidiano di reverse engineering della black box denominata Google Discover.
      Si tratta di uno degli algoritmi più affascinanti e complessi messi in piedi da Google che combinano fattori classici di indicizzazione, con aspetti social e presumibilmente di machine learning.

      Cosa succede quando pubblico una nuova news?
      Entriamo nel vivo del discorso.
      Finalmente ho redatto la mia news e la mando in pubblicazione.
      Qui parte il countdown, in attesa della prima visita da Discover.

      Tips: ci sono degli strumenti di analytics real time molto più precisi di GA4 per verificare se un sito è su Discover o meno. Ne cito un paio che utilizzo quotidianamente. Premetto che nessuno mi ha pagato per citarli 🙂
      Parlo di Chartbeat e Publytics. Chartbeat etichetta già il traffico Discover (o almeno quello che riesce ad intercettare) mentre Publytics no. Su Publytics però, se iniziamo a notare del traffico diretto su una nuova news insieme a del traffico Google, è probabile che siamo entrati su Discover (ma non è scientifico: ci vuole un po’ di occhio ed esperienza per verificare al volo la presenza su Discover).
      Perché parlo sia di traffico diretto, sia di organico?
      Perché le visite Discover provengono sia direttamente dai click sul feed di notizie, sia dalle notifiche che Google stesso invia ai telefonini. Queste ultime rimandano ad una SERP di Google con una ricerca specifica (presumibilmente l’entità estrapolata dall’articolo e selezionata come attinente per il profilo Discover dell’utente) con il nostro articolo in prima posizione, evidenziato. I click provenienti da lì, generalmente, sono identificati come Google Organic, ma dipende molto dalla capacità dello strumento di analytics utilizzato di intercettare queste visite e di classificarle.

      Le prime visite da Discover iniziano ad arrivare a distanza di pochi minuti o qualche ora o addirittura il giorno dopo. La velocità con cui Discover inizia a portare traffico ad una nuova news, per uno specifico sito, varia in base a molti fattori: la velocità di indicizzazione del sito, il numero di news pubblicate giornalmente, il trust del sito, etc… Non c’è un fattore certo. A volte, per il medesimo sito, questa velocità varia anche leggermente per ogni singola news (5 minuti / 1 ora o più; oppure 3 ore / 8 ore).
      Quello che è certo è che siti come Repubblica o Corriere appena pubblicano una news hanno MOLTE più possibilità di entrare immediatamente su Discover, mentre le news del blog della casalinga di Voghera (ammesso che ci vadano) impiegheranno più tempo. Ma anche questo non è sempre vero. Ho lavorato su siti di news con un trust medio-basso che indicizzavano le news in maniera incredibilmente veloce ed entravano su Discover dopo pochi minuti. Qui poi dipende molto dai vari tecnicismi che ognuno implementa e dai propri segreti o trucchetti scoperti lavorandoci quotidianamente. Senza dimenticare il fattore culover 🙂

      Iniziamo quindi a ricevere le prime visite da Discover.
      Che succede ora?
      Le visite iniziali sono poche. Google ci ha inserito in una specie di Sandbox: un limbo in cui testa il nostro articolo su un sottoinsieme di utenti i cui interessi sono presumibilmente attinenti agli argomenti della nostra news.
      Qui ci giochiamo tutto!
      Se l’articolo funziona, ha un buon clickrate, viene letto fino alla fine, non viene segnalato come poco attinente, ha un bounce rate basso, è una novità ed un argomento in trend in questo momento, etc… allora abbiamo fatto un bel terno!
      Google inizierà a estendere il pubblico e inizieremo ad avere molta più visibilità su Discover con il nostro articolo e a ricevere molto più visite: verrà mostrato man mano a molti più utenti nel feed e Google invierà molte più notifiche nei telefonini.
      Perché ho scritto che abbiamo fatto un bel terno e non bingo o tombola?
      Poiché la strada è ancora in salita su Discover, non abbiamo ancora vinto la nostra lotteria.

      Il ciclo di vita di una news su Discover
      Inizia la seconda fase di valutazione. Non è più una valutazione preliminare, ma una valutazione effettiva dei risultati della news che sta girando su Discover.
      I fattori che analizza Google per il mantenimento della news nel feed sono sempre gli stessi (ha un buon click rate, viene letto fino alla fine, non viene segnalato come poco attinente, etc…) ma questa volta su un pubblico molto più vasto.
      Sapete qual è la cosa bella? E’ che questo pubblico crescerà esponenzialmente se le premesse delle valutazioni fatte da Google in precedenza verranno mantenute: se riusciremo quindi a mantenere il più possibile alti questi fattori nel tempo.
      Se Google vede che allargando il pubblico continuiamo ad ottenere sempre dei buoni risultati, allora continuerà a mostrare la news a sempre più persone.
      E’ chiaro che si arriverà ad un certo punto ad un limite massimo. Nel senso che la news che avete scritto è impossibile che interessi a tutti ed è difficile che rimanga sempre in trend. Man mano che il pubblico diventerà sempre più vasto e meno di nicchia, diminuirà l’interesse specifico nella news e quindi diminuirà anche il click rate e tutti i vari parametri citati sopra, quindi la news inizierà ad avere i primi segni di cedimento.
      La cosa bella è che questi segni di cedimento potrebbero verificarsi a distanza di molte ore o addirittura dopo due o tre giorni. Dipenderà molto dalla news stessa e sempre dall’importantissimo fattore culover (tra poco vi spiegherò perché).
      Possiamo dire quindi che una lunga permanenza su Discover dipenderà unicamente da quanto è mainstream la news (maggior numero di utenti interessati ad essa), da quanto rimarrà in trend come argomenti e dal click rate (insieme agli altri fattori suddetti).

      Il fattore culover
      Arriviamo finalmente alla spiegazione del perché il fattore, che io ho denominato culover, è molto importante.
      Ho scritto precedentemente:
      Google ci ha inserito in una specie di Sandbox: un limbo in cui testa il nostro articolo su un sottoinsieme di utenti i cui interessi sono presumibilmente attinenti agli argomenti della nostra news.
      Qui ci giochiamo tutto!
      E allora cosa succede se Google sbaglia nel mostrare la nostra news al sottoinsieme di utenti iniziali, ipoteticamente attinenti ai nostri argomenti?
      E se mostrasse inizialmente la nostra news a degli utenti poco interessati? E’ possibile? E’ probabile?
      E’ assolutamente possibile e anche discretamente probabile.
      A me succede, non dico spesso, ma varie volte.
      Una news che pensavo dovesse funzionare alla grande, dopo 2 ore, dopo le prime timide visite da Discover, piano piano si spegne. Discover inizia ad ignorarla.
      Ed ecco che arriva lo sconforto e le mille ipotesi sui possibili problemi: titolo poco efficace, immagine non abbastanza coinvolgente, poche o nessuna entità/argomenti rilevanti, problema di indicizzazione, problema di Google, etc…
      Le soluzioni sono due:

      1. ci arrendiamo e alziamo bandiera bianca;
      2. prendiamo in mano la situazione e proviamo a cambiare le sorti della news su Discover.

      Io propendo spesso per la seconda soluzione 🙂
      Almeno quando sono “certo” che la news sia ben fatta, su argomenti in trend e attinenti a quelli del mio sito.

      Surfare con le news
      Mi piace questa frase perché descrive esattamente cosa si può fare su Google Discover con le news (cavalcare letteralmente le onde dei trend, attraversando un mare in tempesta pieno di insidie), analizzando il comportamento della news stessa con un buon strumento di analytics real time e cercando di “mettere una pezza” alle varie possibili situazioni che si verificano.
      Analizziamo quindi il caso della news che dopo le prime timide visite da Discover si spegne miseramente.
      Cosa faccio io?
      Provo a modificare il titolo, migliorandolo dal punto di vista del coinvolgimento (no, non sto parlando di click baiting ma di utilizzare la giusta terminologia per il pubblico di riferimento), aggiungendo più entità o altre entità a tema, cercando di evidenziare i lati della news che possono essere più importanti ed interessanti per i miei utenti (a volte modifico anche il sottotitolo o le prime righe della news).
      Provo a modificare l’immagine, se penso di aver inserito una poco coinvolgente.
      A questo punto cambio l’url dell’articolo (effettuando ovviamente un redirect 301 dal vecchio al nuovo url), aggiorno la cache e pingo nuovamente Google (Wordpress lo fa automaticamente).
      Questo passaggio spesso è fondamentale. Nuovo url equivale spesso a nuova news per Google Discover, almeno inizialmente, poi capisce che è sempre la stessa, ma oramai la macchina della verifica è già avviata.
      Così facendo, Google Discover offre spesso una seconda chance alla news.
      Fatto questo, ritornano le visite Discover a distanza di qualche minuto/ora e ricomincia la fase di valutazione preliminare delle performance della news su Discover.
      Magari questa volta la news verrà mostrata al giusto sottoinsieme di utenti, realmente attinenti agli argomenti della news (il fattore culover ha funzionato!). E magari ho migliorato anche l’engagement della notizia, con un titolo migliore e un’immagine più pertinente, quindi click rate maggiore.
      Ecco, in un buon 30% dei casi sono riuscito a riprendere la news: finalmente arrivano le visite vere da Discover e iniziano a crescere con il passare dei minuti/ore.
      Qualche volta questa operazione per la medesima news l’ho fatta 3 volte, finchè non ha funzionato. Sì è vero, sono testardo 🙂
      Il rimanente 70% delle volte non ha portato grandi risultati. Magari era l’argomento che era poco in trend oppure poco interessante per il “mio pubblico su Discover”.
      Cosa intendo per il “mio pubblico su Discover”? A meno che tu non abbia un sito generalista, solo determinate news, su determinati argomenti, funzionano bene su Discover per il tuo sito. Le altre no.

      Altri casi in cui puoi riprendere per le orecchie una news?
      Se si verifica un problema di indicizzazione. Per problema di indicizzazione intendo sia quelli onsite, sia quelli offsite (di Google). Non sono così improbabili.
      Per funzionare una news su Discover deve essere indicizzata su Google. Devi verificare con il comando “site:” che lo sia dopo la pubblicazione. Finché non viene indicizzata non hai nessuna chance di andare su Discover. Se Google non ti indicizza la news hai un problema: tuo o di Google stesso. Nel primo caso puoi provare a fare la modifica detta sopra (cambio url e redirect) e tentare di nuovo la sorte. Nel secondo caso è decisamente un problema più importante, perché non dipende da te. Io di solito provo lo stesso ad effettuare la modifica detta sopra (cambio url e redirect). A volte funziona. A volte no, finché Google non risolve.
      E’ importante verificare anche che la news sia presente nel tab “Notizie” su Google, e verificare che sia presente una thumbnail dell’immagine della news.
      A volte manca nel tab notizie. C’è solo il titolo senza l’immagine. Ecco. Hai avuto un problema di indicizzazione dell’immagine.
      Da cosa può essere dipeso?

      1. problema nel tuo sito nel momento in cui è passato il bot (cdn non perfettamente funzionante, sito sovraccarico, etc…);
      2. problema di lettura dell’immagine da parte del bot di Google (non è così improbabile che Google sbagli con tutti i miliardi e miliardi di dati che deve processare quotidianamente);
      3. immagine in una risoluzione troppo piccola o di scarsissima qualità.
        In tutti e tre i casi il consiglio è quello di caricare una nuova immagine, a volte basta la stessa identica con un nome diverso, aggiornare di nuovo la cache e pingare nuovamente Google.
        Nel 90% dei casi funziona.

      Conclusioni
      Siamo arrivati alla fine di questa disamina personale sulle lotte che faccio quotidianamente con Google Discover e sui centinaia di test che porto avanti per aggiungere sempre nuovi tasselli.
      Magari qualcuno di voi leggerà questo articolo e si sentirà in dovere di smentire le mie supposizioni/analisi, aggiungendo quindi nuove e utili informazioni atte alla comprensione di questo assurdo algoritmo di Google Discover. Ve ne sarei ugualmente grato. Siamo qui un po’ tutti per imparare qualcosa di nuovo ogni giorno.
      Ringrazio tutti per aver utilizzato parte del proprio tempo per leggere il mio prolisso “racconto” 🙂

      postato in SEO
      E
      emizz
    • RE: Finanziaria Tremonti 2011 - Novità importanti sul regime dei contribuenti minimi

      Finalmente un articolo semi ufficiale che fa un po' di chiarezza con degli esempi concreti:
      http://www.cnacomo.it/index.php?option=com_content&view=article&id=448:regime-minimi&catid=41:contabilita-e-fisco-notizie&Itemid=70

      postato in Consulenza Fiscale
      E
      emizz
    • RE: Posizionamento articoli in Google News

      Ciao quotinetwork,
      io ho alcuni clienti che ricevono buone visite da Google News.
      Però devo dirti che non ho notato grandi stravolgimenti e cali di visite in questo periodo.
      Hai scritto che "in Google News non si riesce ad avere più un posizionamento nelle prime posizioni".
      Puoi essere più preciso fornendo delle query di esempio per cercare di capire il problema?
      Si tratta di key specifiche e molto competitive? Oppure parli di una ricerca con il titolo della news? O ancora parli di posizionarti direttamente nelle SERP di Google nel box news?

      Ciao Emizz

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Ma certo! 🙂

      postato in SEO
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Ciao Giorgio grazie della nuova qualifica "esperto" 🙂 e grazie per il tuo intervento in questa discussione.

      Si è molto delicata la questione, sia per l'importanza della sitemap nell'indicizzazione delle pagine sia perchè è facile che il test venga "sporcato" da altri fattori (oltre all'inaffidabilità del GWT per quanto riguarda i dati relativi alla sitemap).

      Sto pianificando proprio ora la modifica della sitemap cercando di "accorpare" le pagine in maniera logica, in base agli argomenti e altri fattori che rendono le pagine "affini".
      In questo modo ho anche la possibilità di tenere sotto controllo l'indicizzazione delle pagine di determinate categorie merciologiche, o prodotti non categorizzate a dovere, o prodotti di marche "poco linkate internamente" etc.. etc..
      Lo scopo è proprio questo: cercare di comprendere se porta effettivi vantaggi la sola suddivisione della sitemap e avere dei dati in più da analizzare per prevenire/curare eventuali problemi.

      Se qualcuno ha delle esperienze dirette a riguardo, e le vuole condividere, sono sicuramente ben accette 🙂

      postato in SEO
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Aggiungo altra carne al fuoco:
      http://plus.google.com/108430785388669534399/posts/PH4T9Em88Qr
      Un commento di Enrico Altavilla sollecitato da Riccardo Mares (Merlinox).

      postato in SEO
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      La scelta di Gstatic di utilizzare file txt è sicuramente dettata da problemi di efficienza, come anticipato da cardy. Tra l'altro alcuni parametri della sitemap come la priorità sarebbero inutili. Perchè mai Google dovrebbe dare una priorità maggiore ad un profilo rispetto ad un altro? 🙂
      C'è da studiare bene invece la distribuzione dei profili nelle varie sitemaps, per comprendere se c'è una logica ben precisa o se sono ordinati per ip. Io vedo innanzitutto che sono raggruppati per lingua. E' un primo indicatore.

      Tornando a noi. Tu consigli di suddividerle per sezioni, quindi seguendo una certa logica (con un occhio alla semantica). Sono pienamente d'accordo.
      Però se questo non influenza l'indicizzazione, tanto vale inserirli per data di inserimento o per id: è più veloce, più immediato, più semplice da realizzare 🙂

      postato in SEO
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Aggiungo un bel link all'ottimo tweet di misterjinx:
      twitter.com/#!/misterjinx/status/93457165632811008
      Non serve altro commento 🙂

      postato in SEO
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Si questo è certo.
      Ma io parlavo di "ottimizzare" il processo di indicizzazione e chiedevo se qualcuno ha mai provato ad inserire nel robots.txt tutte le varie sitemaps e se anche solo in piccola percentuale viene velocizzato il processo di indicizzazione.
      Magari vengono "parallelizzate" le richieste 😉

      Il dibattito principale comunque verte su come è meglio distribuire le pagine di un sito nelle varie sitemaps (tipologia, categoria, novità). Oppure è totalmente indifferente, l'importante è suddividere, a prescindere dall'organizzazione?

      postato in SEO
      E
      emizz
    • RE: Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Altra questione su cui discutere.
      Avendo più sitemaps utilizzerò una sitemap_index per elencarle tutte.
      Potrebbe essere più efficiente, sempre al fine di una più veloce indicizzazione delle pagine, inserire sia la mappa index che tutte le singole mappe nel file robotx.txt?

      postato in SEO
      E
      emizz
    • Sitemap Multiple migliorano l'indicizzazione e fanno crescere il traffico

      Un argomento a mio avviso importante uscito fuori in questi giorni riguarda l'utilizzo delle sitemap multiple.
      Ci sono due articoli interessanti che dimostrano l'efficacia di questo metodo:
      http://seomoz.org/blog/multiple-xml-sitemaps-increased-indexation-and-traffic
      http://distilled.net/blog/seo/indexation-problems-diagnosis-using-google-webmaster-tools/

      Volevo discutere sul come è meglio suddividere le sitemap: per novità, per categorie (semanticamente più corretto), per tipologia di contenuto.

      Negli articoli vengono proposte 3 diverse soluzioni:
      semplice: gruppi di sitemap da massimo 100 articoli
      buona: raggruppare pagine statiche, prodotti, blog
      ottima: raggruppare per pagine statiche, categorie, sottocategorie, …

      Prendiamo il caso di un sito di e-commerce che ha pochissime pagine statiche, un migliaio di categorie, e decine di migliaia di prodotti.
      Raggrupparle per tipologia di contenuto vuol dire creare pochissime mappe con alcune che contengono decine di migliaia di pagine (prodotti), altre ne contengono poche (pagine statiche, categorie, etc...).

      Altra soluzione potrebbe essere quella di suddividere le sitemap relative alle pagine prodotto per novità (100 prodotti in ogni mappa). Con 50000 prodotti si creerebbero 500 sitemap. Potrebbe diventare complesso tenere traccia nel webmaster tools di tutte queste sitemap, per verificare errori negli url o altro. Ma questo è un problema secondario.

      Oppure trovare una soluzione semanticamente più corretta: cercare di suddividere le mappe raggruppando le pagine prodotto per categorie o marche o ditta produttrice. Anche in questo verrebbero generate un gran numero di sitemap.

      Se poi riusciamo anche a dare delle priorità corrette a tutti i contenuti, seguendo una distribuzione lineare come suggerito da Enrico Altavilla (http://lowlevel.it/migliorare-lindicizzazione-con-le-priorita-delle-sitemap/) credo che l'indicizzazione delle pagine del sito migliorerà notevolmente.

      Voi che ne pensate?

      postato in SEO
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Dopo varie analisi dei dati e confronti con vari SEO posso affermare con estrema certezza che l'aggiornamento del 15/06 colpisce chirurgicamente la long tail.
      Possiamo definirlo un "nuovo mayday".

      Scopo: Pulizia delle SERP.
      Keywords colpite: solita long tail.

      Situazione comune: il calo di conversioni è un po’ meno della metà del calo di traffico. Come confermato anche da twitter.com/ppiersante
      In pratica sono state declassate di ranking le pagine (per alcune keywords) che rendono poco.

      Infatti la prima cosa notata è l’aumento di pagine/visitatori, la diminuzione del bounce rate, il maggior tempo di permanenza sulle pagine.

      Questo a quanto pare è un fenomeno ricorsivo. Di tanto in tanto Google fa pulizia delle SERP.
      Video sul MayDay di Matt Cutts:

      Tutto questo è reso possibile da questo brevetto patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&u=/netahtml/PTO/search-adv.htm&r=1&p=1&f=G&l=50&d=PTXT&S1=7,693,813.PN.&OS=pn/7,693,813&RS=PN/7,693,813
      e dall'infrastruttura Caffeine che rende l’indicizzazione per frasi molto veloce.

      Questo genere di aggiornamenti colpiscono generalmente quelle "inutili" parole che portano 1-2 visite al giorno, ma che insieme sono la base del successo di un sito e comunque portano centinaia o migliaia di visite al giorno. Non colpiscono sicuramente le keywords ad alto traffico.
      Google così facendo taglia il traffico della long tail e rimescola le carte nelle SERP. Ecco perché compaiono spesso in alto siti di aggregatori, di recensioni, etc… che magari per quella particolare keyword long tail ricevono più visite dei nostri siti.

      Puntare sulla long tail oggi è veramente dura. Un giorno va tutto bene, un altro giorno no.
      Meglio puntare sull’aumento di ranking per un numero limitato di keywords (e un numero limitato di pagine) ma che portano più traffico (e che portano più vendite).
      In un e-commerce per esempio: nome dei prodotti, brand, categoria di prodotti,...

      Infatti in 2 e-commerce, realizzati con lo stesso software, identici per quanto riguarda la struttura e l'ottimizzazione on-page, ma diversi per il catalogo prodotti e lo sfruttamento della longtail, questo aggiornamento ha portato risultati completamente diversi.
      L'e-commerce con un catalogo più piccolo che riceve il 90% delle visite per keywords relative ai nomi dei prodotti, alle pagine di brand, alle categorie merceologiche NON HA SUBITO CALI!

      Come risolvere quindi il problema?
      Aumentando il trust del sito e l'autorevolezza. Puntando sulle keyword che identificano meglio il nostro business. Posizionando meglio le keyword ad alto traffico.
      E’ importante inoltre differenziare il traffico: puntare sui social network, puntare sull’aumento del traffico diretto, puntare sull'email marketing,...

      La teoria economica della Long Tail su internet sta giungendo al capolinea, visto che Google che la combatte.
      E’ difficile continuare a perseguirla e sbattere la testa al muro ogni volta che Google cambia un paio di settaggi nel suo algoritmo di ranking.
      E’ arrivato il momento di cambiare strategia di marketing. E' difficile è vero. Ed è anche costoso, almeno inizialmente. Ma è necessario per continuare a lavorare online in maniera serena.

      Qualcuno può confermare o ha altre testimonianze che mi contraddicono?

      P.s.: credo che l'immagine inserita nel blog di tagliaerbe valga la pena di essere guardata e studiata: blog.tagliaerbe.com/2008/11/parole-chiave-competitive-vs-long-tail-keyword.html

      • Authority + Marketing + In Community Links - On Page Optimization
      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Grazie SirVester della splendida spiegazione sull'ingegneria del software... ma stiamo parlando di Google 😉

      Comunque l'ha dichiarato Google stesso che aggiorna l'algoritmo anche 500 volte l'anno.

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Il nuovo algoritmo lanciato a livello mondo non centra con Panda. Non ha le caratteristiche di Panda. Sembra più qualcosa che colpisce i contenuti duplicati (infatti ha colpito molti e-commerce), le pagine di bassa qualità (paginazioni, tag, ricerche) e comunque la longtail.
      E poi nelle SERP che analizzo vedo che sono stati premiati i siti di comparazione e recensione prodotti: siti con alto trust, ma poco contenuto. Panda non fa questo, almeno in base a tutto ciò che abbiamo letto in questi mesi. Anche Enrico Altavilla conferma che Panda non centra un fico secco.

      Tornando a noi.
      Sono giorni che faccio analisi approfondite sui dati ma non riesco a trovare un pattern comune.

      Piersante Paneghel su Twitter mi ha detto: "...per ora mi pare che il pattern colpito sia: IF same-owner AND dupe-site THEN both-site drop traffic. No Panda"

      A me però il caso non è questo. E' diverso.

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Enrico Altavilla scrive:
      Google Panda non c?entra un fico secco - LowLevel's blog
      http :// bit.ly/iWY4mU
      😄

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Nel caso dei siti da me segnalati parlo di 4 e-commerce con 300-1500-3500-10000 unici al giorno e di un portale con 12000 unici al giorno.
      Si tratta di siti che non soffrono di sovra-ottimizzazione.
      Gli e-commerce hanno indubbiamente il problema dei contenuti duplicati, ma è il solito problema delle schede prodotto con le informazioni fornite dall'editore/produttore, "allungate" e completate con i commenti utenti, ma sempre duplicate.
      Chi lavora con un catalogo di oltre 30000 prodotti non può modificare tutte le schede prodotto. Sarebbe un'attività improduttiva.
      Il portale invece è molto anziano, alto trust, ed ha contenuti originali. E' stato colpito in maniera minore, diciamo un 17% di traffico in meno.
      La situazione tra i vari siti quindi è molto variegata.
      Non si riescono a trovare pattern comuni.

      cardy ti ringrazio per il tuo intervento ma... è ovvio che se avessi notato modifiche sostanziali ai siti dei miei competitors (ottimizzazioni, aumento di popolarità, etc...) non starei quì a perdere tempo e a far perdere tempo (premesso che studiare i nuovi algo di Google non è mai una perdita di tempo 🙂 ).
      Il problema è che c'è stato un cambiamento di algoritmo che ha portato su alcuni siti e ha mandato giù altri, a prescindere dalle modifiche effettuate.
      Si sta cercando di capire se si tratta di un algoritmo temporaneo di test, se si tratta di una modifica che premia i siti con miglior trust, una "penalizzazione" sulle longtail poco produttive, un pre-panda o pre-ippopotamo, etc...
      Anche lo scorso anno c'è stato il famoso MayDay che ha colpito gli e-commerce e altri siti, ma il calo è stato molto più graduale. Man mano che le pagine venivano analizzate da Google e venivano trovati problemi il sito scendeva.
      Quì invece sembra come se è stato premuto un tasto e una serie di siti sono saliti ed altri sono scesi.
      Tutto quì.

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Un altro particolare interessante è che dal 15 giugno ad oggi i siti colpiti dal nuovo algo hanno un bounce rate più basso, pagine viste per visita maggiori e tempo di permanenza nel sito più alto.
      Sembra come se sono state penalizzate solo le keyword con scarso rendimento, almeno secondo questi 3 fattori.
      Fornisco altro grafico:
      http :// i51.tinypic.com/20rsr50.jpg

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Per completare il topic fornisco un'immagine con i grafici di alcuni siti "penalizzati": http :// i52.tinypic.com/291nmdi.jpg
      Chi di voi riscontra lo stesso andamento?

      X Google: ti prego non mi bannare perchè ho inserito questi grafici 😄

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Innanzitutto sono contento di essere riuscito a far parlare di questo nuovo aggiornamento 😄

      bluwebmaster francamente non interessa nemmeno a me se siti come Ciao o Wikio sono scesi o saliti nelle SERP. Ma visto che qualcuno (il blog da me segnalato) parlava di un eventuale Google Panda Update, questi siti sono stati penalizzati in Google.com, co.uk da Panda. Quindi era importante citarli.

      Anche io noto che alcune SERP che mi interessano direttamente sono peggiorate e spesso vengono premiati siti con alto trust ma con poco contenuto originale, oppure piccoli siti privi di contenuto e solo adv.
      E' una situazione molto strana.

      postato in News Ufficiali da Connect.gt
      E
      emizz
    • RE: Che Panda sia già arrivato?

      Ok a fare chiarezza sul nome. Sono d'accordo.
      Cerchiamo però di instaurare una discussione seria su questo nuovo aggiornamento, senza che ci riduciamo ad una discussione solo sul fatto che è arrivato o meno Panda.
      Credo sia meglio parlare dei suoi effetti e magari di possibili soluzioni. Come il post di marco863.
      Non credo si tratti di Panda (mia opinione personale), ma rimane comunque un aggiornamento importante e ben visibile nei siti colpiti.

      postato in News Ufficiali da Connect.gt
      E
      emizz