• Moderatore

    Veramente mi riferivo alla quantità dei contenuti, più che altro.
    E al ritmo di publishing..


  • User Attivo

    Sospettavo di aver capito male e per fortuna me ne hai dato conforma. :smile5:


  • Moderatore

    Si, in ogni caso ha ragione anche Webmaster70..... altro che quello che dice Cutts.

    Servono molti link, molti di più di 5-7-10 anni fa.

    Ma moltisssssssssimi di più.

    :gtsad:


  • Super User

    @WWW said:

    Ok, posso anche condividere lo sfogo... ma non te la prendere troppo sul personale.

    L'unica cosa certa è che l'algoritmo non ce l'ha con te, con me o con qualcuno in particolare.

    D'accordissimo, non so in quale punto ti posso aver fatto pensare il contrario.

    Non è che il mio metro di giudizio è come va complessivamente a me, ricevo da Google più traffico dell'anno scorso, dell'anno precedente ecc.

    Valutando le variazioni, e non i posizionamenti assoluti, vedo che non distribuisce più bene i bastoni e le carote.

    A questo punto è il mio concetto di merito che non è più allineato con quello di Google, e cerco di capire qual'è il suo.


  • Moderatore

    Provo a rispondere alle considerazioni fatte sul mio post, sperando che la mia opinione ne esca più approfondita ed utile.

    @Webmaster70 said:

    Per me già dall'anno scorso può aver fatto un compromesso proprio in vista di Caffeine: se dovrà essere veloce non ci devono essere troppi calcoli da fare.
    E questa semplificazione degli oltre 200 fattori ha comportato un inevitabile peggioramento delle SERP.
    Non saprei se temporaneo o no.
    Potrebbe anche essere una esca per capire chi fa spam e quali tecniche usa, ma mi pare troppo alto il prezzo di un lungo esperimento del genere.

    Con Caffeine è semplicemente cambiata l'organizzazione dei contenuti da parte di Google: adesso possono essere raccolti più documenti, possono essere salvate più informazioni, le query sono eseguite più velocemente e via dicendo.
    Questo aggiornamento non passa direttamente per alcun cambiamento nell'algoritmo di posizionamento; semplicemente adesso lo strumento a disposizione è più potente e vi sono più dati a disposizione. È lecito dunque pensare il contrario rispetto a quanto hai affermato: Google aumenterà i calcoli da fare per creare una serp e potrà permetterselo grazie alla nuova architettura.

    @Webmaster70 said:

    L'utente medio sta diventando sempre più evoluto, la maggior parte degli utenti ormai è online da un paio d'anni.
    Allora se gli dico voglio delle pagine che riportino le parole "alfa", "beta" e "gamma" il motore dovrebbe darmele.
    E invece mi dice che la pagina trovata contiene "alfa" e "beta", mentre "gamma" è presente nei collegamenti, che poi spesso è una grande balla, comunque il risultato è che non trovo quello che cerco.
    Forse dovrei consolarmi con il fatto che la pagina ha un bel PR?

    Non penso che l'utente medio utilizzi i doppi apici nella maniera da te descritta; ad ogni modo, se la facesse, potrebbe tranquillamente apprezzere la soluzione adottata da Google.
    Se cerco "alfa", "beta" e "gamma" voglio poter leggere tutti i documenti con le tre parole: se questi non esistono (o Google non riesce a restituirli) è lecito pensare che alla schermata bianca io preferisca il link ad una pagina contenente "alfa" e "beta" e collegata/correlata a "gamma". Queste sono scelte di Google nell'interpretazione dei comandi, non malfunzionamenti.

    @Webmaster70 said:

    Ho tante pagine indicizzate e altrettante no, e l'unica differenza non è la qualità o l'utilità, ma la distanza in numero di click dalla home page, o da altra pagina che ha un buon page rank.

    Il Page Rank è un metodo per assegnare importanza alle pagine, esso è particolarmente utile ai motori di ricerca in quanto permette di stabilire la qualità dei documento.
    Se una url ha poco Page Rank è meno importante perché nessuno l'ha ritenuto utile e lo stesso webmaster ha preferito favorire nella struttura del sito altre pagine.
    Forse il metodo di classificazione dei documenti è migliorabile, ma questo è Google dall'introduzione del primo brevetto.
    In ogni caso Caffeine permette di indicizzare più pagine di quante venissero indicizzate lo scorso anno quindi in questo campo vi è stato, a livello globale, un netto miglioramento.

    Tornando alla discussione, il rumeno che spamma in continuazione per ottenere backlink sta probabilmente sfruttando una debolezza di Google. La domanda fondamentale da porsi è: questo webmaster può o meno rischiare che domani mattina tutto il lavoro che ha fatto sia da buttare?
    Progetti a lungo termine, secondo me. non possono avere questo approccio.

    Google è un'azienda, dice giustamente Webtronic. Ma l'azienda vive principalmente con la qualità della sua ricerca, sulla soddisfazione degli utenti.
    Lo dimostra il fatto che in alcuni Stati, dove Google non riesce bene ad interpretare la lingua o non può competere ad armi pari per questioni "politiche", gli utenti scelgono altro e Google non sfonda con AdWords. Ogni cambiamento algoritmico non può permettersi di trascurare la qualità dell'esperienza di ricerca ed è fatto in questa ottica; che poi non tutto funzioni sempre perfettamente è ovvio.


  • Moderatore

    @LaBussola said:

    Ma l'azienda vive principalmente con la qualità della sua ricerca, sulla soddisfazione degli utenti.
    Ciao LaBussola, certamente, probabilmente però come ogni azienda dovrà mediare fra la soddisfazione degli utenti e i suoi obiettivi (sono due cose molto collegate fra loro ma non sono necessariamente la stessa cosa).
    A me pare che Webmaster70 abbia dato un po' voce a una "sensazione" di cambiamento di "stile" aziendale di Google che diversi di noi hanno, voi che dite?


  • Super User

    @Labussola

    Ho messo gli apici solo per evidenziarti i termini, io non li uso così.

    Il tuo pensiero mi pare chiarissimo, e per quanto riguarda la tua spiegazione su cosa è il pagerank e caffeine, come funzionano sarà senz'altro utile a chi leggerà la discussione e si era perso le dichiarazioni e le guide di Google.

    A me sopratutto interessa vedere l'altra parte della medaglia, quella dei colleghi, sentire le loro case history, considerazioni, quindi la seconda parte dell'intervento, e anche affermazioni come questa:

    Caffeine permette di indicizzare più pagine di quante venissero indicizzate lo scorso anno quindi in questo campo vi è stato, a livello globale, un netto miglioramento.

    Hai un link per queste statistiche?

    Riguardo ai backlinks c'è da dire che Google ha un po' le mani legate.

    Se si mette a bannare per i backlins poi gli spammer si mettono a sfruttare i loro siti bannati per vendere links a chi vuole fare affondare i suoi concorrenti.

    A meno che Google non sia sicuro che a mettere il backlinks sia stato proprio chi l'ha ricevuto.

    Google poi si è una azienda, ma una azienda che tende al monopolio con uno scomodo concorrente che potrebbe crescere.

    E' quindi ha interesse non tanto a fare il meglio possibile, ma un po' meglio del concorrente su tutti i fronti.

    Mi spiego con un esempio, mettiamo che in Italia si possono comprare solo 2 marche di auto: A e B

    Se A è un po' più bella e un po' più economica di B, il 100% dei clienti si compra A.

    Se A è molto più bella e un po' più costosa di B, il 70% dei clienti compra A e il 30% B.

    Quindi Google una volta che ha delle SERP un po' più di qualità di quelle di Bing è a posto, e può concentrarsi sulla velocità, il real time ecc.

    @Webtronic said:

    C'è poi un secondo aspetto da non ignorare: Google è un'Azienza. A volte mi domando "quanto cambieranno gli introiti di AdWords al variare di un parametro dell'algoritmo?"

    Io quando devo comprare qualcosa online spesso vado direttamente sulle pubblicità, le trovo più pertinenti, sarà un caso? :bho:.


  • Moderatore

    @Webmaster70 said:

    Io quando devo comprare qualcosa online spesso vado direttamente sulle pubblicità, le trovo più pertinenti, sarà un caso? :bho:.
    Le nostre statistiche confermano che è anche il comportamento di molti utenti. Forse percepiscono che un'azienda che paga per la pubblicità è un'azienda che esiste, ha degli utili, etc.. E' anche vero che di solito gli annunci sono ottimizzati in base alle campagne.. quindi sono a volte più pertinenti dei risultati nelle SERP.


  • User

    @Webmaster70 said:

    Ciao Labussola a Pacoweb, grazie per le risposte.

    Viceversa c'è un rumeno che si è messo a copiare contenuti da wikipedia, e per promuoverli è andato in un centinaio di blog di qualsiasi nazionalità, lingua e genere con dofollow a commentare copiando spezzoni di commenti altrui e firmandosi quasi sempre con la stessa key. In genere in quegli articoli ci sono decine di commenti di cui circa la metà spam.
    L'anno scorso era in 3a posizione, mando spam report, ma lui è continuato a salire, 5 mesi fa era in 2a posizione, e da 2 mesi è in una prima posizione che prima detenevo ininterrottamente da ben 7 anni.

    hai controllato che ha le Adsense???


  • Moderatore

    Tornando alla richiesta di Webmaster70, ho letto che Caffeine è in grado di indicizzare più pagine principalmente sui canali ufficiali di Google: in questo post si dice che "Caffeine lets us index web pages on an enormous scale" e che "[the new web indexing system called Caffeine] is the largest collection of web content we've offered".

    Più esplicitamente, ma soprattutto più in sintonia con il resto del thread, la stessa cosa è scritta alla slide 29 di questo approfondimento. Niente di nuovo dunque.

    Questo documento sottolinea quello che a mio avviso è un grosso problema di Google: l'interazione coi webmaster. Gli sforzi fatti per comunicare con tutto il mondo sono notevoli e da quanto emerge dai propositi per il 2010 del motore di ricerca (slide 31) anche loro sono consapevoli della necessità di essere più capillari e vicini ai problemi di chi vive con Internet.
    Come ho già detto, non notificare alcune tipologie di problemi (ad esempio il Tag Excess) è un limite davvero grosso pr il motore di ricerca.

    Tornando all'abbassamento della qualità delle serp, penso anche io che derivino dall'esplosione di link (come ho già scritto nel primo post, prevedendo anche possibili vie di uscita di Google dall'empasse). La conseguenza di questo aumento repentino del numero dei link è stata una perdita generica di valore dei collegamenti in ingresso che costringe ad un lavoro durissimo di link building e dunque a strategie di link baiting molto più complesse di quelle alle quali eravamo abituati.
    Non sono quindi cambiati gli algoritmi, quanto invece è cambiata Internet con Google che sta tentando di inseguire ed al momento è rimasto un po' dietro gli spammer.

    Non penso però che questa fase passerà lasciando immutate le regole del gioco: ci dovremo tutti rassegnare ad una maggiore influenza dei contenuti generati dagli utenti, dei link che riceveremo spontaneamente e dalla necessità di elevare l'esperienza dei visitatori. A mio avviso usciremo da questo 2010 con molto meno controllo sui fattori off page e con la necessità di creare strumenti di link-building molto più scalabili e legati alla qualità di quelli che eravamo abituati ad usare fino allo scorso anno (progettazione di servizi da far embeddare, coinvolgimento dei social, strette relazioni coi partner, progetti di fidelizzazione/interazione coi visitatori, ecc..).


  • ModSenior

    Ciao interessante discussione...

    Aggiungo qualche spunto.

    Backlinks
    Intanto da un brevettino recente ma attivo da un pò abbiamo capito che BigG è in grado di riconoscere i link di affiliazione e dargli un peso diverso rispetto ad altri.

    Sempre riguardo ai backlink bisogna considerare secondo me l'altra faccia della medaglia dei social, ovvero la cannibalizzazione dei link.
    Pagine fan di Facebook (pubbliche) + Twitter + notifiche via ping.fm su vari social hanno portato inevitabilmente Google a guardare anche questa parte di Internet.

    Non poteva stare a guardare mentre ogni giorno si condividono migliaia di migliaia di backlink. Molti dei quali fuffosi, d'accordo.
    Vogliamo applicare la legge 80/20 un pò modificata ai backlink social ? Dai azzardo un rapporto 5/100: 5 backlink di qualità ogni 100 passati.

    E' naturale che in questa situazione le vecchie logiche di baclink siano un pò ko.

    Caffeine
    Riguardo a Caffeine secondo me dal punto di vista dell'infrastruttura è un cambio radicale in questo senso: bigTable è sempre più big e molto più "virtualmente" table, cioè si è frammentata.

    Leggendo qua e là nei brevetti la percezione è che Google abbia frammentato le sue tabelle in un numero infinito di cluster. E io ipotizzo per query o cluster di query specifiche.

    Non dimentichiamo che da una parte Google aveva un filesystem solido per GMail (che però è lievitata a livello di utenza, messaggi scambati e file multimediali), dall'altra parte si è trovata a fronteggiare 2 diverse tipologie di documenti emergenti.

    La prima tipologia, pesantissima, ereditata dall'acquisizione di YouTube. File enormi che chiedevano soluzioni di storage apposite, ma anche estrazione dei metadati e gestione dell'informazione ad hoc.

    L'altra tipologia di dato, completamente diverso da gestire e "antitetico" a quello di Youtube, è il tweet o l'aggiornamento di stato su una pagina fan di Facebook, o un qualsiasi altro social/microsocial analogo.

    Un dato striminzito, ristretto fino all'osso dei 140 caratteri del singolo Tweet, ma complesso da gestire anche perché fluente in uno stream e ricco di interazioni (ha link di rimando abbreviato, è discusso, parlato, retweetato, citato ... e in più da tizio, caio, sempronio).

    Per inciso solo Facebook ad oggi compete con Google e soprattutto regge l'impatto della massa critica di foto e video uploadati ogni giorno (Twitter invece schianta molto più spesso).

    Segnali di ranking
    I segnali di ranking dai social network in questo modello di filesystem ancora prima che di algoritmo possono che essere aggiunti in modo veloce e rapido.

    Ed è quello che la gente vuole: informazione sempre più rapidamente.

    Inoltre -sempre secondo me- queste informazioni servono ad altri scopi a Google e non principalmente al posizionamento.

    Ad es. analisi dei sentimenti più serie rispetto a quelle visto fino a ora con previsioni e targetizzazioni molto più spettacolari a vantaggio dell'esperienza dell'utente nei prodotti di Google (non solo sulla SERP).

    Rispetto alla SEO di qualche anno fa si è aggiunto un pezzo che prima non c'era: la parte social. E si sa, se ci sono i tuoi competitor è bene che ci sia anche tu.

    Prima di tutto per motivi di marketing (se vuoi usare i social network) poi in seconda battuta per SEO.

    Per quanto riguarda l'uso dei social network ai fini SEO: da soli oggi non bastano più per raggiungere posizioni rilevanti in settori competitivi o ipercompetitivi.

    Ma non sono da trascurare per raggiungere chiavi "facili". A distanza di qualche mese i test che avevo presentato al convegno GT nel 2009 sono grosso modo ancora validi.

    Poi su Google possiamo discutere di tante altre cose ad esempio sostengo da un bel pò che l'exact keyword match sul dominio dà un bel boost. Ma questo è un altro discorso.

    Last but not least, per il sito .edu e i backlink.
    Se fossi Google sospetterei di brutto il fatto che hai ricevuto backlink da tutto un sito .edu piuttosto che da un paio di paginette. Anzi... mi puzzerebbe pesantemente di acquisto backlink o (peggio ancora) di spam.


  • ModSenior

    @mister.jinx said:

    Ad es. analisi dei sentimenti più serie rispetto a quelle visto fino a ora con previsioni e targetizzazioni molto più spettacolari a vantaggio dell'esperienza dell'utente nei prodotti di Google (non solo sulla SERP).
    Cioè, cosa intendi per "analisi dei sentimenti" nel contesto della tua frase e dell'intero tuo discorso?

    Valerio Notarfrancesco


  • ModSenior

  • ModSenior

    Grazie. 🙂
    [URL=http://www.giorgiotave.it/forum/gt-world/101972-forum-gt-disponibile-alle-versioni-per-telefoni-cellulari.html]Postato via Mobile


  • User Attivo

    @pacoweb said:

    Salve ragazzi :),
    Io piuttosto mi pongo un altro interrogativo e cioè lo spazio e la visibilità che google sta riservando ormai ai risultati naturali.

    Il cambiamento del layout (con inserimento delle tre colonne) ha spinto il primo risultato in serp sempre più in basso.

    Ricercando una key del tipo Hotel + località turistica famosa, quasi per tutte, troviamo 3 risultati di adwords , almeno 7 - 8 strutture tra le mappe e poi il primo dei risultati naturali.

    Bene, la mia preoccupazione maggiore oggi è questa, e per questo, sto cercando di lavorare su altri fattori (long tail, fidelizzazione utenti e via dicendo).

    :ciauz:

    Immagina che ora Google sta provando a mettere 4 annunci adwords nella parte alta, poi ci sono i risultati di Google Maps, e c'è da tenere presente che, secondo alcuni dati statistici, solo il 23% delle persone scrollano le pagine.

    Da non dimenticare che tra i risultati di Google da novembre dovremmo vedere altri 3 risulati dedicati a Google Products.

    Già gli utenti hanno preso l'abitudine di usare i social come fossero dei motori di ricerca ci manca solo Google con queste modifiche....

    E Ai clienti cosa offriamo d'ora in poi la seconda pagina ???


  • ModSenior

    @seven said:

    E Ai clienti cosa offriamo d'ora in poi la seconda pagina ???
    Ma ai clienti una pagina simile fornirà davvero i risultati che stanno cercando?
    E' davvero l'esperienza di ricerca della nuova generazione (Io mi dissocio, al limite mi adeguerò per lavoro)?
    Google sperimenta sempre e spesso torna sui suoi passi (ultimamente troppo spesso).

    Io mi ricordo che a metà degli anni '90 i clienti che usavano internet iniziarono a chiedere pareri e suggerimenti su quale motore di ricerca usare perché non riuscivano mai a trovare quello che volevano su internet. Suggerii quanto ritenevo utile per loro.

    Valerio Notarfrancesco


  • User Attivo

    Quindi secondo te Google eliminerà tutte le modifiche fatte in questi ultimi periodi. Spero di si !!
    E come ti adeguerai nel caso Google non tornasse su i suoi passi ?


  • ModSenior

    Mi sono espresso male, per me sono importanti le persone, i clienti di Google e i nostri. Se a loro una serp come quelle proposte di cui stiamo parlando fornirà un'esperienza migliore mi adeguerò.
    Se, come spero, gli stessi dubbi, perplessità e malumore che noi esprimiamo verranno anche manifestati dai clienti, allora come 15 anni fa suggerirò di iniziare ad usare altri motori di ricerca.

    Per il bene del mercato sarebbe bene avere più soggetti equamente forti e non come adesso uno stato di monopolio.

    Valerio Notarfrancesco


  • User Attivo

    @vnotarfrancesco said:

    ...fa suggerirò di iniziare ad usare altri motori di ricerca.
    Valerio Notarfrancesco

    Lo sai quante volte ho pensato a questa soluzione ?
    Ma dovremmo convincere mezzo mondo ad usare un motore di ricerca differente. Fattibile ?

    Ciao


  • Moderatore

    @vnotarfrancesco said:

    per me sono importanti le persone, i clienti di Google e i nostri.
    secondo me questa è la chiave di tante discussioni: per Google sono importanti i suoi clienti, non quelli dei SEO (quest'ultimi gli interessano ma in modo diverso).