• Super User

    Matt Cutts video-articolo sui datacenter...

    Segnalo questo video-articolo di oggi di Matt Cutts sugli aggiornamenti dei datacenter...

    L'articolo è segnalato nel suo Blog, nel parlano già in rete :

    http://blog.outer-court.com/archive/2006-08-30-n72.html
    http://seo.nicolariva.it/cutts-sui-datacenter-di-google/224/

    :ciauz:
    Nicola


  • Super User

    Il video è lentissimo (almeno per me da scaricare)... ho trovato la trascrizione (interessantissima) in inglese :

    <<There is always an update going on, practically daily, if not daily. A pretty large fraction of our index is updated every day as we crawl the web.

    We also have algorithms and data pushes that are going out on a less frequent basis.
    For example there was a data push on June 27th, July 27th, and then August 17th.
    And again, that’s not [recent?], that’s going on for 1.5 years. If you seem to be caught in that, you’re more likely to be reading on an SEO board.

    You might wanna think about ways that you could back your site off... think less about what the SEOs on the board are saying, sort of not be optimizing quite as much on your site. That’s about as much advice as I can give I’m afraid.

    Bigdaddy was a software infrastructure upgrade, and that upgrade finished around in February. It was pretty much a refresh to how we crawl the web, and how we partly index the web. And that’s been done for several [months?] and things have been working quite smoothly.

    There was also a complete refresh or update of our supplemental results index infrastructure.
    That happened a couple of months after Bigdaddy, so it’s been done for a month or two. It was a complete rewrite, so the indexing infrastructure is different than our main indexing infrastructure.

    You expect to see a few more issues whenever you roll that out. We saw more small off the beaten path stuff, like minus or exclusion terms, the noindex meta tag, stuff like that. And the way the supplemental results worked with the main web index, you’d often see site results that missed and were too high. There was at least one incident where there was a spammer that some people thought had 5 billion pages... and whenever I looked into it, the total number of pages that their biggest domain had was 150,000 pages. So they’d been adding up all these “site:” estimates and ended up with a really big number that was just way, way off.

    One nice thing is we have another software infrastructure update which improves quality as the main aspect, but also improves our site crawling estimates as well. It’s just sort of like a side benefit.

    I know that that is out on all datacenters in the sense that it can run in some experimental modes, but it’s not fully on in every datacenter.

    We were shooting for the end of the summer to have that live everywhere, but again that’s a hope, not a promise.

    So if things need more testing they’ll work for longer to make sure everything goes smoothly, and if everything goes great, then they might roll it out faster.

    [Matt goes on to explain that there is no big need for Google to make “site:” page count estimates more precisely, and that a webmaster better spends time on improving the site (like looking at server logs and making the site more relevant to specific niches). Matt adds that as many people are requesting a more precise “site:” count, they might think about it though.]

    The whole notion of watching datacenters is going to get harder and harder for individuals going forward.

    Because number 1, we have so much stuff launching in various ways. I’ve seen weekly launch meetings where there are a double digit number of things, and these are things that are under the hood. So they’re strictly quality, they’re not changing the UI or anything like that. If you’re not doing a specific search in Russian, or Chinese, you might not notice the difference. But it goes to show that we’re always rolling out different things, and at different data centers you might have slightly different data.

    The other reason why it’s not as much worth watching datacenters is because there’s an entire set of IP addresses. And if you’re a super-duper gung ho SEO, you’ll know “72.2.14.whatever”. That IP address will typically go to one datacenter, but that’s not a guarantee. If that one datacenter comes out of rotation – you know, we’re gonna do something else to it, we’re gonna actually change the hardware infrastructure (and everything I’ve been talking about so far is software infrastructure) – then that IP address can point to a completely different datacenter.

    So the currency, the ability to really compare changes and talk to a fellow datacenter watcher and say, “What do you see at 72.7.14.whatever?” is really pretty limited.

    I would definitely encourage you to spend more time worrying about the results you rank for, increasing the quality of your content, looking for high-quality people that you think should be linking to you and aren’t linking to you (and not even know about that), stuff like that. (...)

    The fact of the matter is, we’re always going be working on improving our infrastructure, so you can never guarantee a ranking, or a number 1 for any given term.

    Because if we find out that we can improve quality by changing our algorithms or data or infrastructure, or anything else, we’re going to make that change.

    The best SEOs in my experience are the ones that can adapt, and that say “OK, this is the way the algorithms look right now to me, if I want to make a good site that will do well in search engines, this is the direction I want to head in next.” And if you work on those sort of skills, then you don’t have to worry as much about being up at 3am, and talk on a forum about “What does this datacenter look like to you, did it change a whole lot?” and stuff like that.>>

    Ho cercato di sottolineare alcune frasi che suonano abbastanza perentorie e definitive, circa molte delle osservazioni fatte sul motore negli ultimi tempi.... davvero una sorta di manifesto da scolpire sui muri e tenere bene a mente!


  • Super User

    Interessante nbriani!!

    thank you..


  • User Attivo

    Qualche anima buona che lo traduce???


  • User Attivo

    lo traduco io (non sarà perfetta ma ci provo :)..) e lo posto appena possibile

    l'ho scritto qui così intanto che traduco non si mette a farlo qualcun altro altrimenti sprechiamo tempo 😄

    comunque sul suo blog non ho trovato riferimenti precisi alla politica di copyright che intende accettare quindi in teoria non so se possiamo riportare integralmente (e tradurre) un suo articolo, pur se lo abbiamo linkato in alto.


  • Super User

    Grazie raf86 ! attendiamo il tuo post..

    :ciauz:
    Nicola

    p.s. vorrei comunque dire che si si vuole occuparsi di SEO, è imprescindibile sforzarsi a capire l'inglese (almeno scritto!) ... per chi (come me !) non lo ha comunque mai studiato vi ricordo che esistono degli ottimi tool online per tradurre testi in inglese... basta poi correggere qualche parola/frase qua e la per capire perfettamente il senso di un testo! 😉


  • User Attivo

    ne ho fatto un pezzo finisco stasera che ora devo uscire, comunque su alcune frasi non sono sicuro, le segnalerò così magari qualcuno che ne sa di più poi le corregge.

    ciao


  • User Attivo

    si attendo anche io la traduzione, mi è parso di capire cose molto interessanti ma il mio inglese non è così buono..


  • User Attivo

    sicuramente non è perfetta, anche perchè la mia conoscenza sull'argomento si limita a quanto letto in questi ultimi mesi in questo forum, ma è già qualcosa in più per chi proprio non mastica l'inglese. Sicuramente è molto più importante leggere la sintesi+analisi fatta su seo.nicolariva.it (il link è nel primo post di questo thread)

    l'ho pubblicata anche sul mio blog visto che avevo usato l'editor di wordpress come blocco note 😄

    http://www.rigenerato.com/blog/seo/matt-cutts-sugli-aggiornamenti-ai-datacenter-di-google/

    comunque la riporto integralmente qui di seguito, c'è un passo in particolare che ho tradotto parzialmente (sul blog lo vedete perchè è barrato comunque lo notate anche qui perchè l'ho lasciato in inglese) e mi farebbe molto piacere che qualcuno me lo correggesse.

    @"Matt Cutts" said:

    C&#8217;è sempre un aggiornamento in corso, in pratica giornalmente, o quasi. Gran parte del nostro indice è aggiornata ogni giorno, man mano che facciamo il crawling del web.
    
    Abbiamo anche algoritmi e inserimenti dati (data pushes) che vengono effettuati con frequenza minore.
    Per esempio c&#8217;è stato un inserimento il 27 giugno, il 27 luglio e il 17 Agosto.
    E questo va avanti da un anno e mezzo. Se questo vi ha colpito probabilmente leggete un forum SEO.
    
    Potreste voler pensare alle cause che hanno spinto fuori il vostro sito&#8230;pensate meno a quello che dicono i SEO sul forum, specie sul non avere il sito abbastanza ottimizzato.
    
    Bigdaddy era un aggiornamento della infrastruttura software, e quell&#8217;aggiornamento finì circa in Febbraio. Era più che altro un aggiornamento sul come effettuare il crawling del web, e come noi parzialmente lo indicizziamo. Questo è stato fatto per diversi mesi e le cose sono andate abbastanza liscie.
    
    C&#8217;è stato anche un completo aggiornamento della nostra infrastruttura sui dati supplementari.
    Questo successe un paio di mesi dopo Bigdaddy, ed è durata un mese o due. Fu una completa riscrittura, quindi questa infrastruttura di indicizzazione è differente da quella della nostra infrastruttura di indicizzazione principale.
    
    Vi aspettate di vedere qualche problema in più ogni volta che lo richiamate. We saw more small off the beaten path stuff, come il meno o i termini di esclusione, il meta tag noindex, cose come queste. E il modo in cui i risultati supplementari hanno lavorato con l&#8217;indice web principale..avete visto spesso risultati dove i siti non più esistenti erano troppi. C&#8217;era almeno un caso dove qualcuno pensava che uno spammer avesse 5 miliardi di pagine&#8230;e ogni volta che guardavo li dentro, il numero totale delle pagine che il loro dominio più grande aveva era 150.000. Quindi loro aggiungevano tutti queste stime tramite &#8220;site:&#8221; e finivano con un numero veramente grande che era senza senso.
    
    Una cosa carina è che abbiamo un altro aggiornamento della infrastruttura software che migliora la qualità come aspetto principale, ma comunque migliora le nostre valutazioni sul numero di pagine. Una sorta di beneficio collaterale.
    Questo aggiornamento è su tutti i datacenter ma può funzionare in modo sperimentale, quindi non è completamente attivo in ogni datacenter.
    
    Ci stiamo impegnando per averlo operativo ovunque entro la fine dell&#8217;estate, ma è una speranza, non una promessa.
    
    Quindi se le cose necessiteranno di più test, lavoreranno più a lungo per far si che ogni cosa funzionerà correttamente, e se tutto va bene allora potrà essere rilasciato più velocemente.
    
    [Matt continua spiegando che non c&#8217;è nessuna necessità per Google di aumentare la precisione della stima del comando &#8220;site:&#8221;, e che un webmaster migliore spende il suo tempo migliorando il sito (come guardare ai log del suo server e aumentare la rilevanza in nicchie specifiche). Matt aggiunge che se più persone chiederanno un &#8220;site:&#8221; più preciso, allora loro ci penseranno.
    L&#8217;intera nozione sul fatto che monitorare i datacenter sta per diventare molto più difficile per i singoli individui non è finita.
    
    Primo motivo, abbiamo così tante cose da lanciare e in varie maniere. Sono stato a incontri settimanali per questi lanci e ci sono cose da fare in quantità a due cifre, e queste sono cose non necessariamente si vedono. Sono strettamente qualitative, non stanno cambiando la UI o altro del genere. Se non stai facendo una ricerca specifica in Russo o Cinese, non ti accorgerai della differenza. Ma questo fa capire che noi continuiamo sempre a fare cose nuove, e su datacenter diversi dovresti avere dati un po&#8217; differenti.
    
    L&#8217;altra ragione è perchè non è tanto il controllare i datacanter ma quanto l&#8217;avere un intera fascia di indirizzi IP. E se sei un super SEO, saprai che se prendiamo &#8220;72.2.14.qualsiasicosa&#8221; quell&#8217;indirizzo IP andrà tipicamente a un datacenter, ma non è una garanzia. Se quel datacenter esce dalla rotazione, - sai potrebbe essere che stiamo facendo qualcosa su di esso, attualmente stiamo per cambiare la nostra infrastruttura hardware (e tutto quello di cui ho parlato fino ad ora è infrastruttura software) &#8211; quell&#8217;indirizzo IP può puntare a un datacenter completamente diverso.
    
    Quindi la capacità di comparare realmente i cambiamenti e parlare a un collega osservatore dei datacenter e dire, &#8220;Cosa vedi su 72.7.14.qualsiasicosa?&#8221; è molto limitata.
    
    Vorrei definitivamente consigliarvi di spendere più tempo a preoccuparvi dei risultati per cui volete competere, aumentando la qualità dei vostri contenuti, badando a personalità di alto profilo che pensate dovrebbero linkarvi e non lo stanno facendo (e che persino non lo sanno) e cose del genere. (&#8230;)
    
    Il fatto è: noi continuiamo sempre a migliorare la nostra infrastruttura, quindi non puoi mai garantire un posizionamento, o un primo posto per ogni termine commissionato.
    
    Perchè se no scopriamo che possiamo migliorare la qualità cambiando i nostri algoritmi o i dati o l&#8217;infrastruttura, o qualsiasi cosa, noi lo faremo.
    
    I migliori SEO secondo la mia esperienza sono quelli che si sanno adattare, e dire &#8220;OK, questo è il modo in cui mi sembra che ora l&#8217;algoritmo funzioni, io voglio fare un buon sito che farà bene con i motori di ricerca, questa è la direzione a cui voglio puntare in futuro.&#8221; E se lavori su questi tipi di abilità, allora non dovrai preoccuparti di svegliarti alle 3 del mattino, e chiedere su un forum &#8220;Come vedete questo datacenter, è cambiato molto?&#8221; e cose del genere.
    

  • User Attivo

    ehi aspetto i suggerimenti per correggere il paragrafo incriminato!

    🙂


  • Super User

    @raf86 said:

    ehi aspetto i suggerimenti per correggere il paragrafo incriminato!

    🙂
    non posso darti suggerimenti nel merito (sicuramente altri lo faranno) però voglio ringraziarti per l'ottima traduzione

    entrando nel merito di ciò che Matt dice c'è molto su cui riflettere ... a me quello che Matt ha detto è sembrato quasi un monito ... :ciauz:


  • Community Manager

    Volevo ringraziare **raf86 **per la traduzione di questo documento 🙂

    Dai su ragazzi, traducete l'ultimo pezzettino 🙂

    :ciauz: