• Moderatore

    Il Sandbox esiste...

    Dopo anni di diatribe tra leggende metropolitane e miti, google butta giù la maschera e rivela .........

    Trovate la news [url=http://www.giorgiotave.it/forum/viewtopic.php?p=32157#32157]qui


  • Super User

    😮

    porca miseria (mi sono trattenuto)

    Mah dunque Low non ha sempre ragione! :fumato:
    Comunque chi traduce tutto bene? direi che siamo davanti alla NEWS dell'anno dunque traduttori, please!


  • Super User

    http://www.threadwatch.org/node/3443#comment-21261

    Last night at the Google Dance at SES, I listened for some time to one of the Google engineers expounding on all things search at Google. He said that internally they do not refer to the probationary period as the sandbox. They've been amused by the term, and have affectionately turned to calling the sand covered volley ball court in their quadrangle "the sandbox".
    He did, however, openly acknowledge that they place new sites, regardless of their merit, or lack thereof, in a sort of probationary category. The purpose is, as MHes mentioned earlier, to allow time to determine how users react to a new site, who links to it, etc. He dismissed the notion that its related to Adwords or any financial considerations favoring Google.
    The probationary period can vary anywhere from six months to a year.
    That said, there are exceptions where sites quickly stimulate an obvious quantum leap in user popularity measured by quality IBLs, etc.

    I think the overal concensus was sandbox does not effect everyone and everything, it is just part of the algo and many sites fall foul of it.

    Da quello che c'è scritto qui sembra avere molto a che fare con l'analisi dell'accumulo dei dati storici durante i primi mesi di presenza nell'indice o almeno finchè non si verificano certe condizioni...


  • Super User

    è questo che mi colpisce

    That said, there are exceptions where sites quickly stimulate an obvious quantum leap in user popularity measured by quality IBLs, etc.

    ma se è vero questo come fa a punire gli spammer col sandbox? non verranno più facilmente puniti i siti piccoli di gente inesperta?


  • Moderatore

    Dando una lettura veloce, mi è parso di capire che il famigerato sandbox altro nn sia che quel limbo nel quale stiano i siti nuovi in attesa di assestamento nella serp.


  • Super User

    @esteban said:

    Dando una lettura veloce, mi è parso di capire che il famigerato sandbox altro nn sia che quel limbo nel quale stiano i siti nuovi in attesa di assestamento nella serp.

    si questo era ovvio, ma a me interessa più la parte in cui spiega come evitarlo 😄


  • Super User

    @kerouac3001 said:

    si questo era ovvio, ma a me interessa più la parte in cui spiega come evitarlo 😄

    That said, there are exceptions where sites quickly stimulate an obvious quantum leap in user popularity measured by quality IBLs, etc.L'hai quotato prima, "ci sono eccezioni quando i siti stimolano velocemente un evidente salto di stato misurato attraverso backlink di qualità etc.


  • Super User

    @beke said:

    @kerouac3001 said:
    si questo era ovvio, ma a me interessa più la parte in cui spiega come evitarlo 😄

    That said, there are exceptions where sites quickly stimulate an obvious quantum leap in user popularity measured by quality IBLs, etc.L'hai quotato prima, "ci sono eccezioni quando i siti stimolano velocemente un evidente salto di stato misurato attraverso backlink di qualità etc.

    si lo so 😄 non intendevo dire: "a me interessa più la traduzione di quel pezzo"

    Intendevo: "secondo me quello è il punto da focalizzare" 😄

    Io l'inglese lo so poco..una traduzione integrale non la so fare 😞
    Però qualcosa ogni tanto lo capisco 🙂 e il senso generale pure 😄
    Ciò che mi chiedevo e se avete trovato parti in cui parla di altri sistemi per evitarlo 😄


  • Super User

    Scusate... guardate che quella conferma è dello scorso agosto, peraltro pubblicata pure dal sottoscritto e citata anche in qualche mio intervento in questi forum.

    Il problema è che, se leggete bene [url=http://blog.searchenginewatch.com/blog/050920-094454]Search Engine Watch, nessuno sa di cosa si tratti:

    a) DougS sostiene che tutti i siti incappano in un periodo di prova.

    b) Rand Fishkin sostiene invece che un sito deve far scattare "una molla" per subire il sandbox.

    c) Dave Naylor sostiene che quello che dice Rand Fishkin in realtà non si riferisce al sandbox ma ad altre tecniche antispam.

    E queste tre persone stavano tutte e tre ad ascoltare lo stesso ingegnere di Google. 😄 A dimostrazione della differenza che c'è tra quello che uno dice e ciò che viene riportato da chi lo ascolta.

    Che un fenomeno esista è sempre stato evidente e l'abbiamo osservato e scritto tutti quanti, ma come vedete nessuno sa ancora di che cosa si tratta.

    Domanda: Dove starebbe la notizia rispetto a quello diffuso lo scorso agosto?

    Risposta: Non c'è. Search Engine Watch lo scrive solo perché ne sta riparlando (dopo un mese) News.com. 🙂


  • Super User

    Grazie del chiarimento 🙂 io non l'avevo letta ad agosto..anche perchè non c'ero. Però quanto sostenuto sui BLs è vero? un buon numero di bls puliti fa evitare il sandbox?

    P.S. te la sei presa perchè ho detto che non hai sempre ragione? 😉


  • Super User

    @kerouac3001 said:

    Però quanto sostenuto sui BLs è vero? un buon numero di bls puliti fa evitare il sandbox?

    Quello che ritengo io e quello che viene fuori dalle affermazioni di quei tre è molto diverso, sopratutto perché quei tre stavano bevendo alcolici durante un party :D, quando hanno appreso quelle informazioni. La conseguenza, come puoi vedere, è che danno tre versioni diverse della stessa storia. 🙂

    Io ho osservato che se un nuovo sito attrae naturalmente una buona quantità di link genuini, allora il sandbox non si manifesta. Quindi, o metti online qualcosa a cui la gente reagirà con "Wow!" (linkandola) oppure simuli ciò che accade quando qualcuno mette online qualcosa a cui la gente reagirebbe con "Wow!".

    P.S. te la sei presa perchè ho detto che non hai sempre ragione? 😉

    No, ma ci sono quattro argomenti sui quali discuto con la sciabola tra i denti: meta tag, pagerank, keyword density e sandbox. 😉

    Adesso scrivo a Sullivan e gli dico di chiedere a Coinman, Multiman e Fluidman qual'era il loro tasso alcolico mentre ascoltavano Matt Cutts. 😄


  • Community Manager

    @LowLevel said:

    Domanda: Dove starebbe la notizia rispetto a quello diffuso lo scorso agosto?

    Risposta: Non c'è. Search Engine Watch lo scrive solo perché ne sta riparlando (dopo un mese) News.com. 🙂

    Low, sarò sincero.

    Non sono intervenuto apposta perchè attendevo una tua risposta di questo tipo 😄


  • Super User

    @Giorgiotave said:

    Non sono intervenuto apposta perchè attendevo una tua risposta di questo tipo 😄

    Ho preferito precisare altrimenti pare che il sottoscritto neghi l'evidenza di qualcosa che esiste. 🙂

    Io non nego l'esistenza del sandbox, nego il fatto che significhi "troppo giovane per posizionarsi bene".

    E ne approfitto per aggiungere un'ultima osservazione: se si trattasse effettivamente dell'applicazione di (parte) del brevetto sui dati storici, mi pare evidente che i siti appena nati non possiedono alcun passato e gli algoritmi sui dati storici non ci potrebbero lavorare sopra. Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia.


  • Super User

    @"LowLevel" said:

    [quote=Giorgiotave]
    Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia.

    Cioè amunentare contenuti giorno per giorno?


  • Super User

    @kerouac3001 said:

    Cioè amunentare contenuti giorno per giorno?

    Più che altro il tipo di materiale utile agli algoritmi per registrare l'opinione che il Web ha del sito. Ovvero: backlink e traffico. (backlink di sicuro, traffico secondo una mia illazione).

    Ma non backlink qualunque, backlink "genuini". Ve lo ricordate Search Bistro (www.searchbistro.com)? Dominio nuovo, una caterva di link sin dal primo giorno e da mezzo pianeta. Nessun accenno di sandbox.

    Ma quel sito pubblicò materiale inedito e riservato su Google e fece scalpore. Ecco, io dico che bisogna "fare notizia" e differenziarsi da ciò che già esiste nello stesso settore, se si vuole salire velocemente di posizione con un sito nuovo.

    Differenziarsi dal resto induce la gente a comportarsi in un modo ed i motori possono registrare (indirettamente) questi comportamenti, ottenendone una valutazione del sito.

    Giusto per chiarire, concetti simili vengono già utilizzati in Google News per decidere a quali notizie dare priorità. Non si tratta di ipotesi campate in aria.


  • Super User

    @LowLevel said:

    @kerouac3001 said:

    Cioè amunentare contenuti giorno per giorno?
    (backlink di sicuro, traffico secondo una mia illazione).

    Cioè tu pensi che google si salvi il numero di accessi che hai avuto tramite il suo mdr?


  • Super User

    Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia

    quindi + nutri il sito all'inizio e migliore sarà il suo ingresso nel regno di google

    probabilmente era intuibile , insomma se un sito è nuovo ma fin dal primo giorno da info e viene linkato può essere reputato una buona fonte di informazioni


  • User Attivo

    Credo sia indubbia la cosa che bl + traffico al sito ( se nuovo o meno non importa) fa scattare un qualche cosa da parte di GG che dice:

    Acci ... quarda che traffico genera quel sito ... e ha pure degli ottimi bl...

    secondo me questa è una parte dell'alchimia che fa o non fa stare molto tempo TUTTI I SITI nel Sandbox

    :ciauz:

    SEO


  • Super User

    @kerouac3001 said:

    Cioè tu pensi che google si salvi il numero di accessi che hai avuto tramite il suo mdr?

    Io penso che Google sia in grado di ottenere un estratto degli accessi ai siti web percentualmente rappresentativo dell'intero traffico sul Web attraverso molti metodi: toolbar, click sui risultati delle ricerche, il "fu" Accelerator, i vari servizi di proxy (tipo il WAP o il recente Google Secure Access) e forse anche le impression AdSense.

    Per quanto nessun metodo è in grado di fornire dati precisi su ogni singolo sito, registrare un "picco" su un sito che sta facendo molto parlare di sé è alquanto facile.

    probabilmente era intuibile , insomma se un sito è nuovo ma fin dal primo giorno da info e viene linkato può essere reputato una buona fonte di informazioni

    A questo io aggiungevo anche un limite strettamente tecnico: se l'algoritmo si basa sui dati storici, l'unica cosa che può estrapolare da una storia inesistente (tipica dei siti nuovi) è il valore zero. E il sito non può salire di posizione.


  • User Attivo

    @LowLevel said:

    @kerouac3001 said:

    Cioè tu pensi che google si salvi il numero di accessi che hai avuto tramite il suo mdr?

    Io penso che Google sia in grado di ottenere un estratto degli accessi ai siti web percentualmente rappresentativo dell'intero traffico sul Web attraverso molti metodi: toolbar, click sui risultati delle ricerche, il "fu" Accelerator, i vari servizi di proxy (tipo il WAP o il recente Google Secure Access) e forse anche le impression AdSense.

    Per quanto nessun metodo è in grado di fornire dati precisi su ogni singolo sito, registrare un "picco" su un sito che sta facendo molto parlare di sé è alquanto facile.

    Low hai perfettamente ragione 🙂

    dal [url=http://www.giorgiotave.it/forum/viewtopic.php?t=628&postdays=0&postorder=asc&highlight=definizione+brevetti+google&start=0]brevetto sui dati storici: per analisi di dati di tipo storico google rileva le preferenze degli utenti provenienti dalle serp in favore di un sito piuttosto che un altro(dalla sezione [url=http://www.giorgiotave.it/forum/viewtopic.php?t=2915&highlight=analisi+ricerche]analisi delle ricerche). Qeusto può essere è un parametro che incide sul traffico ma lo vedremo in maniera più approfondita nella sezione sul Comportamento degli utenti.

    poi nella sezione [url=http://www.giorgiotave.it/forum/viewtopic.php?t=628&postdays=0&postorder=asc&highlight=definizione+brevetti+google&start=60]Traffico c'è un chiaro riferimento anche al traffico pubblicitario:
    è il prossimo argomento che abbiamo tradotto con Beke 🙂 )

    da quello che si evince dal brevetto questi due fattori possono essere combinati tra loro (o con altri): l'algoritmo dovrebbe capire le preferenze dell'utente anche dal traffico (inteso sia come numero di click che tempi di navigazione) che un documente riceve piuttosto di un altro.

    Sull'effetto sandbox: come dicevo in laboratorio l'unica fonte ufficiale che conosco per spiegarla sono proprio i dati storici.

    Ma come dice Low:

    ** se **l'algoritmo si basa sui dati storici, l'unica cosa che può estrapolare da una storia inesistente (tipica dei siti nuovi) è il valore zero. E il sito non può salire di posizione.

    e questo è un buon punto di riflessione. 🙂

    :ciauz: