• Moderatore

    Dando una lettura veloce, mi è parso di capire che il famigerato sandbox altro nn sia che quel limbo nel quale stiano i siti nuovi in attesa di assestamento nella serp.


  • Super User

    @esteban said:

    Dando una lettura veloce, mi è parso di capire che il famigerato sandbox altro nn sia che quel limbo nel quale stiano i siti nuovi in attesa di assestamento nella serp.

    si questo era ovvio, ma a me interessa più la parte in cui spiega come evitarlo 😄


  • Super User

    @kerouac3001 said:

    si questo era ovvio, ma a me interessa più la parte in cui spiega come evitarlo 😄

    That said, there are exceptions where sites quickly stimulate an obvious quantum leap in user popularity measured by quality IBLs, etc.L'hai quotato prima, "ci sono eccezioni quando i siti stimolano velocemente un evidente salto di stato misurato attraverso backlink di qualità etc.


  • Super User

    @beke said:

    @kerouac3001 said:
    si questo era ovvio, ma a me interessa più la parte in cui spiega come evitarlo 😄

    That said, there are exceptions where sites quickly stimulate an obvious quantum leap in user popularity measured by quality IBLs, etc.L'hai quotato prima, "ci sono eccezioni quando i siti stimolano velocemente un evidente salto di stato misurato attraverso backlink di qualità etc.

    si lo so 😄 non intendevo dire: "a me interessa più la traduzione di quel pezzo"

    Intendevo: "secondo me quello è il punto da focalizzare" 😄

    Io l'inglese lo so poco..una traduzione integrale non la so fare 😞
    Però qualcosa ogni tanto lo capisco 🙂 e il senso generale pure 😄
    Ciò che mi chiedevo e se avete trovato parti in cui parla di altri sistemi per evitarlo 😄


  • Super User

    Scusate... guardate che quella conferma è dello scorso agosto, peraltro pubblicata pure dal sottoscritto e citata anche in qualche mio intervento in questi forum.

    Il problema è che, se leggete bene [url=http://blog.searchenginewatch.com/blog/050920-094454]Search Engine Watch, nessuno sa di cosa si tratti:

    a) DougS sostiene che tutti i siti incappano in un periodo di prova.

    b) Rand Fishkin sostiene invece che un sito deve far scattare "una molla" per subire il sandbox.

    c) Dave Naylor sostiene che quello che dice Rand Fishkin in realtà non si riferisce al sandbox ma ad altre tecniche antispam.

    E queste tre persone stavano tutte e tre ad ascoltare lo stesso ingegnere di Google. 😄 A dimostrazione della differenza che c'è tra quello che uno dice e ciò che viene riportato da chi lo ascolta.

    Che un fenomeno esista è sempre stato evidente e l'abbiamo osservato e scritto tutti quanti, ma come vedete nessuno sa ancora di che cosa si tratta.

    Domanda: Dove starebbe la notizia rispetto a quello diffuso lo scorso agosto?

    Risposta: Non c'è. Search Engine Watch lo scrive solo perché ne sta riparlando (dopo un mese) News.com. 🙂


  • Super User

    Grazie del chiarimento 🙂 io non l'avevo letta ad agosto..anche perchè non c'ero. Però quanto sostenuto sui BLs è vero? un buon numero di bls puliti fa evitare il sandbox?

    P.S. te la sei presa perchè ho detto che non hai sempre ragione? 😉


  • Super User

    @kerouac3001 said:

    Però quanto sostenuto sui BLs è vero? un buon numero di bls puliti fa evitare il sandbox?

    Quello che ritengo io e quello che viene fuori dalle affermazioni di quei tre è molto diverso, sopratutto perché quei tre stavano bevendo alcolici durante un party :D, quando hanno appreso quelle informazioni. La conseguenza, come puoi vedere, è che danno tre versioni diverse della stessa storia. 🙂

    Io ho osservato che se un nuovo sito attrae naturalmente una buona quantità di link genuini, allora il sandbox non si manifesta. Quindi, o metti online qualcosa a cui la gente reagirà con "Wow!" (linkandola) oppure simuli ciò che accade quando qualcuno mette online qualcosa a cui la gente reagirebbe con "Wow!".

    P.S. te la sei presa perchè ho detto che non hai sempre ragione? 😉

    No, ma ci sono quattro argomenti sui quali discuto con la sciabola tra i denti: meta tag, pagerank, keyword density e sandbox. 😉

    Adesso scrivo a Sullivan e gli dico di chiedere a Coinman, Multiman e Fluidman qual'era il loro tasso alcolico mentre ascoltavano Matt Cutts. 😄


  • Community Manager

    @LowLevel said:

    Domanda: Dove starebbe la notizia rispetto a quello diffuso lo scorso agosto?

    Risposta: Non c'è. Search Engine Watch lo scrive solo perché ne sta riparlando (dopo un mese) News.com. 🙂

    Low, sarò sincero.

    Non sono intervenuto apposta perchè attendevo una tua risposta di questo tipo 😄


  • Super User

    @Giorgiotave said:

    Non sono intervenuto apposta perchè attendevo una tua risposta di questo tipo 😄

    Ho preferito precisare altrimenti pare che il sottoscritto neghi l'evidenza di qualcosa che esiste. 🙂

    Io non nego l'esistenza del sandbox, nego il fatto che significhi "troppo giovane per posizionarsi bene".

    E ne approfitto per aggiungere un'ultima osservazione: se si trattasse effettivamente dell'applicazione di (parte) del brevetto sui dati storici, mi pare evidente che i siti appena nati non possiedono alcun passato e gli algoritmi sui dati storici non ci potrebbero lavorare sopra. Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia.


  • Super User

    @"LowLevel" said:

    [quote=Giorgiotave]
    Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia.

    Cioè amunentare contenuti giorno per giorno?


  • Super User

    @kerouac3001 said:

    Cioè amunentare contenuti giorno per giorno?

    Più che altro il tipo di materiale utile agli algoritmi per registrare l'opinione che il Web ha del sito. Ovvero: backlink e traffico. (backlink di sicuro, traffico secondo una mia illazione).

    Ma non backlink qualunque, backlink "genuini". Ve lo ricordate Search Bistro (www.searchbistro.com)? Dominio nuovo, una caterva di link sin dal primo giorno e da mezzo pianeta. Nessun accenno di sandbox.

    Ma quel sito pubblicò materiale inedito e riservato su Google e fece scalpore. Ecco, io dico che bisogna "fare notizia" e differenziarsi da ciò che già esiste nello stesso settore, se si vuole salire velocemente di posizione con un sito nuovo.

    Differenziarsi dal resto induce la gente a comportarsi in un modo ed i motori possono registrare (indirettamente) questi comportamenti, ottenendone una valutazione del sito.

    Giusto per chiarire, concetti simili vengono già utilizzati in Google News per decidere a quali notizie dare priorità. Non si tratta di ipotesi campate in aria.


  • Super User

    @LowLevel said:

    @kerouac3001 said:

    Cioè amunentare contenuti giorno per giorno?
    (backlink di sicuro, traffico secondo una mia illazione).

    Cioè tu pensi che google si salvi il numero di accessi che hai avuto tramite il suo mdr?


  • Super User

    Quindi prima si fornisce "materiale" agli algoritmi e prima il sito si costruirà una sua storia

    quindi + nutri il sito all'inizio e migliore sarà il suo ingresso nel regno di google

    probabilmente era intuibile , insomma se un sito è nuovo ma fin dal primo giorno da info e viene linkato può essere reputato una buona fonte di informazioni


  • User Attivo

    Credo sia indubbia la cosa che bl + traffico al sito ( se nuovo o meno non importa) fa scattare un qualche cosa da parte di GG che dice:

    Acci ... quarda che traffico genera quel sito ... e ha pure degli ottimi bl...

    secondo me questa è una parte dell'alchimia che fa o non fa stare molto tempo TUTTI I SITI nel Sandbox

    :ciauz:

    SEO


  • Super User

    @kerouac3001 said:

    Cioè tu pensi che google si salvi il numero di accessi che hai avuto tramite il suo mdr?

    Io penso che Google sia in grado di ottenere un estratto degli accessi ai siti web percentualmente rappresentativo dell'intero traffico sul Web attraverso molti metodi: toolbar, click sui risultati delle ricerche, il "fu" Accelerator, i vari servizi di proxy (tipo il WAP o il recente Google Secure Access) e forse anche le impression AdSense.

    Per quanto nessun metodo è in grado di fornire dati precisi su ogni singolo sito, registrare un "picco" su un sito che sta facendo molto parlare di sé è alquanto facile.

    probabilmente era intuibile , insomma se un sito è nuovo ma fin dal primo giorno da info e viene linkato può essere reputato una buona fonte di informazioni

    A questo io aggiungevo anche un limite strettamente tecnico: se l'algoritmo si basa sui dati storici, l'unica cosa che può estrapolare da una storia inesistente (tipica dei siti nuovi) è il valore zero. E il sito non può salire di posizione.


  • User Attivo

    @LowLevel said:

    @kerouac3001 said:

    Cioè tu pensi che google si salvi il numero di accessi che hai avuto tramite il suo mdr?

    Io penso che Google sia in grado di ottenere un estratto degli accessi ai siti web percentualmente rappresentativo dell'intero traffico sul Web attraverso molti metodi: toolbar, click sui risultati delle ricerche, il "fu" Accelerator, i vari servizi di proxy (tipo il WAP o il recente Google Secure Access) e forse anche le impression AdSense.

    Per quanto nessun metodo è in grado di fornire dati precisi su ogni singolo sito, registrare un "picco" su un sito che sta facendo molto parlare di sé è alquanto facile.

    Low hai perfettamente ragione 🙂

    dal [url=http://www.giorgiotave.it/forum/viewtopic.php?t=628&postdays=0&postorder=asc&highlight=definizione+brevetti+google&start=0]brevetto sui dati storici: per analisi di dati di tipo storico google rileva le preferenze degli utenti provenienti dalle serp in favore di un sito piuttosto che un altro(dalla sezione [url=http://www.giorgiotave.it/forum/viewtopic.php?t=2915&highlight=analisi+ricerche]analisi delle ricerche). Qeusto può essere è un parametro che incide sul traffico ma lo vedremo in maniera più approfondita nella sezione sul Comportamento degli utenti.

    poi nella sezione [url=http://www.giorgiotave.it/forum/viewtopic.php?t=628&postdays=0&postorder=asc&highlight=definizione+brevetti+google&start=60]Traffico c'è un chiaro riferimento anche al traffico pubblicitario:
    è il prossimo argomento che abbiamo tradotto con Beke 🙂 )

    da quello che si evince dal brevetto questi due fattori possono essere combinati tra loro (o con altri): l'algoritmo dovrebbe capire le preferenze dell'utente anche dal traffico (inteso sia come numero di click che tempi di navigazione) che un documente riceve piuttosto di un altro.

    Sull'effetto sandbox: come dicevo in laboratorio l'unica fonte ufficiale che conosco per spiegarla sono proprio i dati storici.

    Ma come dice Low:

    ** se **l'algoritmo si basa sui dati storici, l'unica cosa che può estrapolare da una storia inesistente (tipica dei siti nuovi) è il valore zero. E il sito non può salire di posizione.

    e questo è un buon punto di riflessione. 🙂

    :ciauz:


  • Super User

    Premesso che gli algoritmi di Google li conoscono solo gli ingegneri di Google, credo che però si possano analizzare alcuni indizi, fare delle ipotesi, e magari analizzarle e criticarle insieme.

    Credo sia questo il bello di un forum, soprattutto di un forum pieno di persone interessate all'argomento e propense alla discussione 🙂

    Google ha brevettato degli algoritmi che permettono di analizzare le variazioni nel tempo di alcuni parametri importanti che riguardano l'aggiornamento di contenuti, i backlink, il traffico, il comportamento degli utenti rispetto alle serp ed altri fattori.

    D'altra parte al SES alcuni dei SEO più quotati negli USA hanno confermato che per ora questi brevetti non sembrano influire sul posizionamento dei siti, addirittura li hanno definiti una cortina di fumo.

    IPOTESI:
    Può darsi allora che questi algoritmi vengano utilizzati nella fase iniziale della presenza di un sito nell'indice, per stabilire se il sito si sviluppa in modo "sospetto" o "naturale".

    Può darsi che, fino a quando questo non è chiaro, Google decida di poter fare a meno di posizionare bene quella risorsa, o che almeno decida di farlo fino a quando alcuni parametri non lo convinceranno che gli conviene farla salire.

    Il fatto che i dati storici all'inizio non esistano secondo me non è un ostacolo a questo tipo di analisi che per lo più riguarda curve di crescita di fattori all'interno di intervalli di tempo che possono partire da zero come da qualsiasi altro valore.

    Google dice esplicitamente che gli andamenti dei vari parametri dei documenti possono venire confrontati con modelli di curva prestabiliti, il che secondo me può far scattare per esempio l'uscita dalla fase di "test" perchè si è verificato un certo aumento del traffico o di backlink di un certo tipo o altro.


  • User Attivo

    ora una bella domanda sarebbe:
    su che fattori si basa Google per determinare queli sono VERAMENTE i back link di qualità?


  • Super User

    Secondo me un backlink di qualità è quello che proviene, per esempio, da:

    • un sito a tema
    • autorevole rispetto all'argomento trattato da entrambi
    • non affiliato
    • che contenga altri link a risorse relative all'argomento e a loro volta non affiliate fra loro
    • non ricambiato