- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Analisi sandbox
-
@EthanDane said:
The chart belows can be used to interpret the meaning of your score in relation to the sandbox effect:
20.1-30% Not enough factors available for interpretationQuindi secondo loro il mio sito non dovrebbe essere in sandox?
giusto?No, significa che non ci sono abbastanza fattori per capire se lo è o meno.
-
@LowLevel said:
E' un ottimo articolo. In una sola pagina racchiude tutte le teorie su cosa potrebbe essere il sandbox.
Visto
Personalmente ritengo che le teorie più probabili siano solo un paio, ed il resto solo congetture.
Quali ritieni si e quali no.
Ovviamente ho la mia teoria preferita, sopratutto perché quando i siti iniziarono a cadere notai che pressoché tutti i siti colpiti avevano esagerato col pompare artificiosamente la propria link popularity.
Dacci illuminazioni secondo la tua teoria, tempi e modi di inserire dei inbound link per non incorrere quanto tu affermi.
Su SEOchat dovrebbe esserci ancora un mio intervento in proposito.
Ti ricordi dov'è?
p.s.
Lo so lowLewel che a volte ti bombardiamo di domande, ma sai com'è a volte ti consideriamo più che un guru (non me ne volgiano gli altri, ma a volte il mio lecchinaggio è mostruoso )
-
@positano said:
Quali ritieni si e quali no.
C'è una strada che io so i motori di ricerca hanno interesse a percorrere. Non sono in grado di determinare quanta strada hanno già fatto, ma so che è la strada che stanno percorrendo.
Questa strada è quella del miglioramente dei concetti di "popolarità " ed "importanza" di un sito web.
I criteri finora utilizzati per analizzare la popolarità e importanza di un sito sono facilmente manipolabili. Tu puoi creare migliaia di link verso un sito, ma quei link non sono il sintomo di una sua maggiore popolarità . E i motori di ricerca stanno facendo di tutto per ottenere indici di popolarità più realistici e corretti.
Pertanto, quando avvengono cataclismi come il sandbox, io trovo tali fenomeni abbastanza scontati e prevedibili. Gli effetti di questi fenomeni sono da imputare da un lato alla volontà di registrare un valore di popolarità realistico dei siti e dall'altro dall'impossibilità di ottenere una soluzione in grado di evitare del tutto gli errori di valutazione.
Pertanto, le teorie che ritengo plausibili sono tutte quelle che si basano su elementi tecnici che permettano ai motori di ricerca di ottenere indici di valutazione migliori.
Ha senso pensare ad un nuovo modo di analizzare i link e iniziare a chiedersi le finalità della nuova analisi, ha molto meno senso creare teorie non basate sulla tecnologia, tipo che Google vuole colpire solo le keyword commerciali per vendere più AdWords (il che non significa che non sia vero, ma solo che è una congettura che non dà né spiegazioni su quello che accade tecnicamente né sulle possibili soluzioni, lasciando il tempo che trova: buona per sfogarsi ma inutile per capire).
Non penso ci sia un tempo ottimale per la creazione di backlink valevole per tutti i siti e per tutte le occasioni. Ne parlavo proprio in quel vecchio [url=http://forums.seochat.com/showthread.php?p=157816#post157816]post su SEOchat.
-
@LowLevel said:
@positano said:
Quali ritieni si e quali no.
C'è una strada che io so i motori di ricerca hanno interesse a percorrere. Non sono in grado di determinare quanta strada hanno già fatto, ma so che è la strada che stanno percorrendo.
Questa strada è quella del miglioramente dei concetti di "popolarità " ed "importanza" di un sito web.
I criteri finora utilizzati per analizzare la popolarità e importanza di un sito sono facilmente manipolabili. Tu puoi creare migliaia di link verso un sito, ma quei link non sono il sintomo di una sua maggiore popolarità . E i motori di ricerca stanno facendo di tutto per ottenere indici di popolarità più realistici e corretti.
Pertanto, quando avvengono cataclismi come il sandbox, io trovo tali fenomeni abbastanza scontati e prevedibili. Gli effetti di questi fenomeni sono da imputare da un lato alla volontà di registrare un valore di popolarità realistico dei siti e dall'altro dall'impossibilità di ottenere una soluzione in grado di evitare del tutto gli errori di valutazione.
Pertanto, le teorie che ritengo plausibili sono tutte quelle che si basano su elementi tecnici che permettano ai motori di ricerca di ottenere indici di valutazione migliori.
Ha senso pensare ad un nuovo modo di analizzare i link e iniziare a chiedersi le finalità della nuova analisi, ha molto meno senso creare teorie non basate sulla tecnologia, tipo che Google vuole colpire solo le keyword commerciali per vendere più AdWords (il che non significa che non sia vero, ma solo che è una congettura che non dà né spiegazioni su quello che accade tecnicamente né sulle possibili soluzioni, lasciando il tempo che trova: buona per sfogarsi ma inutile per capire).
Non penso ci sia un tempo ottimale per la creazione di backlink valevole per tutti i siti e per tutte le occasioni. Ne parlavo proprio in quel vecchio [url=http://forums.seochat.com/showthread.php?p=157816#post157816]post su SEOchat.
Low ma ultimamente frequenti per caso qualche politico ?
Scherzo non che abbia capito molto da quanto hai scritto , ma sto cercando di decifrare il tuo post (se mia figlia me lo traduce) su seochat e mi sembra leggermente più chiaro il tuo concetto (per quello che ho capito dal traduttore di google), dunque link, per msn e yahoo, ad aiosa ne più e ne meno di come si sia fatto fino ad oggi, per google attenzione, la naturalezza dei link è importante, la sua genuinità in virtù dei tempi, passo ad un esempio per vedere se ho capito bene, io ho un sito di turismo, di questi tempi è risaputo che la richiesta scende, se improvvisamente il link in entrata diventano tanti, google arriccia un po il naso e va a frugare quanto di genuino ci sia, magari non trova aggiornamenti, non trova news interessanti per giustificare l'aumento dei inbound link, a quel punto di penalizza, giusto il concetto ho capito bene?
Se fosse così i tempi non hanno tanta importanza ma sono le condizioni che fanno variare il tutto. Mi fermo per adesso.
p.s.
mi ripeti più maccheonicamente quanto detto nel tuo post di cui sopra?
-
ma è un concetto fighissimo questo!!!!!!
ammettendo di avere a disposizione la possibilità di piazzare da qualche parte un backlink, per sfruttarlo oltre alle note tecniche del codice si può usare anche la "tempestività ".
pubblico un articolo nuovo sul sito, piazzo un backlink che punta all'articolo ancora prima che questo venga indicizzato.
gg trova un bk nuovo, trova un articolo nuovo fa 2+2 e ritiene il sito aggiornato con un aggiornamento interessante.
concetto assolutamente banale.... dopo averlo compreso!!!
10s a lot low
-
@positano said:
giusto il concetto ho capito bene?
Sì.
Se fosse così i tempi non hanno tanta importanza ma sono le condizioni che fanno variare il tutto.
Sì, ma il modo per fargli accettare mille link nati in un giorno è diverso (e più complesso) di quello per fargli accettare mille link nati in tre mesi. Il discorso temporale gioca un ruolo essenziale.
mi ripeti più maccheonicamente quanto detto nel tuo post di cui sopra?
Super-riassunto: la maggior parte dei backlink deve apparire giustificata. E la giustificazione deve essere buona. 1000 link in una notte possono essere giustificabili o non giustificabili, a seconda del tipo di link e, come dicevi tu, delle condizioni in cui i link nascono.
-
@LowLevel said:
1000 link in una notte possono essere giustificabili o non giustificabili, a seconda del tipo di link e, come dicevi tu, delle condizioni in cui i link nascono.
quanto vorrei avere il problema di come far comparire 1000bl in una notte...
-
su webmasterworld c'e' un thread sull'argomento.
tra le altre cose, ai fini di verificare se il sito e' in sandbox (o puffato, a discrezione), suggeriscono di confrontare le ricerche:
keyword
e
allintext: keyword
allinanchor: keyword
allintitle: keywordchiedo a chi di voi ne sa qualcosa:
- e' realistico come metodo empirico per valutare la presenza del sandbox (o della puffata, a discrezione)?
- una volta fuori dal sandbox (o non piu' puffati, a discrezione), ci si dovrebbe trovare con "keyword" nelle posizioni che si hanno con all*: keyword ?
- si esce dal sandbox (o non si viene piu' puffati, a discrezione) all'improvviso, un po' alla volta, da un giorno all'altro, durante un update, solo con la luna piena e i lupi che ululano?
-
mmm allora il mio sito si trova in 71esima posizione (oggi perchè balla che è una bellezza) con la key cellulari.
Ho fatto come mi hai detto
Per allintext: cellulari
http://www.google.it/search?sourceid=navclient&hl=it&ie=UTF-8&rls=GGLG,GGLG:2005-34,GGLG:it&q=allintext%3A+cellulari
Il mio sito è presente in SESTA posizionePer allinanchor: cellulari
http://www.google.it/search?hl=it&c2coff=1&rls=GGLG%2CGGLG%3A2005-34%2CGGLG%3Ait&q=allinanchor%3A+cellulari&meta=
Il mio sito è presente in SESTA posizionePer allintitle: cellulari
http://www.google.it/search?hl=it&c2coff=1&rls=GGLG%2CGGLG%3A2005-34%2CGGLG%3Ait&q=allintitle%3A+cellulari&meta=
Il mio sito è presente in QUARTA posizioneQuesto cosa significa? che non sono in sandox?
Grazie
-
up