- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- [LIVE GT con Stuart] - Questions and Answers
-
@dam said:
Grazie!
...quindi indirettamente PR maggiore implica una maggiore popolarità e di conseguenza una maggior numero di visite.
No, le maggiori visite non sono conseguenza di un alto PR.
Potrei avere 1.000.000 di euro da parte, comprare link per 3 mesi e arrivare a toolbar PR 9 ma avere 3 unici al giornoAl massimo, un sito molto visitato, aumenta le possibilità di essere notato, e quindi linkato. Un conto la popolarità "algoritmica" (vedi PR), un conto la popolarità reale (numero visite)
@"dam" said:
La domanda derivava dalla considerazione che un sito giovane viene premiato poco da google (almeno questo è quello che ho capito leggendo in giro) e quindi mi chiedevo se passato il tempo tecnico di google e quindi incrementanto il PR del sito = maggiori visite con gli stessi contenuti..
Spero di non aver fatto più confuzione di prima
Ciao!
il sito "giovane" viene premiato poco da Google perchè non esistono dati storici di quel sito (fondamentalmente una storia dei backlink, del numero di pagine indicizzate, e del traffic pattern)
-
@rigby76 said:
Esistono dei parametri o delle tecniche per misurare la "difficoltà" di uscire con una key (oltre al numero di pag indicizzate)?
Grazie e complementi per la preparazione e la disponibilità!
Non ti consiglio ti considerare il numero di pagine tra i risultati come indice di competitività di una ricerca, perchè non vi è una vera correlazione.
"Guida Valencia" e "Valencia" sono due ricerche , e causano due serp, estremamente diverse. Per le quali vengono presi in considerazione parametri diversi: cluster, backlink, anzianità, traffico, espansione query ecc ecc....
Ti suggerisco un tool per l'analisi della competitività delle kwd
http://www.seomoz.org/tools.php (a memoria, sto conservando lo spirito del LIVE) e scegli il Kwd competivity tool
-
@must said:
altra domanda: sei cosí lento a rispondere perché con una mano scrivi e con l'altra tieni il telefono?
Sono lento nonostante abbia rischiato di fondere la tastiera durante il LIVE...
Ho ignorato tutte le chiamate finora giunte (5)..
-
@Lord Baron said:
- Come ben sai abbiamo un blog su blogger per questo vorrei sapere a)sai quale dovrebbe essere la lunghezza ottimale di un post? b) quanti link e' ottimale mettere dal blog ai nostri portali ogni mese sensa che G si incacchi?
Non c'è una soglia di lunghezza oltre/prima la quale Google comincia ad inca**arsi. Un post di 3 righe al semplice scopo di mettere un link direi che è quantomeno sospetto.
Fossi in te, non linkerei UNICAMENTE le pagine di un unico sito (il tuo), ma generosamente linkerei sporadicamente anche altre strutture. Ne guadagnerà l'autorevolezza del blog.
Parallelamente un blog che (indipendentemente dalla frequenza) linka sempre un unico sito in qualsiasi post sarà presto associato ad uno splog (spamblog).@"LordBaron" said:
- Stiamo studiando la possibilita di aderire con una compagnia (che se me lo chiedi posto l indirizzo) per far partire una tele online chiaramente con lo stesso tema dei nostri portali. Come vedi questo mercato? Credi che sia ancora presto?
Saluti
LB
Su internet non è MAI troppo presto.
Nella peggiore delle ipotesi arriverai in un mercato che magari si svilupperà nei prossimi anni, ma il tuo nome, la tua attività saranno già noti.
Al di là degli aspetti SEO, non sottovalutare mai ogni singolo passo che può portarti traffico, ritorno di immagine, popolarità.
-
@sitionweb said:
Ciao Stu e complimenti per il tuo live
Una domandina... Immagino sia possibile, aprendo un sito web oggi, che diventi importante tanto da meritare il primo posto in SERP e i sottomenu da Google...
ad esempio questo
Per arrivare a tanto, è solo un lavoro di "pazienza" (quindi contenuti, BL, ...) o secondo te c'è dell'altro?
Grazie
Quella particolare snippet ha origine algoritmica.
Francamente non ho ancora scoperto come ottenerla, presumo che sia un mix di (click) popularity, e backlink.Indipendentemente da quella snippet, il termine "pazienza" lo trasformerei in "acquisizione di fiducia" da parte di Google. Che in senso molto ampio non significa unicamente il numero (e la qualità) dei backlink ma anche il loro progressivo aumento, traffico, stabilità del topic.
-
@sitionweb said:
Ho notato una cosa alquanto singolare:
gestendo due forum, ne ho linkato uno da un sito esterno al mio (due links) e dopo due giorni è in SERP.
Ho linkato l'altro solo internamente, ma con diversi link.Come mai? Gli spider seguono in maniera diversa tali link? O è solo che il sito esterno al mio è più anziano e, quindi, più importante?
I link dall'esterno, soprattutto se provenienti da siti anziani (il che, in teoria potrebbe voler dire nulla ) hanno sicuramente più efficacia dei semplici link interni.
-
@madai said:
Ciao
Anche se il cloacking potrebbe sembrare una delle tecniche scorrette più sconsigliabili, conosco un sito di ottima qualità, molto "anziano", ricco di contenuti storici ed aggiornati, molto presente su serp altamente competitive, che utilizza user agent cloacking in home page da più di un anno eppure non ha mai subito ban né penalizzazioni.
Domanda: nonostante il "caso" BMW di qualche tempo fa, ritieni possibile che un sito con ottimo trustrank subisca meno controlli da parte di google altrimenti come ti spiegheresti questa anomalia?
Ciao e grazie
Il caso BMW fu eclatante ed esemplare.
Tutta internet si passò notizia che un sito come bmw.de utilizzava le doorway (che se ricordo male, non c'era solo una redirect in js, ma anche pesante kwd stuffing); impossibile non prendere una posizione.Al di là del caso specifico, quando non vi è modo di identificare algoritmicamente una forma di spam (come le redirect in javascript più semplici) e quindi un'analisi spam deve essere necessariamente umana, si presenta il dilemma più classico per chi deve sancire il ban manuale: "Bannando questo sito, danneggio più il webmaster o i miei utenti (e quindi Google)?"
Ovviamente se il sito è scadente, nuovo, poco popolare non ci pensa due volte. Se invece il sito è importante e risponde degnamente a tante ricerche, riceve backlink ecc ecc... probabilmente bannandolo si penalizzerebbero gli utenti, prima che il webmaster.
Per questo si ha la sensazione che certi siti (solitamente anziani) che fanno più o meno spam siano tollerati.
-
-
@cibino said:
con anchor diversi?
ma se voglio diventare forte per una parola, non mi conviene utilizzare sempre l'anchor contenente quella parola...Se vuoi conferire alla tua strategia di linking un aspetto il più spontaneo possibile te lo sconsiglio. Vivamente
-
@dam said:
Una domanda secca: volendo trattare un argomento è meglio una singola pagina o tante piccole pagine magari correlate e collegate fra loro?
grazie!
Personalmente preferisco splittare una pagina che alla fine sarebbe troppo lunga in più pagine brevi, con un minimo di navigazione. Le pagine sono più leggere, facili da consultare (meno pesanti per il lettore), posso ovviamente variare il title tag rendendolo più descrittivo e gioco con le ancore dei link.
-
@pieru said:
Mi scuso se la domanda è già stata fatta me ho paura di uscire fuori tempo massimo.
Ho l'impressione che (almeno per google) il peso dei fattori off site stia crescendo rispetto rispetto a qullo dei fattori on site (mi riferisco al 2006) confermi?Si confermo. Aggiungendo che ho anche io l'impressione che le soglie di tolleranza (specie per i siti nuovi) di intervento seo sulla pagina siano molto più basse che un tempo.
Questo ha reso i fattori esterni molto più importanti e, paradossalmente, più controllabili di quelli interni.
-
@micky said:
Grazie per prima :)!!!
Ultima domanda (forse :D!) e mi levo di torno per la gioia di tutti :D!!!
Sai bene la mia propensione nella scrittura dei contenuti. Sono un chiacchierone anche per iscritto :D! Qualora faccia ad esempio un sito sui motori di ricerca avrei una marea da scrivere. Ci sono argomenti che per loro natura sarebbero ascrivibili o nell'una o nell'altra directory. Esempio faccio un articolo sui fattori di importanza di MSN e questo lo potrei piazzare sotto una directory miosito.it/msn/fattori-di-importanza.html o magari in miosito.it/articoli/fattori-di-importanza-msn.html ecc. Moltiplica queste cose per centinaia di pagine ed avrai il perchè della mia domanda.
Allora sarebbe saggio piazzare tutto sotto il calderone root e fregarsene della divisione in directory (e quindi fregarsene della spinta, fattore in decadimento, dovuta alle keywords nell'url), e puntare quindi sulla sola suddivisione logica delle pagine, sfruttando i link ed i menù presenti nelle pagine stesse, oppure anche la suddivisione fisica ha la sua importanza per i motori? Oppure converrebbe, quando la mole dei file cresce a dismisura, decidere in quel momento come sistemare le cose e sistemare tutto in directory tematiche a botte di redirect 301? Come ti regoli tu per i tuoi siti? E' penalizzante o comunque non porta risultati) una divisione ossessiva iniziale in parecchie directory, con una previsione di futuro riempimento?
P.S. non mi dite una domanda per volta perchè sono alternative out out :D!!!
Considerando che il tempo di accesso a miosito.com/index.html è identico a **miosito.com/dir/dir/dir/index.html **e che, come giustamente hai notato, la keyword nell'URL (directory e pagine) non hanno più il valore di un tempo, noterai che la suddivisione in directory rimane un'operazione di mera logica e usabilità.
Le pagine di un sito le suddividi/ avvicini tramite i link. Una suddivisione in directory, se ci pensi bene, aiuta più te (webmaster) che motori e utenti
Per rispondere alla tua domanda. La suddivisione fisica (che facendo i pignoli fisica non è) dei file ha un senso fin tanto che un minimo peso viene dato ai nomi di directory. La distribuzione del PR, tematizzazione, boost (che bella parola: boooost) dipende dalla gerarchia dei link e dalle ancore dei link.
-
@pieru said:
DMOZ. E' vero che il peso della presenza in DMOZ è drasticamente sceso nel corso del 2006?
Mah... da un punto di vista "posizionamento" non è mai stato necessario essere inclusi. Tantomeno lo è adesso.
Importante sì, ma non fondamentale.
-
@nbriani said:
Stuart,
secondo te e secondo la tua esperienza come avviene nella pratica in un motore di ricerca la penalizzazione (non il ban) di un documento ?
Cioè se un quality rater (nel caso di google) o una qualche procedura algoritmica flagga un sito che tipo di penalità e in che modo viene assegnata....
-
limitata : Per keywords specifiche o per cluster di keywords (anche per lingue diverse)
-
generalizzata:tipo "-100 punti" sempre a presindere dalla query di ricerca
-
altro ?
NicolaBella domanda.
Ti riporto appunto quelle che sono le mie esperienze, oppure dirette osservazioni. Ciò quindi non esclude che esistano altri tipi di penalizzazione.Tra quelli che conosco ci sono quelli più classici, ossia quelli a base algoritmica, tra cui:
"Hai inserito 25 volte per cm2 il termine HOTEL? Lo hai anche inserito 8 volte nel Title Tag e 80 nel meta kwd? Bene, ora tu con Hotel non esci neanche se ti linkano dal Vaticano"
Ci sono quelli totali. Non sei bannato ma non esci con nessuna ricerca.
Ci sono quelli più bizzarri, come ad esempio quando ti beccano che vendi link e ti abbassano il damping factor. Da quel momento puoi avere anche PR10 ma i tuoi outbound non valgono un H. Il tuo sito diventa un ammasso di dangling pages.
Nella pratica il 99% delle penalità (a parte quando vendi link) avviene algoritmicamente, e si risolve velocemente non appena si risolvono i problemi che hanno portato al Flag. La causa principale di penalizzazione è solitamente la OOP (Over Optimization penalty), eccessivi scambi link (o bad neighbourhood).
Oltre a questo c'è il ban
-
-
@pieru said:
**Un **sito, **una **lingua. Questo almeno è quello che spesso avviene tanto che, come sappiamo, BL pesanti da lingua inglese possono essere addirittura penalizzanti in particolari circostanze.
Se questo è vero è un limite tecnologico o una scelta precisa nell'implmentazione dell'algoritmo? Secondo te sarà sempre così o ci saranno dei cambiamenti in futuro?Dire "limite tecnologico" per me è esagerato. Idem parlare di un difetto (o glitch). Credo però che non sia un effetto voluto.
Il motore si affida -anche- ai link per cercare di assegnare una nazionalità ad un documento scritto in una lingua di cui non ha un pattern o un dizionario ampio come quello inglese.
Se i link provengono da siti forti (in termini di PR e trust), portano con sè non solo PR ma anche la lingua.
-
@pieru said:
Nella tua esperienza il ban di un IP esiste o è una leggenda metropolitana?
E' tecnicamente "plausibile"
-
@pieru said:
E' possibile che un incremento improvviso dei BL può portare a una penalizzazione? (non ban, penalizzazione, magari proprio per la chiave che si cerca di spingere)
In linea di principio NO.
Considera che esistono tante circostanze lecite durante le quali un sito vede aumentare in brevissimo tempo il numero dei backlink.Tuttavia per il motore è relativamente semplice distinguere link spontanei da quelli ricreati artificialmente mediante spamming o la creazione di siti ad hoc.
Se quindi intendi un aumento artificiale dei link in entrata, e in considerevole numero, SI. O quantomeno l'eventiale effetto positivo di questi link viene azzerato.
-
@pieru said:
Vediamo Door che ancora sembrano funzionare. Secondo te è solo questione di tempo oppure resteranno lì per sempre?
Vediamo doorway page nelle serp.
Un po' meno che in passato, a ben vedere.Ora è più trendy lo spam engine
Quelle doorway che oggi vediamo domani non ci saranno più. Ma ci sarà sempre chi lavora unicamente per riuscire a spammare.
Non potrà mai esserci un algoritmo *spam proof *al 100%, ma credo che sia anche l'imperfezione dei motori a rendere questo lavoro più divertente.
-
@pieru said:
Si è spesso detto che per creare un network (chiamiamolo network "nascosto" cioè in cui non si voglia palesare l'appartenenza dei siti a un unico proprietario) è molto importante usare IP diversi, registrant diversi eccetera. Secondo te Stuart da uno a 10 quanto sono importanti questi fattori?
Premesso che non sono d'accordo sull'aprire siti/domini satellite per linkare un sito target (ok, posso esserlo stato in passato, ma ora con il brevetto dei dati storici, con il peso dei link che è infinitamente basso per i siti nuovi ecc ecc..questa "tecnica" è largamente inefficace), per rispondere alla tua domanda SI.
E' importante che i siti siano tra loro più lontani possibile. IP diverso, hoster e registrant diversi, intestatario diverso. In tutti i casi evita il crosslinking esasperato. Altrimenti rischi di trovarti con N siti spazzatura (dal punto di vista seo) e un sito principale che non trae alcun giovamento.
-
@must said:
qual é il giusto valore economico di un link (un link con i giusti crismi, ovviamente, non di robaccia)?
AAahhh ... lo sai che sono un pessimo commerciale
Credo che una valutazione di un link sia soggettiva e dipendente da quanto reale vantaggio ne ricavi (PR, tematizzazione, autorevolezza...)
Posso però dirti quali sono le discriminanti (a mio parere, ovviamente) in ordine di importanza che possono rendere più "costoso" un link:
Stiamo parlando di link "con tutti i crismi" quindi darò per scontate le caratteristiche fondamentali: pagina indicizzata e nessun redirect sui link.-
PR e numero dei link totali (interni/esterni) presenti sulla pagina.
-
Numero link esterni (troppi non va bene, il webmaster linka con troppa facilità)
-
Title tag della pagina che linka (meglio se coerente con il topic del tuo sito)
-
Posizione del link (eviterei ad esempio quel pattern di link nel footer che molti siti hanno e che a mio parere è individuabilissimo). Ideale se il link è testuale , inserito in un paragrafo di testo.
-
Anzianità del sito/tema generale/stabilità del topic
Ecco, un link che soddisfa tutte queste caratteristiche, anche in condiderazione del positivo impatto su posizionamento e PR, può essere talvolta *priceless *(o quasi)
-