• Super User

    @doopcircus said:

    1. ti fai linkare, grazie ai loro contatti, da tre siti PR6 a tema, con un linkino ben fatto nella home di ognuno ( e poniamo anche che tali home non eccedano in link in uscita ) ma SENZA POTER TOCCARE L'OTTIMIZZAZIONE INTERNA
    2. rinunciare a qualsiasi nuovo link esterno potendo però lavorare liberamente sull'ottimizzazione interna del sito, anche creando qualche nuova pagina ( ma non troppe)

    Probabilmente sarebbe una scelta errata, ma sceglierei la 2.
    Non posso rinunciare a mettere mano al sito che devo posizionare...è più forte di me 😄


  • Super User

    @dam said:

    Grazie!

    ...quindi indirettamente PR maggiore implica una maggiore popolarità e di conseguenza una maggior numero di visite.

    No, le maggiori visite non sono conseguenza di un alto PR.
    Potrei avere 1.000.000 di euro da parte, comprare link per 3 mesi e arrivare a toolbar PR 9 ma avere 3 unici al giorno 🙂

    Al massimo, un sito molto visitato, aumenta le possibilità di essere notato, e quindi linkato. Un conto la popolarità "algoritmica" (vedi PR), un conto la popolarità reale (numero visite)

    @"dam" said:

    La domanda derivava dalla considerazione che un sito giovane viene premiato poco da google (almeno questo è quello che ho capito leggendo in giro) e quindi mi chiedevo se passato il tempo tecnico di google e quindi incrementanto il PR del sito = maggiori visite con gli stessi contenuti..

    Spero di non aver fatto più confuzione di prima

    Ciao!

    il sito "giovane" viene premiato poco da Google perchè non esistono dati storici di quel sito (fondamentalmente una storia dei backlink, del numero di pagine indicizzate, e del traffic pattern)


  • Super User

    @rigby76 said:

    Esistono dei parametri o delle tecniche per misurare la "difficoltà" di uscire con una key (oltre al numero di pag indicizzate)?

    Grazie e complementi per la preparazione e la disponibilità! 😉

    Non ti consiglio ti considerare il numero di pagine tra i risultati come indice di competitività di una ricerca, perchè non vi è una vera correlazione.

    "Guida Valencia" e "Valencia" sono due ricerche , e causano due serp, estremamente diverse. Per le quali vengono presi in considerazione parametri diversi: cluster, backlink, anzianità, traffico, espansione query ecc ecc....

    Ti suggerisco un tool per l'analisi della competitività delle kwd
    http://www.seomoz.org/tools.php (a memoria, sto conservando lo spirito del LIVE) e scegli il Kwd competivity tool 🙂


  • Super User

    @must said:

    altra domanda: sei cosí lento a rispondere perché con una mano scrivi e con l'altra tieni il telefono? 😄

    Sono lento nonostante abbia rischiato di fondere la tastiera durante il LIVE...
    Ho ignorato tutte le chiamate finora giunte (5)..


  • Super User

    @Lord Baron said:

    1. Come ben sai abbiamo un blog su blogger per questo vorrei sapere a)sai quale dovrebbe essere la lunghezza ottimale di un post? b) quanti link e' ottimale mettere dal blog ai nostri portali ogni mese sensa che G si incacchi?

    Non c'è una soglia di lunghezza oltre/prima la quale Google comincia ad inca**arsi. Un post di 3 righe al semplice scopo di mettere un link direi che è quantomeno sospetto.
    Fossi in te, non linkerei UNICAMENTE le pagine di un unico sito (il tuo), ma generosamente linkerei sporadicamente anche altre strutture. Ne guadagnerà l'autorevolezza del blog.
    Parallelamente un blog che (indipendentemente dalla frequenza) linka sempre un unico sito in qualsiasi post sarà presto associato ad uno splog (spamblog).

    @"LordBaron" said:

    1. Stiamo studiando la possibilita di aderire con una compagnia (che se me lo chiedi posto l indirizzo) per far partire una tele online chiaramente con lo stesso tema dei nostri portali. Come vedi questo mercato? Credi che sia ancora presto?

    Saluti

    LB

    Su internet non è MAI troppo presto.
    Nella peggiore delle ipotesi arriverai in un mercato che magari si svilupperà nei prossimi anni, ma il tuo nome, la tua attività saranno già noti.
    Al di là degli aspetti SEO, non sottovalutare mai ogni singolo passo che può portarti traffico, ritorno di immagine, popolarità.


  • Super User

    @sitionweb said:

    Ciao Stu e complimenti per il tuo live 😉

    Una domandina... Immagino sia possibile, aprendo un sito web oggi, che diventi importante tanto da meritare il primo posto in SERP e i sottomenu da Google...

    ad esempio questo

    Per arrivare a tanto, è solo un lavoro di "pazienza" (quindi contenuti, BL, ...) o secondo te c'è dell'altro?

    Grazie 🙂

    Quella particolare snippet ha origine algoritmica.
    Francamente non ho ancora scoperto come ottenerla, presumo che sia un mix di (click) popularity, e backlink.

    Indipendentemente da quella snippet, il termine "pazienza" lo trasformerei in "acquisizione di fiducia" da parte di Google. Che in senso molto ampio non significa unicamente il numero (e la qualità) dei backlink ma anche il loro progressivo aumento, traffico, stabilità del topic.


  • Super User

    @sitionweb said:

    Ho notato una cosa alquanto singolare:

    gestendo due forum, ne ho linkato uno da un sito esterno al mio (due links) e dopo due giorni è in SERP.
    Ho linkato l'altro solo internamente, ma con diversi link.

    Come mai? Gli spider seguono in maniera diversa tali link? O è solo che il sito esterno al mio è più anziano e, quindi, più importante? 🙂

    I link dall'esterno, soprattutto se provenienti da siti anziani (il che, in teoria potrebbe voler dire nulla 😉 ) hanno sicuramente più efficacia dei semplici link interni.


  • Super User

    @madai said:

    Ciao 🙂

    Anche se il cloacking potrebbe sembrare una delle tecniche scorrette più sconsigliabili, conosco un sito di ottima qualità, molto "anziano", ricco di contenuti storici ed aggiornati, molto presente su serp altamente competitive, che utilizza user agent cloacking in home page da più di un anno eppure non ha mai subito ban né penalizzazioni.

    Domanda: nonostante il "caso" BMW di qualche tempo fa, ritieni possibile che un sito con ottimo trustrank subisca meno controlli da parte di google altrimenti come ti spiegheresti questa anomalia?

    Ciao e grazie 🙂

    Il caso BMW fu eclatante ed esemplare.
    Tutta internet si passò notizia che un sito come bmw.de utilizzava le doorway (che se ricordo male, non c'era solo una redirect in js, ma anche pesante kwd stuffing); impossibile non prendere una posizione.

    Al di là del caso specifico, quando non vi è modo di identificare algoritmicamente una forma di spam (come le redirect in javascript più semplici) e quindi un'analisi spam deve essere necessariamente umana, si presenta il dilemma più classico per chi deve sancire il ban manuale: "Bannando questo sito, danneggio più il webmaster o i miei utenti (e quindi Google)?"

    Ovviamente se il sito è scadente, nuovo, poco popolare non ci pensa due volte. Se invece il sito è importante e risponde degnamente a tante ricerche, riceve backlink ecc ecc... probabilmente bannandolo si penalizzerebbero gli utenti, prima che il webmaster.

    Per questo si ha la sensazione che certi siti (solitamente anziani) che fanno più o meno spam siano tollerati.


  • Super User

    @dam said:

    Come consideri l'utilizzo dei tag in un blog/sito?

    grazie!

    Entertainment Purposes only 🙂


  • Super User

    @cibino said:

    con anchor diversi?
    ma se voglio diventare forte per una parola, non mi conviene utilizzare sempre l'anchor contenente quella parola...

    Se vuoi conferire alla tua strategia di linking un aspetto il più spontaneo possibile te lo sconsiglio. Vivamente 🙂


  • Super User

    @dam said:

    Una domanda secca: volendo trattare un argomento è meglio una singola pagina o tante piccole pagine magari correlate e collegate fra loro?

    grazie!

    Personalmente preferisco splittare una pagina che alla fine sarebbe troppo lunga in più pagine brevi, con un minimo di navigazione. Le pagine sono più leggere, facili da consultare (meno pesanti per il lettore), posso ovviamente variare il title tag rendendolo più descrittivo e gioco con le ancore dei link.


  • Super User

    @pieru said:

    Mi scuso se la domanda è già stata fatta me ho paura di uscire fuori tempo massimo.
    Ho l'impressione che (almeno per google) il peso dei fattori off site stia crescendo rispetto rispetto a qullo dei fattori on site (mi riferisco al 2006) confermi?

    Si confermo. Aggiungendo che ho anche io l'impressione che le soglie di tolleranza (specie per i siti nuovi) di intervento seo sulla pagina siano molto più basse che un tempo.

    Questo ha reso i fattori esterni molto più importanti e, paradossalmente, più controllabili di quelli interni.


  • Super User

    @micky said:

    Grazie per prima :)!!!

    Ultima domanda (forse :D!) e mi levo di torno per la gioia di tutti :D!!!

    Sai bene la mia propensione nella scrittura dei contenuti. Sono un chiacchierone anche per iscritto :D! Qualora faccia ad esempio un sito sui motori di ricerca avrei una marea da scrivere. Ci sono argomenti che per loro natura sarebbero ascrivibili o nell'una o nell'altra directory. Esempio faccio un articolo sui fattori di importanza di MSN e questo lo potrei piazzare sotto una directory miosito.it/msn/fattori-di-importanza.html o magari in miosito.it/articoli/fattori-di-importanza-msn.html ecc. Moltiplica queste cose per centinaia di pagine ed avrai il perchè della mia domanda.

    Allora sarebbe saggio piazzare tutto sotto il calderone root e fregarsene della divisione in directory (e quindi fregarsene della spinta, fattore in decadimento, dovuta alle keywords nell'url), e puntare quindi sulla sola suddivisione logica delle pagine, sfruttando i link ed i menù presenti nelle pagine stesse, oppure anche la suddivisione fisica ha la sua importanza per i motori? Oppure converrebbe, quando la mole dei file cresce a dismisura, decidere in quel momento come sistemare le cose e sistemare tutto in directory tematiche a botte di redirect 301? Come ti regoli tu per i tuoi siti? E' penalizzante o comunque non porta risultati) una divisione ossessiva iniziale in parecchie directory, con una previsione di futuro riempimento?

    P.S. non mi dite una domanda per volta perchè sono alternative out out :D!!!

    Considerando che il tempo di accesso a miosito.com/index.html è identico a **miosito.com/dir/dir/dir/index.html **e che, come giustamente hai notato, la keyword nell'URL (directory e pagine) non hanno più il valore di un tempo, noterai che la suddivisione in directory rimane un'operazione di mera logica e usabilità.

    Le pagine di un sito le suddividi/ avvicini tramite i link. Una suddivisione in directory, se ci pensi bene, aiuta più te (webmaster) che motori e utenti 🙂

    Per rispondere alla tua domanda. La suddivisione fisica (che facendo i pignoli fisica non è) dei file ha un senso fin tanto che un minimo peso viene dato ai nomi di directory. La distribuzione del PR, tematizzazione, boost (che bella parola: boooost) dipende dalla gerarchia dei link e dalle ancore dei link.


  • Super User

    @pieru said:

    DMOZ. E' vero che il peso della presenza in DMOZ è drasticamente sceso nel corso del 2006?

    Mah... da un punto di vista "posizionamento" non è mai stato necessario essere inclusi. Tantomeno lo è adesso.
    Importante sì, ma non fondamentale.


  • Super User

    @nbriani said:

    Stuart,

    secondo te e secondo la tua esperienza come avviene nella pratica in un motore di ricerca la penalizzazione (non il ban) di un documento ?

    Cioè se un quality rater (nel caso di google) o una qualche procedura algoritmica flagga un sito che tipo di penalità e in che modo viene assegnata....

    • limitata : Per keywords specifiche o per cluster di keywords (anche per lingue diverse)

    • generalizzata:tipo "-100 punti" 🙂 sempre a presindere dalla query di ricerca

    • altro ?

    :ciauz:
    Nicola

    Bella domanda.
    Ti riporto appunto quelle che sono le mie esperienze, oppure dirette osservazioni. Ciò quindi non esclude che esistano altri tipi di penalizzazione.

    Tra quelli che conosco ci sono quelli più classici, ossia quelli a base algoritmica, tra cui:

    "Hai inserito 25 volte per cm2 il termine HOTEL? Lo hai anche inserito 8 volte nel Title Tag e 80 nel meta kwd? Bene, ora tu con Hotel non esci neanche se ti linkano dal Vaticano"

    Ci sono quelli totali. Non sei bannato ma non esci con nessuna ricerca.

    Ci sono quelli più bizzarri, come ad esempio quando ti beccano che vendi link e ti abbassano il damping factor. Da quel momento puoi avere anche PR10 ma i tuoi outbound non valgono un H. Il tuo sito diventa un ammasso di dangling pages.

    Nella pratica il 99% delle penalità (a parte quando vendi link) avviene algoritmicamente, e si risolve velocemente non appena si risolvono i problemi che hanno portato al Flag. La causa principale di penalizzazione è solitamente la OOP (Over Optimization penalty), eccessivi scambi link (o bad neighbourhood).

    Oltre a questo c'è il ban


  • Super User

    @pieru said:

    **Un **sito, **una **lingua. Questo almeno è quello che spesso avviene tanto che, come sappiamo, BL pesanti da lingua inglese possono essere addirittura penalizzanti in particolari circostanze.
    Se questo è vero è un limite tecnologico o una scelta precisa nell'implmentazione dell'algoritmo? Secondo te sarà sempre così o ci saranno dei cambiamenti in futuro?

    Dire "limite tecnologico" per me è esagerato. Idem parlare di un difetto (o glitch). Credo però che non sia un effetto voluto.

    Il motore si affida -anche- ai link per cercare di assegnare una nazionalità ad un documento scritto in una lingua di cui non ha un pattern o un dizionario ampio come quello inglese.

    Se i link provengono da siti forti (in termini di PR e trust), portano con sè non solo PR ma anche la lingua.


  • Super User

    @pieru said:

    Nella tua esperienza il ban di un IP esiste o è una leggenda metropolitana?

    E' tecnicamente "plausibile" 😉


  • Super User

    @pieru said:

    E' possibile che un incremento improvviso dei BL può portare a una penalizzazione? (non ban, penalizzazione, magari proprio per la chiave che si cerca di spingere)

    In linea di principio NO.
    Considera che esistono tante circostanze lecite durante le quali un sito vede aumentare in brevissimo tempo il numero dei backlink.

    Tuttavia per il motore è relativamente semplice distinguere link spontanei da quelli ricreati artificialmente mediante spamming o la creazione di siti ad hoc.

    Se quindi intendi un aumento artificiale dei link in entrata, e in considerevole numero, SI. O quantomeno l'eventiale effetto positivo di questi link viene azzerato.


  • Super User

    @pieru said:

    Vediamo Door che ancora sembrano funzionare. Secondo te è solo questione di tempo oppure resteranno lì per sempre?

    Vediamo doorway page nelle serp.
    Un po' meno che in passato, a ben vedere.

    Ora è più trendy lo spam engine 🙂

    Quelle doorway che oggi vediamo domani non ci saranno più. Ma ci sarà sempre chi lavora unicamente per riuscire a spammare.

    Non potrà mai esserci un algoritmo *spam proof *al 100%, ma credo che sia anche l'imperfezione dei motori a rendere questo lavoro più divertente.


  • Super User

    @pieru said:

    Si è spesso detto che per creare un network (chiamiamolo network "nascosto" cioè in cui non si voglia palesare l'appartenenza dei siti a un unico proprietario) è molto importante usare IP diversi, registrant diversi eccetera. Secondo te Stuart da uno a 10 quanto sono importanti questi fattori?
    Premesso che non sono d'accordo sull'aprire siti/domini satellite per linkare un sito target (ok, posso esserlo stato in passato, ma ora con il brevetto dei dati storici, con il peso dei link che è infinitamente basso per i siti nuovi ecc ecc..questa "tecnica" è largamente inefficace), per rispondere alla tua domanda SI.
    E' importante che i siti siano tra loro più lontani possibile. IP diverso, hoster e registrant diversi, intestatario diverso. In tutti i casi evita il crosslinking esasperato. Altrimenti rischi di trovarti con N siti spazzatura (dal punto di vista seo) e un sito principale che non trae alcun giovamento.