• Super User

    @sitionweb said:

    Ciao Stu e complimenti per il tuo live 😉

    Una domandina... Immagino sia possibile, aprendo un sito web oggi, che diventi importante tanto da meritare il primo posto in SERP e i sottomenu da Google...

    ad esempio questo

    Per arrivare a tanto, è solo un lavoro di "pazienza" (quindi contenuti, BL, ...) o secondo te c'è dell'altro?

    Grazie 🙂

    Quella particolare snippet ha origine algoritmica.
    Francamente non ho ancora scoperto come ottenerla, presumo che sia un mix di (click) popularity, e backlink.

    Indipendentemente da quella snippet, il termine "pazienza" lo trasformerei in "acquisizione di fiducia" da parte di Google. Che in senso molto ampio non significa unicamente il numero (e la qualità) dei backlink ma anche il loro progressivo aumento, traffico, stabilità del topic.


  • Super User

    @sitionweb said:

    Ho notato una cosa alquanto singolare:

    gestendo due forum, ne ho linkato uno da un sito esterno al mio (due links) e dopo due giorni è in SERP.
    Ho linkato l'altro solo internamente, ma con diversi link.

    Come mai? Gli spider seguono in maniera diversa tali link? O è solo che il sito esterno al mio è più anziano e, quindi, più importante? 🙂

    I link dall'esterno, soprattutto se provenienti da siti anziani (il che, in teoria potrebbe voler dire nulla 😉 ) hanno sicuramente più efficacia dei semplici link interni.


  • Super User

    @madai said:

    Ciao 🙂

    Anche se il cloacking potrebbe sembrare una delle tecniche scorrette più sconsigliabili, conosco un sito di ottima qualità, molto "anziano", ricco di contenuti storici ed aggiornati, molto presente su serp altamente competitive, che utilizza user agent cloacking in home page da più di un anno eppure non ha mai subito ban né penalizzazioni.

    Domanda: nonostante il "caso" BMW di qualche tempo fa, ritieni possibile che un sito con ottimo trustrank subisca meno controlli da parte di google altrimenti come ti spiegheresti questa anomalia?

    Ciao e grazie 🙂

    Il caso BMW fu eclatante ed esemplare.
    Tutta internet si passò notizia che un sito come bmw.de utilizzava le doorway (che se ricordo male, non c'era solo una redirect in js, ma anche pesante kwd stuffing); impossibile non prendere una posizione.

    Al di là del caso specifico, quando non vi è modo di identificare algoritmicamente una forma di spam (come le redirect in javascript più semplici) e quindi un'analisi spam deve essere necessariamente umana, si presenta il dilemma più classico per chi deve sancire il ban manuale: "Bannando questo sito, danneggio più il webmaster o i miei utenti (e quindi Google)?"

    Ovviamente se il sito è scadente, nuovo, poco popolare non ci pensa due volte. Se invece il sito è importante e risponde degnamente a tante ricerche, riceve backlink ecc ecc... probabilmente bannandolo si penalizzerebbero gli utenti, prima che il webmaster.

    Per questo si ha la sensazione che certi siti (solitamente anziani) che fanno più o meno spam siano tollerati.


  • Super User

    @dam said:

    Come consideri l'utilizzo dei tag in un blog/sito?

    grazie!

    Entertainment Purposes only 🙂


  • Super User

    @cibino said:

    con anchor diversi?
    ma se voglio diventare forte per una parola, non mi conviene utilizzare sempre l'anchor contenente quella parola...

    Se vuoi conferire alla tua strategia di linking un aspetto il più spontaneo possibile te lo sconsiglio. Vivamente 🙂


  • Super User

    @dam said:

    Una domanda secca: volendo trattare un argomento è meglio una singola pagina o tante piccole pagine magari correlate e collegate fra loro?

    grazie!

    Personalmente preferisco splittare una pagina che alla fine sarebbe troppo lunga in più pagine brevi, con un minimo di navigazione. Le pagine sono più leggere, facili da consultare (meno pesanti per il lettore), posso ovviamente variare il title tag rendendolo più descrittivo e gioco con le ancore dei link.


  • Super User

    @pieru said:

    Mi scuso se la domanda è già stata fatta me ho paura di uscire fuori tempo massimo.
    Ho l'impressione che (almeno per google) il peso dei fattori off site stia crescendo rispetto rispetto a qullo dei fattori on site (mi riferisco al 2006) confermi?

    Si confermo. Aggiungendo che ho anche io l'impressione che le soglie di tolleranza (specie per i siti nuovi) di intervento seo sulla pagina siano molto più basse che un tempo.

    Questo ha reso i fattori esterni molto più importanti e, paradossalmente, più controllabili di quelli interni.


  • Super User

    @micky said:

    Grazie per prima :)!!!

    Ultima domanda (forse :D!) e mi levo di torno per la gioia di tutti :D!!!

    Sai bene la mia propensione nella scrittura dei contenuti. Sono un chiacchierone anche per iscritto :D! Qualora faccia ad esempio un sito sui motori di ricerca avrei una marea da scrivere. Ci sono argomenti che per loro natura sarebbero ascrivibili o nell'una o nell'altra directory. Esempio faccio un articolo sui fattori di importanza di MSN e questo lo potrei piazzare sotto una directory miosito.it/msn/fattori-di-importanza.html o magari in miosito.it/articoli/fattori-di-importanza-msn.html ecc. Moltiplica queste cose per centinaia di pagine ed avrai il perchè della mia domanda.

    Allora sarebbe saggio piazzare tutto sotto il calderone root e fregarsene della divisione in directory (e quindi fregarsene della spinta, fattore in decadimento, dovuta alle keywords nell'url), e puntare quindi sulla sola suddivisione logica delle pagine, sfruttando i link ed i menù presenti nelle pagine stesse, oppure anche la suddivisione fisica ha la sua importanza per i motori? Oppure converrebbe, quando la mole dei file cresce a dismisura, decidere in quel momento come sistemare le cose e sistemare tutto in directory tematiche a botte di redirect 301? Come ti regoli tu per i tuoi siti? E' penalizzante o comunque non porta risultati) una divisione ossessiva iniziale in parecchie directory, con una previsione di futuro riempimento?

    P.S. non mi dite una domanda per volta perchè sono alternative out out :D!!!

    Considerando che il tempo di accesso a miosito.com/index.html è identico a **miosito.com/dir/dir/dir/index.html **e che, come giustamente hai notato, la keyword nell'URL (directory e pagine) non hanno più il valore di un tempo, noterai che la suddivisione in directory rimane un'operazione di mera logica e usabilità.

    Le pagine di un sito le suddividi/ avvicini tramite i link. Una suddivisione in directory, se ci pensi bene, aiuta più te (webmaster) che motori e utenti 🙂

    Per rispondere alla tua domanda. La suddivisione fisica (che facendo i pignoli fisica non è) dei file ha un senso fin tanto che un minimo peso viene dato ai nomi di directory. La distribuzione del PR, tematizzazione, boost (che bella parola: boooost) dipende dalla gerarchia dei link e dalle ancore dei link.


  • Super User

    @pieru said:

    DMOZ. E' vero che il peso della presenza in DMOZ è drasticamente sceso nel corso del 2006?

    Mah... da un punto di vista "posizionamento" non è mai stato necessario essere inclusi. Tantomeno lo è adesso.
    Importante sì, ma non fondamentale.


  • Super User

    @nbriani said:

    Stuart,

    secondo te e secondo la tua esperienza come avviene nella pratica in un motore di ricerca la penalizzazione (non il ban) di un documento ?

    Cioè se un quality rater (nel caso di google) o una qualche procedura algoritmica flagga un sito che tipo di penalità e in che modo viene assegnata....

    • limitata : Per keywords specifiche o per cluster di keywords (anche per lingue diverse)

    • generalizzata:tipo "-100 punti" 🙂 sempre a presindere dalla query di ricerca

    • altro ?

    :ciauz:
    Nicola

    Bella domanda.
    Ti riporto appunto quelle che sono le mie esperienze, oppure dirette osservazioni. Ciò quindi non esclude che esistano altri tipi di penalizzazione.

    Tra quelli che conosco ci sono quelli più classici, ossia quelli a base algoritmica, tra cui:

    "Hai inserito 25 volte per cm2 il termine HOTEL? Lo hai anche inserito 8 volte nel Title Tag e 80 nel meta kwd? Bene, ora tu con Hotel non esci neanche se ti linkano dal Vaticano"

    Ci sono quelli totali. Non sei bannato ma non esci con nessuna ricerca.

    Ci sono quelli più bizzarri, come ad esempio quando ti beccano che vendi link e ti abbassano il damping factor. Da quel momento puoi avere anche PR10 ma i tuoi outbound non valgono un H. Il tuo sito diventa un ammasso di dangling pages.

    Nella pratica il 99% delle penalità (a parte quando vendi link) avviene algoritmicamente, e si risolve velocemente non appena si risolvono i problemi che hanno portato al Flag. La causa principale di penalizzazione è solitamente la OOP (Over Optimization penalty), eccessivi scambi link (o bad neighbourhood).

    Oltre a questo c'è il ban


  • Super User

    @pieru said:

    **Un **sito, **una **lingua. Questo almeno è quello che spesso avviene tanto che, come sappiamo, BL pesanti da lingua inglese possono essere addirittura penalizzanti in particolari circostanze.
    Se questo è vero è un limite tecnologico o una scelta precisa nell'implmentazione dell'algoritmo? Secondo te sarà sempre così o ci saranno dei cambiamenti in futuro?

    Dire "limite tecnologico" per me è esagerato. Idem parlare di un difetto (o glitch). Credo però che non sia un effetto voluto.

    Il motore si affida -anche- ai link per cercare di assegnare una nazionalità ad un documento scritto in una lingua di cui non ha un pattern o un dizionario ampio come quello inglese.

    Se i link provengono da siti forti (in termini di PR e trust), portano con sè non solo PR ma anche la lingua.


  • Super User

    @pieru said:

    Nella tua esperienza il ban di un IP esiste o è una leggenda metropolitana?

    E' tecnicamente "plausibile" 😉


  • Super User

    @pieru said:

    E' possibile che un incremento improvviso dei BL può portare a una penalizzazione? (non ban, penalizzazione, magari proprio per la chiave che si cerca di spingere)

    In linea di principio NO.
    Considera che esistono tante circostanze lecite durante le quali un sito vede aumentare in brevissimo tempo il numero dei backlink.

    Tuttavia per il motore è relativamente semplice distinguere link spontanei da quelli ricreati artificialmente mediante spamming o la creazione di siti ad hoc.

    Se quindi intendi un aumento artificiale dei link in entrata, e in considerevole numero, SI. O quantomeno l'eventiale effetto positivo di questi link viene azzerato.


  • Super User

    @pieru said:

    Vediamo Door che ancora sembrano funzionare. Secondo te è solo questione di tempo oppure resteranno lì per sempre?

    Vediamo doorway page nelle serp.
    Un po' meno che in passato, a ben vedere.

    Ora è più trendy lo spam engine 🙂

    Quelle doorway che oggi vediamo domani non ci saranno più. Ma ci sarà sempre chi lavora unicamente per riuscire a spammare.

    Non potrà mai esserci un algoritmo *spam proof *al 100%, ma credo che sia anche l'imperfezione dei motori a rendere questo lavoro più divertente.


  • Super User

    @pieru said:

    Si è spesso detto che per creare un network (chiamiamolo network "nascosto" cioè in cui non si voglia palesare l'appartenenza dei siti a un unico proprietario) è molto importante usare IP diversi, registrant diversi eccetera. Secondo te Stuart da uno a 10 quanto sono importanti questi fattori?
    Premesso che non sono d'accordo sull'aprire siti/domini satellite per linkare un sito target (ok, posso esserlo stato in passato, ma ora con il brevetto dei dati storici, con il peso dei link che è infinitamente basso per i siti nuovi ecc ecc..questa "tecnica" è largamente inefficace), per rispondere alla tua domanda SI.
    E' importante che i siti siano tra loro più lontani possibile. IP diverso, hoster e registrant diversi, intestatario diverso. In tutti i casi evita il crosslinking esasperato. Altrimenti rischi di trovarti con N siti spazzatura (dal punto di vista seo) e un sito principale che non trae alcun giovamento.


  • Super User

    @must said:

    qual é il giusto valore economico di un link (un link con i giusti crismi, ovviamente, non di robaccia)?

    AAahhh ... lo sai che sono un pessimo commerciale 😄

    Credo che una valutazione di un link sia soggettiva e dipendente da quanto reale vantaggio ne ricavi (PR, tematizzazione, autorevolezza...)

    Posso però dirti quali sono le discriminanti (a mio parere, ovviamente) in ordine di importanza che possono rendere più "costoso" un link:
    Stiamo parlando di link "con tutti i crismi" quindi darò per scontate le caratteristiche fondamentali: pagina indicizzata e nessun redirect sui link.

    • PR e numero dei link totali (interni/esterni) presenti sulla pagina.

    • Numero link esterni (troppi non va bene, il webmaster linka con troppa facilità)

    • Title tag della pagina che linka (meglio se coerente con il topic del tuo sito)

    • Posizione del link (eviterei ad esempio quel pattern di link nel footer che molti siti hanno e che a mio parere è individuabilissimo). Ideale se il link è testuale , inserito in un paragrafo di testo.

    • Anzianità del sito/tema generale/stabilità del topic

    Ecco, un link che soddisfa tutte queste caratteristiche, anche in condiderazione del positivo impatto su posizionamento e PR, può essere talvolta *priceless *(o quasi) 🙂


  • Super User

    @pieru said:

    Directory di Yahoo. E' vero che i link sono piuttosto "sporchi" ma secondo te Google li considera?
    Su Yahoo.com ci sono due link entrambi traccianti, su it.dir.yahoo.com ci sono due link: uno classico con il tracking url e un'altro posto su un'immagine, che è pulito.

    Google non mostra mai le pagine di Yahoo Dir. tra i backlink di un sito (Msn si), anche quelle ad altro PR. Ma a parte motivi di concorrenza, e il fatto che a detta di molti la directory di Yahoo è abbandonata, non mi vengono in mente altri motivi per cui Google dovrebbe azzerarne il valore degli outbound.

    Bisognerebbe fare dei test in proposito. Ma ne varrebbe la pena? 🙂


  • Super User

    @pieru said:

    <OT> Stuart mi scuso per la valanga di domande ma avevo paura di uscire fuori tempo massimo. Molto maleducatamente non sono riuscito a leggere le domande già fatte, sei ovviamente libero di ignorare le domande poco interessanti o già poste </OT>

    Quando hai inviato questo post ero ormai un treno in corsa, non mi sarei mai accorto di domande duplicate 🙂
    Per sicurezza comunque ho risposto a tutte.


  • Super User

    @nelli said:

    ciao stu è un piacere essere qui nel tuo live 🙂
    Piacere mio che tu sia qui 🙂

    mi sembra di capire dalla tue risposte che una delle cose che conta di + per un buon posizionamento è la** qualità** (oltre che quantità) di **backlink al sito.
    **Direi la qualità prima che la quantità
    ma il dilemma di noi tutti è come fare a farsi linkare (senza pagare)? mi dirai.. se il sito è di qualità probabilmente ti linkeranno spontaneamente.
    ma per fare questo processo ci puo' volere molto tempo...
    arrivo alla domandona:
    Si, l'idea era quella di risponderti così 🙂
    Ma è palese che ci siano progetti che si prestano naturalmente ad attirare l'attenzione (e i link) degli altri webmaster/blogger , altri progetti invece rimangono confinati all'interno del loro ambito (piccoli siti aziendali, ad esempio).

    Beh potrei rigirare la questione dicendoti che se è vero che alcuni siti, per il tema che trattano, non attirano i webmaster, è anche vero che avranno bisogno di meno backlink per emergere.

    comunque...

    ci sono alcune attività che metti in atto per incrementare il processo di linkaggio al tuo sito? (partecipi attivamente ad altri siti, blog... invii comunicati stampa...rompi le palle a destra e a manca...;))

    All'inizio generalmente sfrutto in qualche modo i siti che gestisco o di cui ho libero accesso e parto da lì. Linkando intelligentemente: pagine dedicate, topic più o meno coerente. Successivamente passo alle directory. E poi contatto amici webmaster o seo. A volte mi è capitato di ottenere backlink buoni in cambio di miniconsulenze seo.

    ciao e complimenti
    E di che? 🙂
    spero di conoscerti al raduno :ciauz:
    Idem


  • Super User

    @claudioweb said:

    ...
    Dunque ti chiedo, secondo la tua esperienza, quanto conta il contenuto testuale e quanto conta un corretto markup del contenuto stesso sia per il posizionamento che per l'individuazione di contenuti duplicati.
    Grazie

    Per quanto riguarda i filtri antiduplicazione, hanno il compito di non presentare all'utente risorse troppo simili (e quindi nell'insieme inutili) in una serp. Posto che due o più risorse sono near similar ne presenta una sola, quella che viene considerata più importante (indipendentemente dal fatto che sia l'originale o meno).

    Nel caso specifico, posso ipotizzare che le pagine da te riproposte e ben posizionate abbiano queste caratteristiche:

    • sono inserite in un sito rilevante
    • escludendo totalmente il testo riprodotto, contengono altre risorse (testi, link) che rendono agli occhi del motore la pagina meritevole più di altre di essere suggerita all'utente
    • il miglioramento del markup ha reso ulteriormente distanti l'orinale e la tua riproposizione.

    E' mia opinione che una pagina in cui vi è un sapiente (logico) uso delle intestazioni (headings) , dei testi, dei link sia un documento giudicato qualitativamente migliore.