• Super User

    @dam said:

    Una domanda secca: volendo trattare un argomento è meglio una singola pagina o tante piccole pagine magari correlate e collegate fra loro?

    grazie!

    Personalmente preferisco splittare una pagina che alla fine sarebbe troppo lunga in più pagine brevi, con un minimo di navigazione. Le pagine sono più leggere, facili da consultare (meno pesanti per il lettore), posso ovviamente variare il title tag rendendolo più descrittivo e gioco con le ancore dei link.


  • Super User

    @pieru said:

    Mi scuso se la domanda è già stata fatta me ho paura di uscire fuori tempo massimo.
    Ho l'impressione che (almeno per google) il peso dei fattori off site stia crescendo rispetto rispetto a qullo dei fattori on site (mi riferisco al 2006) confermi?

    Si confermo. Aggiungendo che ho anche io l'impressione che le soglie di tolleranza (specie per i siti nuovi) di intervento seo sulla pagina siano molto più basse che un tempo.

    Questo ha reso i fattori esterni molto più importanti e, paradossalmente, più controllabili di quelli interni.


  • Super User

    @micky said:

    Grazie per prima :)!!!

    Ultima domanda (forse :D!) e mi levo di torno per la gioia di tutti :D!!!

    Sai bene la mia propensione nella scrittura dei contenuti. Sono un chiacchierone anche per iscritto :D! Qualora faccia ad esempio un sito sui motori di ricerca avrei una marea da scrivere. Ci sono argomenti che per loro natura sarebbero ascrivibili o nell'una o nell'altra directory. Esempio faccio un articolo sui fattori di importanza di MSN e questo lo potrei piazzare sotto una directory miosito.it/msn/fattori-di-importanza.html o magari in miosito.it/articoli/fattori-di-importanza-msn.html ecc. Moltiplica queste cose per centinaia di pagine ed avrai il perchè della mia domanda.

    Allora sarebbe saggio piazzare tutto sotto il calderone root e fregarsene della divisione in directory (e quindi fregarsene della spinta, fattore in decadimento, dovuta alle keywords nell'url), e puntare quindi sulla sola suddivisione logica delle pagine, sfruttando i link ed i menù presenti nelle pagine stesse, oppure anche la suddivisione fisica ha la sua importanza per i motori? Oppure converrebbe, quando la mole dei file cresce a dismisura, decidere in quel momento come sistemare le cose e sistemare tutto in directory tematiche a botte di redirect 301? Come ti regoli tu per i tuoi siti? E' penalizzante o comunque non porta risultati) una divisione ossessiva iniziale in parecchie directory, con una previsione di futuro riempimento?

    P.S. non mi dite una domanda per volta perchè sono alternative out out :D!!!

    Considerando che il tempo di accesso a miosito.com/index.html è identico a **miosito.com/dir/dir/dir/index.html **e che, come giustamente hai notato, la keyword nell'URL (directory e pagine) non hanno più il valore di un tempo, noterai che la suddivisione in directory rimane un'operazione di mera logica e usabilità.

    Le pagine di un sito le suddividi/ avvicini tramite i link. Una suddivisione in directory, se ci pensi bene, aiuta più te (webmaster) che motori e utenti 🙂

    Per rispondere alla tua domanda. La suddivisione fisica (che facendo i pignoli fisica non è) dei file ha un senso fin tanto che un minimo peso viene dato ai nomi di directory. La distribuzione del PR, tematizzazione, boost (che bella parola: boooost) dipende dalla gerarchia dei link e dalle ancore dei link.


  • Super User

    @pieru said:

    DMOZ. E' vero che il peso della presenza in DMOZ è drasticamente sceso nel corso del 2006?

    Mah... da un punto di vista "posizionamento" non è mai stato necessario essere inclusi. Tantomeno lo è adesso.
    Importante sì, ma non fondamentale.


  • Super User

    @nbriani said:

    Stuart,

    secondo te e secondo la tua esperienza come avviene nella pratica in un motore di ricerca la penalizzazione (non il ban) di un documento ?

    Cioè se un quality rater (nel caso di google) o una qualche procedura algoritmica flagga un sito che tipo di penalità e in che modo viene assegnata....

    • limitata : Per keywords specifiche o per cluster di keywords (anche per lingue diverse)

    • generalizzata:tipo "-100 punti" 🙂 sempre a presindere dalla query di ricerca

    • altro ?

    :ciauz:
    Nicola

    Bella domanda.
    Ti riporto appunto quelle che sono le mie esperienze, oppure dirette osservazioni. Ciò quindi non esclude che esistano altri tipi di penalizzazione.

    Tra quelli che conosco ci sono quelli più classici, ossia quelli a base algoritmica, tra cui:

    "Hai inserito 25 volte per cm2 il termine HOTEL? Lo hai anche inserito 8 volte nel Title Tag e 80 nel meta kwd? Bene, ora tu con Hotel non esci neanche se ti linkano dal Vaticano"

    Ci sono quelli totali. Non sei bannato ma non esci con nessuna ricerca.

    Ci sono quelli più bizzarri, come ad esempio quando ti beccano che vendi link e ti abbassano il damping factor. Da quel momento puoi avere anche PR10 ma i tuoi outbound non valgono un H. Il tuo sito diventa un ammasso di dangling pages.

    Nella pratica il 99% delle penalità (a parte quando vendi link) avviene algoritmicamente, e si risolve velocemente non appena si risolvono i problemi che hanno portato al Flag. La causa principale di penalizzazione è solitamente la OOP (Over Optimization penalty), eccessivi scambi link (o bad neighbourhood).

    Oltre a questo c'è il ban


  • Super User

    @pieru said:

    **Un **sito, **una **lingua. Questo almeno è quello che spesso avviene tanto che, come sappiamo, BL pesanti da lingua inglese possono essere addirittura penalizzanti in particolari circostanze.
    Se questo è vero è un limite tecnologico o una scelta precisa nell'implmentazione dell'algoritmo? Secondo te sarà sempre così o ci saranno dei cambiamenti in futuro?

    Dire "limite tecnologico" per me è esagerato. Idem parlare di un difetto (o glitch). Credo però che non sia un effetto voluto.

    Il motore si affida -anche- ai link per cercare di assegnare una nazionalità ad un documento scritto in una lingua di cui non ha un pattern o un dizionario ampio come quello inglese.

    Se i link provengono da siti forti (in termini di PR e trust), portano con sè non solo PR ma anche la lingua.


  • Super User

    @pieru said:

    Nella tua esperienza il ban di un IP esiste o è una leggenda metropolitana?

    E' tecnicamente "plausibile" 😉


  • Super User

    @pieru said:

    E' possibile che un incremento improvviso dei BL può portare a una penalizzazione? (non ban, penalizzazione, magari proprio per la chiave che si cerca di spingere)

    In linea di principio NO.
    Considera che esistono tante circostanze lecite durante le quali un sito vede aumentare in brevissimo tempo il numero dei backlink.

    Tuttavia per il motore è relativamente semplice distinguere link spontanei da quelli ricreati artificialmente mediante spamming o la creazione di siti ad hoc.

    Se quindi intendi un aumento artificiale dei link in entrata, e in considerevole numero, SI. O quantomeno l'eventiale effetto positivo di questi link viene azzerato.


  • Super User

    @pieru said:

    Vediamo Door che ancora sembrano funzionare. Secondo te è solo questione di tempo oppure resteranno lì per sempre?

    Vediamo doorway page nelle serp.
    Un po' meno che in passato, a ben vedere.

    Ora è più trendy lo spam engine 🙂

    Quelle doorway che oggi vediamo domani non ci saranno più. Ma ci sarà sempre chi lavora unicamente per riuscire a spammare.

    Non potrà mai esserci un algoritmo *spam proof *al 100%, ma credo che sia anche l'imperfezione dei motori a rendere questo lavoro più divertente.


  • Super User

    @pieru said:

    Si è spesso detto che per creare un network (chiamiamolo network "nascosto" cioè in cui non si voglia palesare l'appartenenza dei siti a un unico proprietario) è molto importante usare IP diversi, registrant diversi eccetera. Secondo te Stuart da uno a 10 quanto sono importanti questi fattori?
    Premesso che non sono d'accordo sull'aprire siti/domini satellite per linkare un sito target (ok, posso esserlo stato in passato, ma ora con il brevetto dei dati storici, con il peso dei link che è infinitamente basso per i siti nuovi ecc ecc..questa "tecnica" è largamente inefficace), per rispondere alla tua domanda SI.
    E' importante che i siti siano tra loro più lontani possibile. IP diverso, hoster e registrant diversi, intestatario diverso. In tutti i casi evita il crosslinking esasperato. Altrimenti rischi di trovarti con N siti spazzatura (dal punto di vista seo) e un sito principale che non trae alcun giovamento.


  • Super User

    @must said:

    qual é il giusto valore economico di un link (un link con i giusti crismi, ovviamente, non di robaccia)?

    AAahhh ... lo sai che sono un pessimo commerciale 😄

    Credo che una valutazione di un link sia soggettiva e dipendente da quanto reale vantaggio ne ricavi (PR, tematizzazione, autorevolezza...)

    Posso però dirti quali sono le discriminanti (a mio parere, ovviamente) in ordine di importanza che possono rendere più "costoso" un link:
    Stiamo parlando di link "con tutti i crismi" quindi darò per scontate le caratteristiche fondamentali: pagina indicizzata e nessun redirect sui link.

    • PR e numero dei link totali (interni/esterni) presenti sulla pagina.

    • Numero link esterni (troppi non va bene, il webmaster linka con troppa facilità)

    • Title tag della pagina che linka (meglio se coerente con il topic del tuo sito)

    • Posizione del link (eviterei ad esempio quel pattern di link nel footer che molti siti hanno e che a mio parere è individuabilissimo). Ideale se il link è testuale , inserito in un paragrafo di testo.

    • Anzianità del sito/tema generale/stabilità del topic

    Ecco, un link che soddisfa tutte queste caratteristiche, anche in condiderazione del positivo impatto su posizionamento e PR, può essere talvolta *priceless *(o quasi) 🙂


  • Super User

    @pieru said:

    Directory di Yahoo. E' vero che i link sono piuttosto "sporchi" ma secondo te Google li considera?
    Su Yahoo.com ci sono due link entrambi traccianti, su it.dir.yahoo.com ci sono due link: uno classico con il tracking url e un'altro posto su un'immagine, che è pulito.

    Google non mostra mai le pagine di Yahoo Dir. tra i backlink di un sito (Msn si), anche quelle ad altro PR. Ma a parte motivi di concorrenza, e il fatto che a detta di molti la directory di Yahoo è abbandonata, non mi vengono in mente altri motivi per cui Google dovrebbe azzerarne il valore degli outbound.

    Bisognerebbe fare dei test in proposito. Ma ne varrebbe la pena? 🙂


  • Super User

    @pieru said:

    <OT> Stuart mi scuso per la valanga di domande ma avevo paura di uscire fuori tempo massimo. Molto maleducatamente non sono riuscito a leggere le domande già fatte, sei ovviamente libero di ignorare le domande poco interessanti o già poste </OT>

    Quando hai inviato questo post ero ormai un treno in corsa, non mi sarei mai accorto di domande duplicate 🙂
    Per sicurezza comunque ho risposto a tutte.


  • Super User

    @nelli said:

    ciao stu è un piacere essere qui nel tuo live 🙂
    Piacere mio che tu sia qui 🙂

    mi sembra di capire dalla tue risposte che una delle cose che conta di + per un buon posizionamento è la** qualità** (oltre che quantità) di **backlink al sito.
    **Direi la qualità prima che la quantità
    ma il dilemma di noi tutti è come fare a farsi linkare (senza pagare)? mi dirai.. se il sito è di qualità probabilmente ti linkeranno spontaneamente.
    ma per fare questo processo ci puo' volere molto tempo...
    arrivo alla domandona:
    Si, l'idea era quella di risponderti così 🙂
    Ma è palese che ci siano progetti che si prestano naturalmente ad attirare l'attenzione (e i link) degli altri webmaster/blogger , altri progetti invece rimangono confinati all'interno del loro ambito (piccoli siti aziendali, ad esempio).

    Beh potrei rigirare la questione dicendoti che se è vero che alcuni siti, per il tema che trattano, non attirano i webmaster, è anche vero che avranno bisogno di meno backlink per emergere.

    comunque...

    ci sono alcune attività che metti in atto per incrementare il processo di linkaggio al tuo sito? (partecipi attivamente ad altri siti, blog... invii comunicati stampa...rompi le palle a destra e a manca...;))

    All'inizio generalmente sfrutto in qualche modo i siti che gestisco o di cui ho libero accesso e parto da lì. Linkando intelligentemente: pagine dedicate, topic più o meno coerente. Successivamente passo alle directory. E poi contatto amici webmaster o seo. A volte mi è capitato di ottenere backlink buoni in cambio di miniconsulenze seo.

    ciao e complimenti
    E di che? 🙂
    spero di conoscerti al raduno :ciauz:
    Idem


  • Super User

    @claudioweb said:

    ...
    Dunque ti chiedo, secondo la tua esperienza, quanto conta il contenuto testuale e quanto conta un corretto markup del contenuto stesso sia per il posizionamento che per l'individuazione di contenuti duplicati.
    Grazie

    Per quanto riguarda i filtri antiduplicazione, hanno il compito di non presentare all'utente risorse troppo simili (e quindi nell'insieme inutili) in una serp. Posto che due o più risorse sono near similar ne presenta una sola, quella che viene considerata più importante (indipendentemente dal fatto che sia l'originale o meno).

    Nel caso specifico, posso ipotizzare che le pagine da te riproposte e ben posizionate abbiano queste caratteristiche:

    • sono inserite in un sito rilevante
    • escludendo totalmente il testo riprodotto, contengono altre risorse (testi, link) che rendono agli occhi del motore la pagina meritevole più di altre di essere suggerita all'utente
    • il miglioramento del markup ha reso ulteriormente distanti l'orinale e la tua riproposizione.

    E' mia opinione che una pagina in cui vi è un sapiente (logico) uso delle intestazioni (headings) , dei testi, dei link sia un documento giudicato qualitativamente migliore.


  • Super User

    @angelo_ew said:

    ...Tempo addietro si era ipotizzato in un algoritmo maggiormente raffinato di Google, che teneva conto del comportamento sui click dei vari utenti.

    Ovvero le SERP erano anche funzione dello "storico" di click di query precedenti sullo stesso argomento. In sostanza l'agortimo teneva conto appunto del comportamento dell'utente.

    Quanto c'è di vero? E in caso positivo non è un cane che si mangia la coda?
    E' ovvio che con le fonti ufficiali che smentiscono l'utilizzo dei dati del traffico e della click popularity per influenzare le serp, e con esperimenti che alla fine si riducono ad una serie di osservazioni non è possibile dire: "Ok, è così al 100%".

    Tuttavia esperimenti, progetti (come quelli portati avanti da fradefra) lasciano ben più che ad intendere che traffic pattern e useer behaviours giochino un ruolo nel ranking di un sito. Un ruolo la cui reale importanza non è misurabile a tavolino, ma c'è.

    Sul cane che si morde la coda, SI. Se fosse l'unico modello utilizzato per valutare i documenti presenti in archivio. Così fortunatamente non è, e per esperienza (traffico Vs sandbox, un mio vecchio test qui sul Forum) ti posso garantire che non è per nulla facile agire artificialmente sul traffico e comportamento utenti.

    Ovviamnete i siti più cliccati saranno quelli delle prime pagine che in base a questo criterio saranno sempre più forti. Per chi volesse iniziare a scalare le SERP quale sarebbe a questo punto la strategia più giusta?

    Già solo sapere che esiste la reale possibilità che il traffic pattern sia utilizzato come parametro di valutazione ti avvantaggia. Non ti facilita certo il lavoro, ma ti avvantaggia. Perchè tenendolo presente progetterai il tuo sito per: allungare le visite degli utenti (falli interagire, funziona sempre), portare più utenti (web marketing) , far ritornare gli utenti (aggiorna spesso il sito -fallo realmente).

    Ciao Angelo

    PS. spero di essermi spiegato bene[/quote]


  • Super User

    @Tambu said:

    dici? non dipende dai buoni template che in genere si producono per esso?

    voglio dire, se tutti si mettessero a usare BroadVision (l'imposizionabile CMS) non penso proprio che i siti fatti in broadvision andrebbero in cima alle serp 🙂

    grazie per la disponibilità 🙂
    Siccome in tempi non sospetti avevo già definito wordpress ottimo da un punto di vista seo, per gli ottimi template seo (e user) friendly e per le features puntualmente elencate più avanti da Petro, ho dato per scontato che i buoni posizionamenti di molti blog dipendessero anche da COME questo cms è progettato.

    Premesso questo, ammetto di aver letto molto velocemente la domanda di Bayle e averla intesa come <<perchè in ogni serp c'è sempre un blog su wordpress ben posizionato?>>

    In ogni caso non sono convinto che wordpress sia posizionabile a prescindere. E' un gran mezzo sì, ma tutto dipende dall'uso che se ne fa.


  • Super User

    @Hotshot said:

    • cosa realmente guardi per scegliere la keywords
      le keyword che descrivono meglio il sito (quindi guardo i contenuti) e che potenzialmente convertono di più (quindi ri-guardo contenuti, target di riferimento e come posso espandere il sito)
    • mandi comunicati stampa?
      No, ma mi ritroverò a farlo ben presto visto che ho in gestione un sito che organizza eventi e quindi si presta bene al comunicato stampa.
      Mi piace, nei limiti del possibile, usare gli strumenti per la loro effettiva funzione, e non mandare comunicati come "Ehi, mia figlia ha fatto la cresima" al solo scopo di fare un po' di traffico 🙂
    • come cerchi i siti-portali-blog che ti potrebbero dare back-link?
      spesso è il cliente stesso ad indirizzarmi, oppure li cerco tra i backlink dei competitors o ancor più semplicemente....su Google 🙂
    • come agisci per farti notare? dipende dal sito. Adoro il guerrilla marketing, ad esempio. (ho un paio di idee carine..). Ma ovviamente non sempre hai carta bianca.
    • su cosa ultimamente ti sei più concentrato nel lavoro SEO/SEM e perchè?
      in questo periodo mi affascinano i modelli di comunicazione persuasiva. Perchè? Perchè dopo aver imparato a "portare" visitatori, per me è la naturale evoluzione studiare modi per trasformarli in "clienti"

  • Super User

    @pieru said:

    Un noto SEO spesso spiega che Google assegna una certa quantità di utenti a un determinato sito. Superato il numero di utenti giornalieri il sito ... retrocede nelle serp e questo succede fino a quando non sale il valore globale del sito e quindi il numero di utenti che google gli "assegna"

    Questo almeno è quello che ho capito della teoria esposta del suddetto SEO (non lo cito solo perchè non riesco a trovare un post da linkare)

    **Se **sono riuscito a spiegarmi ha un senso secondo te questa teoria? Io faccio fatica ad accettare una cosa del genere, mi pare illogica e incredibilmente onerosa (onestamente non capisco neanche quale potrebbe essere lo scopo o l'utilità della cosa).

    Stuart, se non hai capito niente hai tutta la mia solidarietà, ignora pure la domanda!!

    Trovo affascinante e plausibile la teoria.
    Si sa che la quantità di risorse che ti dedica un motore dipende essenzialmente da quanto ti ritiene importante.

    Che però questo dispendio di risorse si estenda anche ad un numero prefissato di visite, mi lascia perplesso. Oltre a non avere evidenze in tal senso, presuppone un rapporto diretto (quasi paterno) Google-Webmaster , mentre invece a mio parere il rapporto diretto è Google-Utenti di Google.

    I siti dei webmaster sono un semplice tramite tra il motore e la soddisfazione delle ricerche dei suoi utenti.

    Mie opinioni, ovviamente.


  • Super User

    @pieru said:

    Stuarti scriverai mai una guida specificatamente dedicata a MSN?

    Sicuramente.
    Quando, e se, MSN porterà ai siti lo stesso traffico che porta Google.

    Quindi non credo la scriverò mai 🙂