• Super User

    Premetto che non ho letto gli altri post (troppo lavoro, li leggerò dopo)

    La mia domanda:

    in che termini il calo demografico su internet tipico del periodo estivo influisce sul posizionamento dei siti?


  • Super User

    @"MarcoTuscany" said:

    Salve Stuart, un saluto a tutti i forumisti vecchi e nuovi,

    Cosa ne pensi della teoria dei grafi, che poi tanto teoria non è visto che i motori devono per forza ragionare con la matematica che è la loro forma di "intelligenza" ?

    Ritengo che i motori facciano riferimento alla teoria dei grafi al fine di identificare i clique (gruppi di siti che si interlinkano), scambi link semplici, o più complessi (a-b-c-d-a), network aperti al solo scopo di falsare la link popularity e il PR dei siti appartenenti.

    Chiaramente quando inizi un network quello di tenere i nodi (siti) il più distanti possibili tra loro è il problema principale.

    Secondo te nella realizzazione di un proprio network funzionale alla popolarità di uno o più siti, i siti a valenza regionale (tipo .it) ha senso se vengono inseriti in reti di siti che comprendono .com con server all'estero oppure andrebbero localizzati maggiormente in ambito nazionale?

    Grazie Saluti.
    Molto semplicisticamente visto anche il contesto frenetico (ma si potrebbe sviluppare questo tema in un topic specifico) se hai dei siti country specific, sarà meglio inserirli in network di siti che siano visti da Google come siti di QUELLA nazione.

    A mio parere la localizzazione fisica del server (se hai un sito.it in lingua italiana) non dovrebbe incidere sull'efficacia del network.
    Viceversa se hai dei siti.com in italia, scritti in inglese, per questioni di tematizzazione linguistica dei link potrebbero far perdere rilevanza a siti in lingua diversa.


  • Super User

    Ore 17.30

    Chiudo il topic e rispondo alle domande residue 🙂
    Chiarirò anche la questione "WordPress" visto che non ho spiegato bene la mia risposta (my fault)

    Mi scuso per eventuali imprecisioni, errori di sintassi (non è da me) e per alcune domande non ho saputo dare una risposta certa. E' veramente difficile leggere veloce-pensare veloce-scrivere veloce 🙂

    Grazie a tutti quelli che hanno partecipato (attivamente e passivamente)
    e Grazie a Giorgio per la fiducia che mi ha dimostrato assegnandomi il compito di aprire la stagione dei LIVE 🙂

    Cordialmente,
    Stuart


  • Super User

    Ok, fumata una sigaretta finisco il lavoro. 🙂

    @Toniello said:

    Domanda:
    Secondo i motori di ricerca, e in particolare Google, è importante tenere una pagina aggiornata anche se non si ha la possibilità di aggiornarla di nuovi contenuti, ma magari modificare il codice, le frasi che contiene.

    Non è importante in senso assoluto.
    Dipende dal tipo di sito, dal tipo di pagina, dal tipo di contenuto.

    E dipende dal tuo reale interesse ad avere le pagine costantemente reindicizzate.


  • Super User

    @doopcircus said:

    1. ti fai linkare, grazie ai loro contatti, da tre siti PR6 a tema, con un linkino ben fatto nella home di ognuno ( e poniamo anche che tali home non eccedano in link in uscita ) ma SENZA POTER TOCCARE L'OTTIMIZZAZIONE INTERNA
    2. rinunciare a qualsiasi nuovo link esterno potendo però lavorare liberamente sull'ottimizzazione interna del sito, anche creando qualche nuova pagina ( ma non troppe)

    Probabilmente sarebbe una scelta errata, ma sceglierei la 2.
    Non posso rinunciare a mettere mano al sito che devo posizionare...è più forte di me 😄


  • Super User

    @dam said:

    Grazie!

    ...quindi indirettamente PR maggiore implica una maggiore popolarità e di conseguenza una maggior numero di visite.

    No, le maggiori visite non sono conseguenza di un alto PR.
    Potrei avere 1.000.000 di euro da parte, comprare link per 3 mesi e arrivare a toolbar PR 9 ma avere 3 unici al giorno 🙂

    Al massimo, un sito molto visitato, aumenta le possibilità di essere notato, e quindi linkato. Un conto la popolarità "algoritmica" (vedi PR), un conto la popolarità reale (numero visite)

    @"dam" said:

    La domanda derivava dalla considerazione che un sito giovane viene premiato poco da google (almeno questo è quello che ho capito leggendo in giro) e quindi mi chiedevo se passato il tempo tecnico di google e quindi incrementanto il PR del sito = maggiori visite con gli stessi contenuti..

    Spero di non aver fatto più confuzione di prima

    Ciao!

    il sito "giovane" viene premiato poco da Google perchè non esistono dati storici di quel sito (fondamentalmente una storia dei backlink, del numero di pagine indicizzate, e del traffic pattern)


  • Super User

    @rigby76 said:

    Esistono dei parametri o delle tecniche per misurare la "difficoltà" di uscire con una key (oltre al numero di pag indicizzate)?

    Grazie e complementi per la preparazione e la disponibilità! 😉

    Non ti consiglio ti considerare il numero di pagine tra i risultati come indice di competitività di una ricerca, perchè non vi è una vera correlazione.

    "Guida Valencia" e "Valencia" sono due ricerche , e causano due serp, estremamente diverse. Per le quali vengono presi in considerazione parametri diversi: cluster, backlink, anzianità, traffico, espansione query ecc ecc....

    Ti suggerisco un tool per l'analisi della competitività delle kwd
    http://www.seomoz.org/tools.php (a memoria, sto conservando lo spirito del LIVE) e scegli il Kwd competivity tool 🙂


  • Super User

    @must said:

    altra domanda: sei cosí lento a rispondere perché con una mano scrivi e con l'altra tieni il telefono? 😄

    Sono lento nonostante abbia rischiato di fondere la tastiera durante il LIVE...
    Ho ignorato tutte le chiamate finora giunte (5)..


  • Super User

    @Lord Baron said:

    1. Come ben sai abbiamo un blog su blogger per questo vorrei sapere a)sai quale dovrebbe essere la lunghezza ottimale di un post? b) quanti link e' ottimale mettere dal blog ai nostri portali ogni mese sensa che G si incacchi?

    Non c'è una soglia di lunghezza oltre/prima la quale Google comincia ad inca**arsi. Un post di 3 righe al semplice scopo di mettere un link direi che è quantomeno sospetto.
    Fossi in te, non linkerei UNICAMENTE le pagine di un unico sito (il tuo), ma generosamente linkerei sporadicamente anche altre strutture. Ne guadagnerà l'autorevolezza del blog.
    Parallelamente un blog che (indipendentemente dalla frequenza) linka sempre un unico sito in qualsiasi post sarà presto associato ad uno splog (spamblog).

    @"LordBaron" said:

    1. Stiamo studiando la possibilita di aderire con una compagnia (che se me lo chiedi posto l indirizzo) per far partire una tele online chiaramente con lo stesso tema dei nostri portali. Come vedi questo mercato? Credi che sia ancora presto?

    Saluti

    LB

    Su internet non è MAI troppo presto.
    Nella peggiore delle ipotesi arriverai in un mercato che magari si svilupperà nei prossimi anni, ma il tuo nome, la tua attività saranno già noti.
    Al di là degli aspetti SEO, non sottovalutare mai ogni singolo passo che può portarti traffico, ritorno di immagine, popolarità.


  • Super User

    @sitionweb said:

    Ciao Stu e complimenti per il tuo live 😉

    Una domandina... Immagino sia possibile, aprendo un sito web oggi, che diventi importante tanto da meritare il primo posto in SERP e i sottomenu da Google...

    ad esempio questo

    Per arrivare a tanto, è solo un lavoro di "pazienza" (quindi contenuti, BL, ...) o secondo te c'è dell'altro?

    Grazie 🙂

    Quella particolare snippet ha origine algoritmica.
    Francamente non ho ancora scoperto come ottenerla, presumo che sia un mix di (click) popularity, e backlink.

    Indipendentemente da quella snippet, il termine "pazienza" lo trasformerei in "acquisizione di fiducia" da parte di Google. Che in senso molto ampio non significa unicamente il numero (e la qualità) dei backlink ma anche il loro progressivo aumento, traffico, stabilità del topic.


  • Super User

    @sitionweb said:

    Ho notato una cosa alquanto singolare:

    gestendo due forum, ne ho linkato uno da un sito esterno al mio (due links) e dopo due giorni è in SERP.
    Ho linkato l'altro solo internamente, ma con diversi link.

    Come mai? Gli spider seguono in maniera diversa tali link? O è solo che il sito esterno al mio è più anziano e, quindi, più importante? 🙂

    I link dall'esterno, soprattutto se provenienti da siti anziani (il che, in teoria potrebbe voler dire nulla 😉 ) hanno sicuramente più efficacia dei semplici link interni.


  • Super User

    @madai said:

    Ciao 🙂

    Anche se il cloacking potrebbe sembrare una delle tecniche scorrette più sconsigliabili, conosco un sito di ottima qualità, molto "anziano", ricco di contenuti storici ed aggiornati, molto presente su serp altamente competitive, che utilizza user agent cloacking in home page da più di un anno eppure non ha mai subito ban né penalizzazioni.

    Domanda: nonostante il "caso" BMW di qualche tempo fa, ritieni possibile che un sito con ottimo trustrank subisca meno controlli da parte di google altrimenti come ti spiegheresti questa anomalia?

    Ciao e grazie 🙂

    Il caso BMW fu eclatante ed esemplare.
    Tutta internet si passò notizia che un sito come bmw.de utilizzava le doorway (che se ricordo male, non c'era solo una redirect in js, ma anche pesante kwd stuffing); impossibile non prendere una posizione.

    Al di là del caso specifico, quando non vi è modo di identificare algoritmicamente una forma di spam (come le redirect in javascript più semplici) e quindi un'analisi spam deve essere necessariamente umana, si presenta il dilemma più classico per chi deve sancire il ban manuale: "Bannando questo sito, danneggio più il webmaster o i miei utenti (e quindi Google)?"

    Ovviamente se il sito è scadente, nuovo, poco popolare non ci pensa due volte. Se invece il sito è importante e risponde degnamente a tante ricerche, riceve backlink ecc ecc... probabilmente bannandolo si penalizzerebbero gli utenti, prima che il webmaster.

    Per questo si ha la sensazione che certi siti (solitamente anziani) che fanno più o meno spam siano tollerati.


  • Super User

    @dam said:

    Come consideri l'utilizzo dei tag in un blog/sito?

    grazie!

    Entertainment Purposes only 🙂


  • Super User

    @cibino said:

    con anchor diversi?
    ma se voglio diventare forte per una parola, non mi conviene utilizzare sempre l'anchor contenente quella parola...

    Se vuoi conferire alla tua strategia di linking un aspetto il più spontaneo possibile te lo sconsiglio. Vivamente 🙂


  • Super User

    @dam said:

    Una domanda secca: volendo trattare un argomento è meglio una singola pagina o tante piccole pagine magari correlate e collegate fra loro?

    grazie!

    Personalmente preferisco splittare una pagina che alla fine sarebbe troppo lunga in più pagine brevi, con un minimo di navigazione. Le pagine sono più leggere, facili da consultare (meno pesanti per il lettore), posso ovviamente variare il title tag rendendolo più descrittivo e gioco con le ancore dei link.


  • Super User

    @pieru said:

    Mi scuso se la domanda è già stata fatta me ho paura di uscire fuori tempo massimo.
    Ho l'impressione che (almeno per google) il peso dei fattori off site stia crescendo rispetto rispetto a qullo dei fattori on site (mi riferisco al 2006) confermi?

    Si confermo. Aggiungendo che ho anche io l'impressione che le soglie di tolleranza (specie per i siti nuovi) di intervento seo sulla pagina siano molto più basse che un tempo.

    Questo ha reso i fattori esterni molto più importanti e, paradossalmente, più controllabili di quelli interni.


  • Super User

    @micky said:

    Grazie per prima :)!!!

    Ultima domanda (forse :D!) e mi levo di torno per la gioia di tutti :D!!!

    Sai bene la mia propensione nella scrittura dei contenuti. Sono un chiacchierone anche per iscritto :D! Qualora faccia ad esempio un sito sui motori di ricerca avrei una marea da scrivere. Ci sono argomenti che per loro natura sarebbero ascrivibili o nell'una o nell'altra directory. Esempio faccio un articolo sui fattori di importanza di MSN e questo lo potrei piazzare sotto una directory miosito.it/msn/fattori-di-importanza.html o magari in miosito.it/articoli/fattori-di-importanza-msn.html ecc. Moltiplica queste cose per centinaia di pagine ed avrai il perchè della mia domanda.

    Allora sarebbe saggio piazzare tutto sotto il calderone root e fregarsene della divisione in directory (e quindi fregarsene della spinta, fattore in decadimento, dovuta alle keywords nell'url), e puntare quindi sulla sola suddivisione logica delle pagine, sfruttando i link ed i menù presenti nelle pagine stesse, oppure anche la suddivisione fisica ha la sua importanza per i motori? Oppure converrebbe, quando la mole dei file cresce a dismisura, decidere in quel momento come sistemare le cose e sistemare tutto in directory tematiche a botte di redirect 301? Come ti regoli tu per i tuoi siti? E' penalizzante o comunque non porta risultati) una divisione ossessiva iniziale in parecchie directory, con una previsione di futuro riempimento?

    P.S. non mi dite una domanda per volta perchè sono alternative out out :D!!!

    Considerando che il tempo di accesso a miosito.com/index.html è identico a **miosito.com/dir/dir/dir/index.html **e che, come giustamente hai notato, la keyword nell'URL (directory e pagine) non hanno più il valore di un tempo, noterai che la suddivisione in directory rimane un'operazione di mera logica e usabilità.

    Le pagine di un sito le suddividi/ avvicini tramite i link. Una suddivisione in directory, se ci pensi bene, aiuta più te (webmaster) che motori e utenti 🙂

    Per rispondere alla tua domanda. La suddivisione fisica (che facendo i pignoli fisica non è) dei file ha un senso fin tanto che un minimo peso viene dato ai nomi di directory. La distribuzione del PR, tematizzazione, boost (che bella parola: boooost) dipende dalla gerarchia dei link e dalle ancore dei link.


  • Super User

    @pieru said:

    DMOZ. E' vero che il peso della presenza in DMOZ è drasticamente sceso nel corso del 2006?

    Mah... da un punto di vista "posizionamento" non è mai stato necessario essere inclusi. Tantomeno lo è adesso.
    Importante sì, ma non fondamentale.


  • Super User

    @nbriani said:

    Stuart,

    secondo te e secondo la tua esperienza come avviene nella pratica in un motore di ricerca la penalizzazione (non il ban) di un documento ?

    Cioè se un quality rater (nel caso di google) o una qualche procedura algoritmica flagga un sito che tipo di penalità e in che modo viene assegnata....

    • limitata : Per keywords specifiche o per cluster di keywords (anche per lingue diverse)

    • generalizzata:tipo "-100 punti" 🙂 sempre a presindere dalla query di ricerca

    • altro ?

    :ciauz:
    Nicola

    Bella domanda.
    Ti riporto appunto quelle che sono le mie esperienze, oppure dirette osservazioni. Ciò quindi non esclude che esistano altri tipi di penalizzazione.

    Tra quelli che conosco ci sono quelli più classici, ossia quelli a base algoritmica, tra cui:

    "Hai inserito 25 volte per cm2 il termine HOTEL? Lo hai anche inserito 8 volte nel Title Tag e 80 nel meta kwd? Bene, ora tu con Hotel non esci neanche se ti linkano dal Vaticano"

    Ci sono quelli totali. Non sei bannato ma non esci con nessuna ricerca.

    Ci sono quelli più bizzarri, come ad esempio quando ti beccano che vendi link e ti abbassano il damping factor. Da quel momento puoi avere anche PR10 ma i tuoi outbound non valgono un H. Il tuo sito diventa un ammasso di dangling pages.

    Nella pratica il 99% delle penalità (a parte quando vendi link) avviene algoritmicamente, e si risolve velocemente non appena si risolvono i problemi che hanno portato al Flag. La causa principale di penalizzazione è solitamente la OOP (Over Optimization penalty), eccessivi scambi link (o bad neighbourhood).

    Oltre a questo c'è il ban


  • Super User

    @pieru said:

    **Un **sito, **una **lingua. Questo almeno è quello che spesso avviene tanto che, come sappiamo, BL pesanti da lingua inglese possono essere addirittura penalizzanti in particolari circostanze.
    Se questo è vero è un limite tecnologico o una scelta precisa nell'implmentazione dell'algoritmo? Secondo te sarà sempre così o ci saranno dei cambiamenti in futuro?

    Dire "limite tecnologico" per me è esagerato. Idem parlare di un difetto (o glitch). Credo però che non sia un effetto voluto.

    Il motore si affida -anche- ai link per cercare di assegnare una nazionalità ad un documento scritto in una lingua di cui non ha un pattern o un dizionario ampio come quello inglese.

    Se i link provengono da siti forti (in termini di PR e trust), portano con sè non solo PR ma anche la lingua.