• Super User

    mettilo in firma e vivi felice.


  • Super User

    Io ho il brutto presentimento di si dato che il mio blog sull'internet marketing è piuttosto recente...

    Ci sono tanti siti recenti che si posizionano senza problemi.

    Sandbox non significa "troppo giovane per posizionarsi bene". E' qualcosa di più complesso e l'età c'entra solo fino ad un certo punto.

    E' tanto complesso che non è possibile rispondere alla tua domanda con certezza, perché l'amara verità è che potrebbe essere tutto ed il contrario di tutto.

    Quello che so è che quando un nuovo sito ha difficoltà a posizionarsi, la prima cosa che escludo è la giovane età e comincio ad analizzare ben altri parametri, come la capacità del sito stesso a creare traffico da sé.


  • User Attivo

    Ok il mio blog è inserito in firma
    A chi volesse, buona lettura


  • Super User

    Ci sono tanti blog lì fuori che vengono usati solo per creare pagine di keyword e pubblicità AdSense.

    Il tuo blog non è di quel tipo, perché ha diversi contenuti.

    Ciononostante hai chiamato il blog "Internet Marketing News - Motori di Ricerca - Search Engine Marketing Blog" (non proprio un nome mnemonico), ogni santissima pagina è introdotta da "Internet marketing news - motori di ricerca - search engines - pay per click - SEM - online marketing business - search engine marketing - search advertising - ppc - pay per click - web marketing blog - internet marketing strategy - direct marketing" e gli AdSense non mancano.

    Non sono certo che queste cose, assieme, siano considerati segnali positivi da Google, a meno che il blog non benefici di altri fattori, come un linking naturale o un traffico consistente o una produzione di contenuti maggiore.

    La cosa è molto semplice: chi arriva per ultimo ha diritto a superare chi è arrivato prima solo se dà segnali di originalità e unicità. Altrimenti si rischia di sembrare l'ennesimo sito spara-keyword.

    La domanda da porsi è "sto rischiando di sembrare l'ennesimo sito spara-keyword, anche se non lo sono?".

    Un ingegnere di Google ha detto esplicitamente che alcune delle loro tecniche anti-spam si basano sul seguente criterio: si identificano i siti di alcuni spammer e poi un algoritmo ne estraspola le caratteristiche peculiari. Successivamente, tutti i siti vengono controllati per vedere se quelle caratteristiche sono presenti o meno. Più un sito mostra caratteristiche simili a quelle trovate nei siti degli spammer, e più si viene considerati "affini" a loro.


  • User Attivo

    Lowlevel sono daccordo con te per quanto riguarda gli spam blog.
    Gli ho dato una sistemata ed ora mi sembra più pulito, pur rimanendo coerente con l'argomento del mio blog.

    Che te ne pare


  • User Attivo

    Scusa la mia ignoranza "crassa e resupina", ma tutti quei tag in alto.... Immagino (sbagliando?) lo scopo, ma servono??


  • User Attivo

    quelli non sono per il posizionamento ed i motori di ricerca non li vedono nemmeno. Sono dovuti a [url=http://www.tagcloud.com/]tagcloud per un discorso di [url=http://en.wikipedia.org/wiki/Folksonomy]folksonomy
    Nulla di più 😉


  • User Attivo

    Grazie :ciauz:


  • Super User

    @LowLevel said:

    Ci sono tanti blog lì fuori che vengono usati solo per creare pagine di keyword e pubblicità AdSense.

    ....

    a meno che il blog non benefici di altri fattori, come un linking naturale o un traffico consistente o una produzione di contenuti maggiore.

    La cosa è molto semplice: chi arriva per ultimo ha diritto a superare chi è arrivato prima solo se dà segnali di originalità e unicità. Altrimenti si rischia di sembrare l'ennesimo sito spara-keyword.

    Il traffico è un fattore importante? Ma come lo rileva? Toolbar? Lo stesso adsense?


  • Super User

    @scangilli said:

    Che te ne pare

    Ottimo, ma nel meta tag description metterei una descrizione, non keyword.

    Il traffico è un fattore importante? Ma come lo rileva? Toolbar? Lo stesso adsense?

    Non sono in grado di determinare quanto sia importante, ma è molto probabile che sia uno dei tanti fattori preso in considerazione. Diversi test ed esperienze personali parrebbero confermarlo.

    La toolbar è uno dei possibili metodi utilizzati, ma non è il migliore, perché gli utenti della toolbar non credo siano un campione statisticamente rappresentativo dell'utenza del Web.

    Da informatico, mi vengono in mente moltissimi modi con cui Google potrebbe registrare il traffico con una precisione accettabile, ma sarebbero solo congetture, peraltro non provabili, e quindi sono restio a parlarne.


  • Super User

    Grazie Low


  • Super User

    @LowLevel said:

    Da informatico, mi vengono in mente moltissimi modi con cui Google potrebbe registrare il traffico con una precisione accettabile, ma sarebbero solo congetture, peraltro non provabili, e quindi sono restio a parlarne.

    eppero' potresti accennarli.
    qui abbiamo gente che sbava appena pronunci la parola "test" :sbav:
    🙂


  • User Attivo

    In realtà i tag meta che vedi nell'html sono solo un test che sto facendo. Sembrerebbero invisibili ai motori dato già li prende dall'interfaccia di Blogger
    Per meglio spiegarmi questi sono i tag meta che lui vede:

    Internet Marketing News (title)
    Blog sul search engine marketing e i motori di ricerca (description)
    Peraltro su Blogger il meta tag keywords nemmeno esisterebbe di default (forse perchè google sempre meno ha bisogno di tenerlo in considerazione, riuscendo comunque a rilevare quale sono le kw rilevanti rispetto all'argomento)
    Comunque aspetto il prossimo passaggio di googlebot e vediamo che succede...


  • Super User

    @must said:

    eppero' potresti accennarli.

    Sia Yahoo! che Google hanno stretto accordi con alcuni Internet Provider. Google sta persino costruendo il proprio network.

    Ottenere statistiche sul traffico web per capire quali siti vengono visitati di più (senza tener conto degli accessi provenienti dai motori di ricerca) non è più fantascienza.

    Per meglio spiegarmi questi sono i tag meta che lui vede:

    I meta tag li vede tutti. Poi può anche mostrare altro agli utenti, ma li vede tutti. Il codice è lì, a sua disposizione, e dentro il meta tag description non c'è una descrizione. Non casca il mondo, ma non è certo una cosa positiva.

    Comunque aspetto il prossimo passaggio di googlebot e vediamo che succede...

    E' improbabile che succeda qualcosa. Non si tratta di un filtro che si accende o si spegne improvvisamente alla presenza o assenza di certi elementi. Tutti i siti che ho analizzato hanno impiegato diverso tempo per risalire la china. L'importante però è fare i primi passi.


  • Super User

    @LowLevel said:

    Sia Yahoo! che Google hanno stretto accordi con alcuni Internet Provider. Google sta persino costruendo il proprio network.

    Ottenere statistiche sul traffico web per capire quali siti vengono visitati di più (senza tener conto degli accessi provenienti dai motori di ricerca) non è più fantascienza.

    questo darebbe quindi ragione a key quando nell'altro forum dice che i SE vedono il traffico di un sito a prescindere da adsense, toolbar e altro.

    e pensare che un fenomeno dalla thailandia lo sfotte sotto forma di fake 🙂


  • Super User

    questo darebbe quindi ragione a key quando nell'altro forum dice che i SE vedono il traffico di un sito a prescindere da adsense, toolbar e altro.

    Non a prescindere, ma in aggiunta.

    Forse Key esagera un po'. Monitorare un po' di traffico è tecnicamente possibile. Monitorare il traffico dell'intero pianeta, no. Non puoi mica stringere accordi con tutti gli ISP del mondo o controllare tutte le backbone o le dorsali...

    E' l'integrazione tra tutti i possibili metodi che può aumentare la capacità di monitorizzazione, non l'adozione di un singolo metodo.


  • Community Manager

    Ciao scangilli e Benvenuto,

    potevi tranquillamente mettere il tuo blog come link all'inizio, nessun problema 😉

    Sono d'accordo con Low quando dice che non trova nessuna soluzione logica sul perchè i blog dovrebbero essere trattati diversamente.

    Interessante è il discorso sugli spammer:

    Un ingegnere di Google ha detto esplicitamente che alcune delle loro tecniche anti-spam si basano sul seguente criterio: si identificano i siti di alcuni spammer e poi un algoritmo ne estraspola le caratteristiche peculiari. Successivamente, tutti i siti vengono controllati per vedere se quelle caratteristiche sono presenti o meno. Più un sito mostra caratteristiche simili a quelle trovate nei siti degli spammer, e più si viene considerati "affini" a loro.

    Quindi il sistema dei blog-spam potrebbe risolversi (se non lo è già) in fretta, visto che la struttura è simile in molti casi.

    [url=http://www.motoricerca.info/news/news-378.html]Ma attenzione che potrebbero bastare un paio di buone bottiglie per saperlo 😄

    La cosa migliore è differenziarsi sempre, proprio oggi con Andre@ stavamo parlando di questo e di quanto potrebbe influire, in certi casi, anche sulla popolarità. Per questo partirà, molto probabilmente, un test che solo pochi possono fare e che se comunque andrà ci farà sapere (Andre@).

    Per quanto riguarda il TagCloud [url=http://www.motoricerca.info/news/toybox.php]interessante potrebbe essere il suo uso per gli utenti.

    Giorgio