• Super User

    @uMoR said:

    Ma per fattori esterni oltre che:

    • link
    • anzianità
    • "zona" del web
    • dati relativi alle toolbar

    Estenderei "dati relativi alle toolbar" a "dati relativi a qualunque razza di software che il motore riuscirà a far installare agli utenti" 😄

    E' evidente che un proxy come il Google Accelerator ha informazioni dirette sul traffico degli utenti.


  • Super User

    @Gianbi said:

    Ma la tendenza ad avere "motori di risposta" non penalizza in generale il web? I vari siti ben creati e curati esteticamente non avrebbero più senso di esistere, ci si focalizzerebbe solo sui contenuti.
    Inoltre questo non inciderebbe negativamente sul numero di utenti e conseguentemente anche sui ricavi dei singoli siti?

    Li ritengo dubbi legittimi, che sono condivisi da molti osservatori compreso il sottoscritto.

    Credo che gli effetti reali saranno chiari solo quando la trasformazione da motori di ricerca a motori di risposta sarà in stato più avanzato.

    Non escludo che i motori riescano a trovare un modo per evitare che gli utenti si accontentino della risposta senza visitare i siti linkati.


  • Super User

    Low,

    per un network quanto è importante essere su macchine diverse?


  • User Attivo

    Ciao Colleghe di Low 🙂

    Sono alle prime armi con i sistemi PPC, e vorrei chiedervi:

    può aver senso una campagna PPC per promuovere un sito per cui non è previsto ritorno economico (o magari le cui uniche entrate provengono da adsense), come può essere un blog?

    In caso affermativo, su che cosa converrebbe puntare?
    Una landing page per convincere chi atterra a sottoscrivere il feed rss del blog (o di determinate categorie di esso) per seguirlo,
    o magari fornire un accesso "esclusivo" ad alcuni contenuti protetti da password e invisibili agli utenti normali?

    Come vedete punto sulla strategia di fidelizzare il lettore, che secondo me è la vera ricchezza di un sito come un blog. Ci sono altre aree per cui varrebbe la pena spendere, secondo voi? E su quelle citate, investireste risorse?

    Grazie 🙂


  • Super User

    @esteban said:

    quanto influiscono, se usati, i nuovi servizi messi a disposizione dai motori di ricerca?
    ad es. sitemap se usato può portare a una migliore indicizzazione oppure ogni servizio offerto ha una vita propria?

    Sitemap porta sicuramente ad una migliore indicizzazione, ma non necessariamente ad un buon posizionamento.

    Una volta che la pagina è stata indicizzata grazie al sitemap, la posizione dipende sempre e comunque dai normali algoritmi di ranking di Google.


  • Community Manager

    Low, creare una risorsa in inglese e conoscere il mercato inglese può, naturalmente con un ottimo prodotto, far avere ad una pagina un casino di Back Link ([url=http://blog.searchenginewatch.com/blog/060524-084924]http://blog.searchenginewatch.com/blog/060524-084924 :D).

    Conoscendo il target inglese e le risorse dove segnalare il proprio prodotto, consiglieresti a GT la traduzione di alcune aree per aumentare ancora di più il valore di tutto il dominio?

    Naturalmente con la creazione di un en.gt o un webmaster.gt (dipende dalle aree :D).

    :ciauz:


  • User

    @Giorgiotave said:

    Bene 😄

    CollegheDiLow, alcuni tester affermano che per apparire nei collegamenti in alto di Google (quelli celeste chiaro) occorra avere un rate di 5.

    Il Rate è calcolato con la formula CTR X Bid massimo.

    Il minimo di impression giornaliere è 1000.

    Quanto avete riscontrato questi dati nelle vostre campagne?

    Questa ipotesi non ci risulta verificata, abbiamo riscontrato alcuni casi in cui il rate si presentava inferiore ma gli annunci comparivano ugualmente in posizione premium così come abbiamo riscontrato casi in cui un rate pari a 5 non fosse sufficiente.

    Secondo questa ipotesi, una volta raggiunto l'obiettivo sarebbe possibile abbassare di molto il bid mantenendo lo score inalterato in quanto il CTR raggiunge valori molto elevati.
    A nostro parere invece esiste la possibilità che sia necessario in ogni caso avere il bid più elevato per mantenere quella posizione, ma questa è solo una supposizione 😉


  • User Attivo

    Domanda per LowLevel:
    se facendo un site ti appare
    "Al fine di visualizzare i risultati più rilevanti, sono state omesse alcune voci molto simili alle xxx già visualizzate.
    In alternativa, è possibile ripetere la ricerca includendo i risultati omessi."
    anche se i contenuti sono originali e non duplicati su altri siti, come interpreteresti questo messaggio ? Come ti muoveresti ?
    Reputi che secondo il motore di ricerca le pagine non visualizzate siano troppo simili ad altre presenti nel web e quindi "te le cassa" ?


  • Super User

    @petro said:

    E l'essere ben posizionati -grazie alla rilevanza- anche per una miriade di chiavi appartenenti a settori poco competitivi (ovviamente parlo di un sito generalista), può aiutare lo stesso a scalare anche le serp dei settori più difficili?

    Qui rientrano in gioco i valori globali del sito: se grazie alla miriade di contenuti che ti fanno scalare le posizioni per settori poco competitivi il sito ha incrementato globalmente la propria importanza o autorevolezza, allora sì, questa importanza ed autorevolezza attribuita dal motore può aiutare il sito a posizionarsi in settori più difficili.

    Aiutare quanto? Difficile a dirsi. Ovviamente tutto è relativo al grado di competitività del settore in cui entri e a quanto il sito sia considerato popolare dal motore.

    Nota che uno dei fattori che alcuni motori prendono in considerazione per calcolare la popolarità di un sito dipende da quanto spesso il sito viene fuori nei risultati delle ricerche. E' anche in base a questo fattore che molti spammer riescono a creare siti generalisti che si piazzano bene per molte keyword.


  • Moderatore

    @LowLevel said:

    Sitemap porta sicuramente ad una migliore indicizzazione, ma non necessariamente ad un buon posizionamento.

    Una volta che la pagina è stata indicizzata grazie al sitemap, la posizione dipende sempre e comunque dai normali algoritmi di ranking di Google.

    volevo sapere se i servizi interagiscono con i normali algoritmi di un motore di ricerca.
    se si in quale misura


  • User Attivo

    Altra domanda per Low:

    Ci sono ricerche in cui Google (ma forse anche altri), oltre a fornire i classici URL dei siti che ha trovato, fornisce immagini o altre informazioni, come per esempio in questa ricerca:
    http://www.google.com/search?num=50&hl=en&lr=lang_en|lang_it&safe=off&c2coff=1&q=suicide&btnG=Search&lr=lang_en|lang_it
    oppure come documenta questo screenshot, entrambe:
    http://blog.outer-court.com/files/thumbnails-screenshot-small.jpg

    Le query selezionate per questo "trattamento speciale", sono selezionate a mano oppure c'è una correlazione tra semantica della parola e l'archivio dell'indice (per esempio magari per "elephant" ci sono tantissime foto, allora l'algoritmo decide che è utile mostrare qualche immagine)?

    I risultati aggiuntivi da mostrare, sono scelti a mano? (la ricerca per "suicide" fa pensare di sì, oppure il motore è evoluto fino a questo punto?)

    Ma soprattutto, era questo che intendevi quando parlavi di "motori di risposta"?


  • Moderatore

    @LowLevel said:

    Nota che uno dei fattori che alcuni motori prendono in considerazione per calcolare la popolarità di un sito dipende da quanto spesso il sito viene fuori nei risultati delle ricerche. E' anche in base a questo fattore che molti spammer riescono a creare siti generalisti che si piazzano bene per molte keyword.

    Ma quindi i motori favoriscono anche in base ai click che un sito web riceve nelle serp? Ovvero più click riceve, più sale nelle serp...


  • Super User

    @Stuart said:

    "Escludendo Sitemaps e Analytics, quale tra i nuovi servizi e infrastrutture di Google che hanno esordito nell'ultimo anno ritieni più interessanti, da un punto di vista SEO/SEM? E perchè?"

    Google Trends non è male, ma molto limitato.

    La cosa che ritengo personalmente più interessante è la nuova gestione dei crawler da parte di BigDaddy, in particolare la creazione della cache. 'Sta roba darà filo da torcere ai SEO perché sarà più difficile determinare quando uno specifico spider ha scaricato un file.

    Penso che sarebbe interessante dare un'occhiata a come funzionano le ricerche personalizzate e capire quali algoritmi vengono attualmente usati per stabilire la posizione delle pagine.

    Ho dato un'occhiata a Google Spreadsheet ed è anch'esso molto limitato. Non ho posto molta attenzione ai tool che prevedono la condivisione di informazioni; mea culpa: conteranno sempre più.


  • Moderatore

    @LowLevel said:

    Non ho posto molta attenzione ai tool che prevedono la condivisione di informazioni; mea culpa: conteranno sempre più.

    Quali sono questi tool?


  • Super User

    @nbriani said:

    1. dominio dedicato (magari localizzato anche nella .ext)
    2. dominio III livello
    3. semplice sezione del sito

    Senza avere altri particolari sul caso specifico, consiglio la soluzione 1, localizzato nella .ext


  • Super User

    @sitionweb said:

    Gli elementi esterni al sito (che, abbiamo assodato, contano più di quelli interni) hanno un ordine di importanza?

    Nessun ordine assoluto e valevole per tutti i siti.


  • Super User

    @sitionweb said:

    Più in generale, un link alla sezione inglese del mio sito web, ha una qualche influenza sulle sezioni in altre lingue dello stesso?

    L'influenza l'ha sempre. Circa il "quanto" dipende dal link, da dove proviene e dalla struttura del sito. Ma ci sono anche altri fattori.


  • User

    @uMoR said:

    Per le colleghe:

    • oltre che fare prove su prove su prove, che libri consigliate di leggere per impratichirsi con adwords, landing page ecc ?

    (escludete quello del vostro capo :D)

    A parte qualche mattone sul marketing in generale (primo su tutti Mr. Kotler) e testi sul web marketing in generale (es Lavapiubianco.biz e .com da cui l'omonimo [url=http://www.lavapiubianco.com/newsprec.phtml]sito), qualche chicca su Amazon si trova 😉

    Da [url=http://www.amazon.com/gp/product/0735713995/sr=8-4/qid=1149701579/ref=pd_bbs_4/002-6037639-6293627?%5Fencoding=UTF8] testi sulla progettazione di un sito web, alle [url=http://www.amazon.com/gp/product/0971476993/qid=1149701681/ref=br_lf_b_16/002-6037639-6293627?n=3563&s=books&v=glance]tecniche di copywriting persuasivo; dalla [url=http://www.amazon.com/gp/product/0072257024/sr=8-3/qid=1149701579/ref=pd_bbs_3/002-6037639-6293627?%5Fencoding=UTF8]gestione di campagne Adwords fino allo [url=http://www.amazon.com/gp/product/0131852922/qid=1149701681/ref=br_lf_b_15/002-6037639-6293627?n=3563&s=books&v=glance]studio delle metriche web.

    La chicca ve la lasciamo in ultimo, come un dessert: [url=http://www.amazon.com/gp/product/1932226397/qid=1149701681/ref=br_lf_b_12/002-6037639-6293627?n=3563&s=books&v=glance]un vero capolavoro sull'incremento delle conversioni direttamente dalla penna di Bryan Eisenberg e Jeffery Eisenberg 😉

    Buona lettura.


  • User

    @nbriani said:

    Colleghe di LOW,

    in generale nella gestione di budget pubblicitari di clienti quanto peso date all'acquisto di "classici" banner (non ppc) su portali ?

    grazie ancora, Nicola

    La nostra attività si concentra unicamente sulle campagne di marketing per i motori di ricerca. E'possibile trovare, però, un'attinenza tra i circuiti di banner ed il Site Targeting di Google, un servizio che ti permette di selezionare i siti su cui apparire (ma non la posizione) e che ti offre più visibilità rispetto ad AdSense, oltre che la possibilità di utilizzare creatività grafiche.

    In questo caso, dalla nostra esperienza emerge che la funzionalità primaria dei banner è quella di fare banding: anche a fronte di una profilazione accurata e di una selezione attenta dei circuiti su cui apparire, i risultati in termini di cost per click e di conversioni non sono paragonabili a quelli offerti dal keyword advertising 😄


  • User Attivo

    Per LOW: nel META NAME="keywords" in base alla tua esperienza è importante inserire keywords singolari e plurali, composte e combinate?

    Mi spiego meglio con un esempio di 3 key:

    casa - letto - disponibile

    E' meglio o indifferente:

    1. META NAME="keywords" CONTENT="casa, letto, disponibile"
    2. META NAME="keywords" CONTENT="casa con letto disponibile"
    3. META NAME="keywords" CONTENT="casa con letto disponibile, case con letti disponibili, letti disponibili in casa, casa, letto, disponibile"

    Nell'ultimo caso si rischia il keyword stuffing? Oppure il motore le interpreta come key differenti?

    Mi scuso per la domanda... ma la faccio in base ad un esperienza personale che ho avuto!