- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Cinque Ore Live con LowLevel e Colleghe
-
LowLevel ha scritto
...... Personalmente, ho smesso di guardare al PageRank già da molto tempo. Ha una sua utilità per quanto riguarda l'indicizzazione, ma per il posizionamento punto principalmente su altri fattori.
Sull'ulitmo passaggio (posizionamento) quali sono gli altri fattori che consideri validi? Potresti elencarli in ordine crescente di importanza?
p.s.
Mi associo agli altri ringraziandoti per la cortesia e gentilezza avuta a farti massacrare per questo live.
-
@Matteo said:
- DMOZ conta ancora?
Sì.
- in sems usate di più il trattino - o l'underscore _ ?
Personalmente uso il trattino se mi serve il trattino e l'underscore se mi serve l'underscore. Sono due cose diverse, e possono essere usate per finalità diverse.
- meglio
http://www.miosito.it/nuova_categoria/
oppure
http://www.miosito.it/nuova_categoria/index.php
Scegline uno ed usa sempre quello.
Personalmente consiglio il primo perché se in futuro vorrai passare ad ASP o ad un altro linguaggio lato server, i link che puntano a http://www.miosito.it/nuova_categoria/ continueranno a funzionare mentre il secondo no.
- meglio un redirect da miobuondominio.com a miosito.com o meglio creare un minisito di un po' di pagine (quante?) con contenuti originali con link a miosito.com e a miei concorrenti?
Hmm... qui non ho capito.
- quante variabili sono tollerate da G in un link dinamico, o meglio quali non digerisce?
Non digerisce bene i parametri di nome "id" ed in genere qualunque cosa possa essere scambiata per un ID di sessione. Circa la quantità ho visto indicizzate pagine con molti parametri, anche una decina.
-
Colleghe di LOW,
in generale nella gestione di budget pubblicitari di clienti quanto peso date all'acquisto di "classici" banner (non ppc) su portali ?
grazie ancora, Nicola
-
@Leon83 said:
Quanto conta la mera aderenza di una pagina web agli standard del W3C?
Un pagina "non standard" ma con tutti gli attributi semanticamente rilevanti (title,h1,h2,alt...) al posto giusto potrebbe essere penalizzata rispetto ad una pagina identica ma rispettante perfettamente gli standard?Improbabile.
Il momento in cui un codice non valido crea problemi è quando è -talmente- schifoso che contiene errori nel codice, tanto da creare problemi di parsing ai motori di ricerca.
Questa è la ragione per la quale le pagine dovrebbero essere sempre validate: si va sul sicuro.
-
Per le colleghe:
un anno fa le serp di G spopolavano di spam engine e conseguentemente annunci adsense\overture.Dopo le pulizie degli ultimi mesi avete avuto modo di verificare un calo notevole delle impression o click a parità di prezzo rispetto ad un anno fa ?
Ad oggi quanto traffico vi arriva dallo spam ? E se ne arriva, è qualitativamente superiore od inferiore a quelle degli annunci adwords che appaiono nelle serp ?
E' più targettizzato il traffico derivante dagli annunci presenti nei circuiti adsense o quello derivante dagli annunci adwords nelle serp ?
-
In una scala da 1 a 10, quanto conta oggi DMOZ?
-
@uMoR said:
Ma per fattori esterni oltre che:
- link
- anzianità
- "zona" del web
- dati relativi alle toolbar
Estenderei "dati relativi alle toolbar" a "dati relativi a qualunque razza di software che il motore riuscirà a far installare agli utenti"
E' evidente che un proxy come il Google Accelerator ha informazioni dirette sul traffico degli utenti.
-
@Gianbi said:
Ma la tendenza ad avere "motori di risposta" non penalizza in generale il web? I vari siti ben creati e curati esteticamente non avrebbero più senso di esistere, ci si focalizzerebbe solo sui contenuti.
Inoltre questo non inciderebbe negativamente sul numero di utenti e conseguentemente anche sui ricavi dei singoli siti?Li ritengo dubbi legittimi, che sono condivisi da molti osservatori compreso il sottoscritto.
Credo che gli effetti reali saranno chiari solo quando la trasformazione da motori di ricerca a motori di risposta sarà in stato più avanzato.
Non escludo che i motori riescano a trovare un modo per evitare che gli utenti si accontentino della risposta senza visitare i siti linkati.
-
Low,
per un network quanto è importante essere su macchine diverse?
-
Ciao Colleghe di Low
Sono alle prime armi con i sistemi PPC, e vorrei chiedervi:
può aver senso una campagna PPC per promuovere un sito per cui non è previsto ritorno economico (o magari le cui uniche entrate provengono da adsense), come può essere un blog?
In caso affermativo, su che cosa converrebbe puntare?
Una landing page per convincere chi atterra a sottoscrivere il feed rss del blog (o di determinate categorie di esso) per seguirlo,
o magari fornire un accesso "esclusivo" ad alcuni contenuti protetti da password e invisibili agli utenti normali?Come vedete punto sulla strategia di fidelizzare il lettore, che secondo me è la vera ricchezza di un sito come un blog. Ci sono altre aree per cui varrebbe la pena spendere, secondo voi? E su quelle citate, investireste risorse?
Grazie
-
@esteban said:
quanto influiscono, se usati, i nuovi servizi messi a disposizione dai motori di ricerca?
ad es. sitemap se usato può portare a una migliore indicizzazione oppure ogni servizio offerto ha una vita propria?Sitemap porta sicuramente ad una migliore indicizzazione, ma non necessariamente ad un buon posizionamento.
Una volta che la pagina è stata indicizzata grazie al sitemap, la posizione dipende sempre e comunque dai normali algoritmi di ranking di Google.
-
Low, creare una risorsa in inglese e conoscere il mercato inglese può, naturalmente con un ottimo prodotto, far avere ad una pagina un casino di Back Link ([url=http://blog.searchenginewatch.com/blog/060524-084924]http://blog.searchenginewatch.com/blog/060524-084924 :D).
Conoscendo il target inglese e le risorse dove segnalare il proprio prodotto, consiglieresti a GT la traduzione di alcune aree per aumentare ancora di più il valore di tutto il dominio?
Naturalmente con la creazione di un en.gt o un webmaster.gt (dipende dalle aree :D).
-
@Giorgiotave said:
Bene
CollegheDiLow, alcuni tester affermano che per apparire nei collegamenti in alto di Google (quelli celeste chiaro) occorra avere un rate di 5.
Il Rate è calcolato con la formula CTR X Bid massimo.
Il minimo di impression giornaliere è 1000.
Quanto avete riscontrato questi dati nelle vostre campagne?
Questa ipotesi non ci risulta verificata, abbiamo riscontrato alcuni casi in cui il rate si presentava inferiore ma gli annunci comparivano ugualmente in posizione premium così come abbiamo riscontrato casi in cui un rate pari a 5 non fosse sufficiente.
Secondo questa ipotesi, una volta raggiunto l'obiettivo sarebbe possibile abbassare di molto il bid mantenendo lo score inalterato in quanto il CTR raggiunge valori molto elevati.
A nostro parere invece esiste la possibilità che sia necessario in ogni caso avere il bid più elevato per mantenere quella posizione, ma questa è solo una supposizione
-
Domanda per LowLevel:
se facendo un site ti appare
"Al fine di visualizzare i risultati più rilevanti, sono state omesse alcune voci molto simili alle xxx già visualizzate.
In alternativa, è possibile ripetere la ricerca includendo i risultati omessi."
anche se i contenuti sono originali e non duplicati su altri siti, come interpreteresti questo messaggio ? Come ti muoveresti ?
Reputi che secondo il motore di ricerca le pagine non visualizzate siano troppo simili ad altre presenti nel web e quindi "te le cassa" ?
-
@petro said:
E l'essere ben posizionati -grazie alla rilevanza- anche per una miriade di chiavi appartenenti a settori poco competitivi (ovviamente parlo di un sito generalista), può aiutare lo stesso a scalare anche le serp dei settori più difficili?
Qui rientrano in gioco i valori globali del sito: se grazie alla miriade di contenuti che ti fanno scalare le posizioni per settori poco competitivi il sito ha incrementato globalmente la propria importanza o autorevolezza, allora sì, questa importanza ed autorevolezza attribuita dal motore può aiutare il sito a posizionarsi in settori più difficili.
Aiutare quanto? Difficile a dirsi. Ovviamente tutto è relativo al grado di competitività del settore in cui entri e a quanto il sito sia considerato popolare dal motore.
Nota che uno dei fattori che alcuni motori prendono in considerazione per calcolare la popolarità di un sito dipende da quanto spesso il sito viene fuori nei risultati delle ricerche. E' anche in base a questo fattore che molti spammer riescono a creare siti generalisti che si piazzano bene per molte keyword.
-
@LowLevel said:
Sitemap porta sicuramente ad una migliore indicizzazione, ma non necessariamente ad un buon posizionamento.
Una volta che la pagina è stata indicizzata grazie al sitemap, la posizione dipende sempre e comunque dai normali algoritmi di ranking di Google.
volevo sapere se i servizi interagiscono con i normali algoritmi di un motore di ricerca.
se si in quale misura
-
Altra domanda per Low:
Ci sono ricerche in cui Google (ma forse anche altri), oltre a fornire i classici URL dei siti che ha trovato, fornisce immagini o altre informazioni, come per esempio in questa ricerca:
http://www.google.com/search?num=50&hl=en&lr=lang_en|lang_it&safe=off&c2coff=1&q=suicide&btnG=Search&lr=lang_en|lang_it
oppure come documenta questo screenshot, entrambe:
http://blog.outer-court.com/files/thumbnails-screenshot-small.jpgLe query selezionate per questo "trattamento speciale", sono selezionate a mano oppure c'è una correlazione tra semantica della parola e l'archivio dell'indice (per esempio magari per "elephant" ci sono tantissime foto, allora l'algoritmo decide che è utile mostrare qualche immagine)?
I risultati aggiuntivi da mostrare, sono scelti a mano? (la ricerca per "suicide" fa pensare di sì, oppure il motore è evoluto fino a questo punto?)
Ma soprattutto, era questo che intendevi quando parlavi di "motori di risposta"?
-
@LowLevel said:
Nota che uno dei fattori che alcuni motori prendono in considerazione per calcolare la popolarità di un sito dipende da quanto spesso il sito viene fuori nei risultati delle ricerche. E' anche in base a questo fattore che molti spammer riescono a creare siti generalisti che si piazzano bene per molte keyword.
Ma quindi i motori favoriscono anche in base ai click che un sito web riceve nelle serp? Ovvero più click riceve, più sale nelle serp...
-
@Stuart said:
"Escludendo Sitemaps e Analytics, quale tra i nuovi servizi e infrastrutture di Google che hanno esordito nell'ultimo anno ritieni più interessanti, da un punto di vista SEO/SEM? E perchè?"
Google Trends non è male, ma molto limitato.
La cosa che ritengo personalmente più interessante è la nuova gestione dei crawler da parte di BigDaddy, in particolare la creazione della cache. 'Sta roba darà filo da torcere ai SEO perché sarà più difficile determinare quando uno specifico spider ha scaricato un file.
Penso che sarebbe interessante dare un'occhiata a come funzionano le ricerche personalizzate e capire quali algoritmi vengono attualmente usati per stabilire la posizione delle pagine.
Ho dato un'occhiata a Google Spreadsheet ed è anch'esso molto limitato. Non ho posto molta attenzione ai tool che prevedono la condivisione di informazioni; mea culpa: conteranno sempre più.
-
@LowLevel said:
Non ho posto molta attenzione ai tool che prevedono la condivisione di informazioni; mea culpa: conteranno sempre più.
Quali sono questi tool?