purtroppo ad oggi devo confermare il crollo delle conversioni firefox...
ma nessuno di voi usa questo referral e può dirmi se nota lo stesso fenomeno?
purtroppo ad oggi devo confermare il crollo delle conversioni firefox...
ma nessuno di voi usa questo referral e può dirmi se nota lo stesso fenomeno?
Ciao a tutti,
mi accade una cosa strana: da ieri ho notato un brusco abbassamento del tasso di conversione sul referral firefox con google toolbar.
In particolare nei giorni precedenti avevo una percentule di conversione/click del 50% (cioè ogni due click sul referral avevo in media 1 installazione (e quindi conversione)). Da ieri ho un tasso di conversione mooolto inferiore siamo nell'ordine dell'8% (dato che si conferma anche oggi).
Ovviamente non ho cambiato nulla nel mio codice, ne tantomeno è cambiato qualcosa a livello di visitatori/pagina.
Qualcuno di voi ha notato lo stesso fenomeno?
Ciao e grazie...
@j0sh said:
ragazzi occhio a google analytics...
ho letto cose inquietanti...
forse meglio non far sapere a google quante visite hanno i nostri siti
j0sh ci spieghi meglio? cosa hai letto di tanto inquietante?
hai già provato con:
http://services.google.com:8882/urlconsole/controller
non so se rimuove anche pr (non credo) però con questo tool mi sono fatto segare immediatamente un po di cartelle divenute scomode.
Devi mettere sul sito un file robot.txt che neghi l'accesso alle risorse da rimuovere (anche tutto il sito) poi dall'url indicato chiedi la rimozione di contenuti partendo dal robot.txt creato. Ovviamente puoi anche segare solo alcune cartelle.
@angelweb said:
Pensi che se lo spider passa frequentemente è perchè cerca nuovi aggiornamenti??
Allora non hai le idee chiare sulle funzioni dei spider.
scusa ma allora perchè passa uno spider frequentemente? quali sono le funzioni degli spider oltre a quelle di ricerca di aggiornamenti?
@angelweb said:
E il posizionamento con gli spider non c'entra NULLA!
Ci sono siti nel web che non vengono aggiornati dalla nascita di internet e sono sempre nelle prime posizioni.
Beh io mica ho detto che un sito aggiornato esce sicuramente prima di uno non aggiornato o che il posizionamento dipende da quante volte passa lo spider sul sito? ho detto che google da maggiore rilevanza ai siti "aggiornati" con maggiore frequenza. L'aggiornamento delle pagine è uno dei criteri per il posizionamento ma di certo non è l'unico! Se un sito che non viene aggiornato dalla nascita di internet è nelle prime posizioni probabilmente ha tanti di altri criteri per cui google ritiene essere più in tema di altri rispetto alla chiave di ricerca utilizzata (vedi anzianità del dominio, anzianità della pagina, quantità/qualità di BL, trust rank, ecc)
@angelweb said:
Le community dai motori sono viste diversamente dai normali siti web con pagine statiche di 50/100/150 documenti, hanno un'altro algoritmo filtrato di indicizzazione dove vengono contenuti (ma non è qui che se ne può discutere).
Poi cè differenza anche dai portali, blog, siti di newsletter, ecommerce ...
perchè qui non se ne può discutere?? il motore di ricerca capisce se la pagina che sta indicizzando è un forum, un blog e altro? in base a quali criteri?
@angelweb said:
Un sito normale come penso quello di Netdream dove vuole aggiungere dei contenuti per ampliarlo cadrà vistosamente aggiungendo 50 pagine nuove.
Certo ma poi risalirà. Se inserisce i contenuti poco alla volta comunque impiegherà tempo (10 alla settimana = 5 settimane).. quindi se l'aggiornamento è una tantum non c'è molta differenza... se poi vuole continuare ad inserire argomenti conviene sicuramente inserirli poco alla volta in modo da garantire una certa frequenza di aggiornamento.
@angelweb said:
Poi ognuno è libero di fare e credere a ciò che vuole e sia migliore
certo ognuno applica i consigli secondo quanto ritiene necessario. L'importante è condividere e dare una spiegazione alle proprie intuizioni e cercare di capire tutti insieme le logiche che sono dietro i motori di ricerca.
@angelweb said:
Scusami ma il problema non è lo spider quando passerà o meno con frequenza, ma il posizionamento.
Ho esposto il mio pensiero in base all'obiettivo di tutti che è alla fine "il posizionamento".
Ma se lo spider passa con maggiore frequenza sul sito A piuttosto che sul sito B vuol dire che google ritiene importante avere contenuto fresco e questo da maggiore rilevanza (posizionamento) ai siti "aggiornati" con maggiore frequenza.
@angelweb said:
Facendo come dici tu ti ripeto che cadrai nelle serp e dovrai aspettare l'assestamento con tutte le nuove pagine.
non sono daccordo. Prendi ad esempio un forum (come questo!). Ogni volta che apriamo un topic o aggiungiamo un post a quelli esistenti aggiungiamo e modifichiamo le pagine contenute su questo sito. Quindi, secondo quanto dici, il forum giorgio tave cade sempre giù nelle serp in attesa di assestamento... o forse non ho capito bene a cosa ti riferisci...
Espongo anche io la mia teoria in questo topic:
Se hai pronte 50 pagine e non pensi di crearne altre a breve allora le puoi mettere tutte insieme o poco alla volta il risultato non cambia.
Se hai pronte 50 pagine ma hai in programma di crearne altre e altre ancora con scadenza temporale, allora agli occhi del motore sarà meglio metterle a poco alla volta.
La mia teoria è questa: lo spider visita il sito con una determinata frequenza. Nelle varie visite successive troverà un certo numero di pagine nuove o modificate. Quindi sarà in grado di determinare la frequenza di aggiornamento del tuo sito (pagine/tempo).
Tale frequenza dovrebbe essere mantenuta più o meno costante (aggiungere x pagine ogni y giorni) in modo che gli spider capiscano che il sito è in costante manutenzione. Se la frequenza di aggiornamento subisce brusche variazioni (negative) allora il sito potrebbe risultare "abbandonato" o comunque non più aggiornato.
La teoria potrebbe anche andare bene per il problema sollevato da google-penality: se assumo 4 giornalisti produco 20 pagine al giorni tutti i giorni (frequenza costante) quindi sono ben visto dagli spider. Se tra un anno li licenzio tutti non produco più aggiornamenti ed il sito potrebbe perdere di rilevanza.
Che ne pensate?
voglio riesumare questo vecchio post perchè ho notato dei risultati abbastanza strani con la ricerca su google.it: cosa visitare ad ischia
in particolare vengono fuori i siti senza le description... che sia un bug di google?!? che ne pensate?
url per la ricerca: http://www.google.it/search?num=100&hl=it&q=cosa+visitare+ad+ischia&meta=
infatti... anch'io non mi fido dei risultati di overture. Leggo i risultati in termini "relativi": cioè per capire quali kword possono potenzialmente dare un risultato migliore rispetto ad altre. Quale strumento usare in alternativa?
scusa dechigno ma è normale che i risultati di overture siano fermi a settembre? di solito quanto tempo ci vuole affinchè vengano pubblicati i dati del mese precedente?
marty a me funziona... a volte capita che dia errore ma poi cliccando "aggiorna" sul browser funziona.
ho notato che i risultati di overture sono fermi al mese di settembre.
E' normale che sia così? non dovrebbero già essere disponibili i dati di ottobre 2006?
concordo con chi dice che i risultati di overture non sembrano molto realistici.. esiste uno strumento simile che fornisca risultati più attendibili?
@Catone said:
E quindi che ne deduciamo, non l'ho capito!?
cosa c'è da dedurre non te lo so dire... io ho posto delle domande a cui non so dare una spiegazione chiedendo il vostro parere e cercando di dare una spiegazione logica a quanto è capitato.
Ho controllato i log di IIS e i visitatori sono umani, vengono da ip diversi. Tra l'altro controllando con overture le keywords non sono poi così ricercate. A questo punto penso a qualche particolare evento (tipo qualche trasmissione televisiva o altro) che ha portato ad un'aumento delle ricerche per quelle parole chiave (geograficamente i visitatori sono provenienti il 90% dagli usa).
@paocavo said:
E invece si! anche gli spider "cliccano" sugli annunci ADSense, peccato che GG se ne accorge (ovviamente) e non contabilizza quei "click"... :(;)
appunto... visto che in quei giorni il boom si è ripercosso anche sugli introiti adsense ne ho dedotto che fossero degli umani.
ah! è vero! avevo messo anche lo script di analitycs.. (me ne ero scordato perche con 10 visite c'è poco da vedere....
adesso controllo:
ecco in progressione i dati di CPC vs. Organic Conversion dal 11 al 14 lug:
11 lug: google[organic] 1
italian+wine+center 1
12 lug: google[organic] 113
italian+wine+center 99
13 lug: google[organic] 41
italian+wine+center 38
14 lug: google[organic] 3
italian+wine+center 3
il resto degli accessi vengono da msn e seguono più o meno lo stesso andamento degli accessi da google ma con valori inferiori (1, 33, 8, 2 visitatori).
per me è un mistero!
rettifico: la ricerca da farsi non è partenopeo ma "partenope".
In questo caso puoi verificare che evidentemete partenope non è uguale a napoli. comunque non mi è ben chiaro cosa intendi per associare...
cercando con google.it la parola partenopeo, troverai che la maggior parte dei risultati contiene la parola precisa partenopeo. Ma entro i primi 20 risultati c'è anche un marinellanapoli (nella pagina non esiste nessun riferimento alla parola partenopeo) dunque lascia pensare che partenopeo "è simile a" napoli ma non è uguale altrimenti tra i risultati ci sarebbero + argomenti riguardanti la parola "napoli".
Poi resta da capire cosa intendi per "associare". Se ti basta il "è simile a" allora ok ma se siamo in tema di ottimizzazione se fai un sito che riguarda ragusa a mio avviso è molto meglio usare la kword "ragusa" piuttosto che "ibleo".
il mio sito è [url=http://www.italianwinescenter.com]Italian wine center - Italian wine and food information
le keyword oggetto dello scandalo sono: italian wine center (su google.com)
Per l'applicazione in corso d'opera di url_rewrite ad un sito già indicizzato hai come contro la perdita del PR sulle varie pagine interne del sito (a meno che non ti riesca l'applicazione del 301) che potrai in parte recuperare al prossimo aggiornamento del PR. Dico in parte perchè ovviamente i link dalla homepage del sito ed i link interni punteranno alle nuove pagine mentre se hai qualche link dall'esterno sulle pagine interne del sito dovresti contattare i vari webmaster (laddove possibile) per farti aggiornare i links. Un'altro aspetto negativo è legato all'età delle nuove pagine vs. quelle vecchie. Agli occhi di Google saranno 500 nuove pagine nuove contro le vecchie pagine indicizzate da x tempo.
Per il rischio di contenuti duplicati vai tranquillo che eliminando i link alle vecchie pagine esse verranno eliminate dall'index di google.
Sull'altro piatto della bilancia avrai ovviamente il vantaggio di avere le keywords nell'url. Io lo farei subito... (a suo tempo lo feci senza neanche il 301!)
Ciao,
Volevo raccontarvi questa "esperienza" che mi è capitata qualche giorno fa. Ho un sito "giovane" che ancora non è al top nelle serp. Nei giorni scorsi ricevevo mediamente 5-10 visitatori al giorno (lo so che è poco non mi mangiate!).... tranne il 12 luglio nel quale registro un picco di 204 visitatori ed il 13 luglio (50 visitatori) per ritornare poi ai soliti miseri 5-10.
La prima cosa che ho pensato è stato a qualche spider non riconosciuto da awstats che uso per le statistiche, ma in effetti sono visitatori provenienti da Google e poi non credo che gli spider clicchino sugli adsense
C'è da dire che però per le kwords da cui provenivano buona parte dei visitatori il sito è ben posizionato (#5).
Ora sto cercando una spiegazione plausibile a tutto cio... che tutti si siano messi a cercare le kwords in quel solo giorno? o in quel giorno potrebbe il mio sito aver raggiunto la posizione #1 (ma con una tale differenza di visitatori)?
boh. voi che ne pensate.
PS: scusate per il titolo ma non ne ho trovato di migliori...